Защищаем детей в интернете вместе с Thorn, All Tech is Human и бигтехами

Рассказываем, как контакт-центр может следить за онлайн-безопасностью детей и какие принципы «Безопасности благодаря дизайну» (Safety By Design) мы поможем соблюсти бизнес-партнёрам — чтобы было, как у Google.

Teleperformance присоединилась к инициативе Thorn и All Tech is Human, цель которой — обезопасить детей в цифровой среде. Мы встали в один ряд с Google, Microsoft, Amazon, Open AI, Meta* и др., чтобы скоординировать усилия по предотвращению вреда детям онлайн, причиненного недобросовестным использованием генеративного искусственного интеллекта (ИИ).

* — Компания Meta признана в РФ экстремистской организацией и запрещена.

Защищаем детей в интернете вместе с Thorn, All Tech is Human и бигтехами

Как действует Teleperformance

Среди тех, кто поддержал инициативу, только Teleperformance предоставляет услуги модерации контента на аутсорсе. Возможности Teleperformance, которые позволяют следить за безопасностью детей онлайн, таковы:

  • проверять наборы данных по обучению и защищать их от материалов о насилии над детьми (CSAM), об эксплуатации детей (CSEM);

  • оценивать потенциал технологий генерировать или распространять CSAM, сгенерированный искусственным интеллектом CSAM (AIG-CSAM) и CSEM, и устранять проблемы до публикации материалов бизнес-партнёра;

  • помогать обнаруживать оскорбительный и нелегальный контент (CSAM, AIG-CSAM и CSEM) во входных и выходных данных;

  • помогать ретроспективно оценивать потенциал моделей ИИ создавать AIG-CSAM и CSEM, дорабатывать модели ИИ;

  • мониторить, удалять и предотвращать публикации CSAM, AIG-CSAM и CSEM на платформах клиентов, информировать об инцидентах.

Какие принципы «Безопасности благодаря дизайну» (Safety By Design) TP поможет соблюсти бизнес-партнёрам

Подключаясь к инициативе Thorn и All Tech is Human, Teleperformance обязалась помочь своим бизнес-партнёрам и заказчикам услуг следовать и соответствовать трём принципам.

Защищаем детей в интернете вместе с Thorn, All Tech is Human и бигтехами

1. Разрабатывать, создавать и обучать модели генеративного искусственного интеллекта, которые активно устраняют риски безопасности для детей

Этот принцип подразумевает, что нужно ответственно подбирать данные для обучения и защищать их от оскорбительного и нелегального контента; проводить структурное, масштабируемое и последовательное стресс-тестирование моделей. Это поможет выпускать на рынок такие модели генеративного ИИ, которые не будут создавать оскорбительный и нелегальный контент.

А чтобы генеративный контент не затруднял поиски детей, которые находятся в опасности, от компаний требуется разрабатывать решения для выявления, пометки и проверки сгенерированных фото и видео.

Защищаем детей в интернете вместе с Thorn, All Tech is Human и бигтехами

2. Выпускать и распространять модели генеративного ИИ после обучения и оценки безопасности для детей, а также поддерживать высокий уровень безопасности

Этот принцип о том, что обязательно правильно разместить и внедрить модель ИИ, а также продолжать бороться с оскорбительным, неэтичным, нелегальным контентом даже после выхода софта. Нужно отслеживать это самостоятельно, а также дать пользователям возможность оставлять обратную связь о платформе.

Полезно проводить поэтапное развертывание и проверять устойчивость систем, например, с помощью имитации атак (Red Teaming). Это помогает размещать модели ИИ безопасно.

Обязательны четкие правила и политики в отношении запрета моделей ИИ, которые способны генерировать контент, нарушающий безопасность детей. Также принцип подразумевает мотивацию разработчиков обеспечивать «безопасность благодаря дизайну» (Safety By Design).

Защищаем детей в интернете вместе с Thorn, All Tech is Human и бигтехами

3. Поддерживать безопасность модели и платформы, продолжая активно реагировать на риски безопасности для детей

Сервисы не должны масштабировать доступ к инструментам, которые создают и/или распространяют оскорбительный, неэтичный и нелегальный контент. На платформах должно быть запрещено создавать, хранить, запрашивать и распространять CSAM, AIG-CSAM и CSEM, в случае появления он должен быть удалён.

Крайне важно инвестировать в исследования и разработку технологий, которые помогут воспрепятствовать злоумышленникам использовать генеративный ИИ во вред детям, в том числе понять этот негативный потенциал продукта. Цель — поддерживать высокий уровень мер по смягчению последствий, чтобы противостоять возможным злоупотреблениям.

* * *

Эти принципы охватывают весь жизненный цикл машинного обучения и искусственного интеллекта, подразумевают превентивные меры на каждом этапе, чтобы помешать злоумышленникам использовать высокие технологии и навредить детям. Инициатива позволяет зафиксировать верховенство высших ценностей человечества и примирить их с потенциалом искусственного интеллекта.

33
13 комментариев

Так подождите, в чем проблема прост включить родительский контроль на том же ютубе?

Ответить

Родительский контроль — это индивидуальное решение. Наша цель — именно на уровне дизайна сервисов, платформ, моделей ИИ препятствовать появлению (загрузке и генерации) нелегального, оскорбительного, неэтичного контента, чтобы обезопасить всех пользователей

3
Ответить

Очень классная инициатива! Жутковато от того, чему могут подвергнуться дети, и что ИИ может помочь злоумышленникам

1
Ответить

Спасибо! Мы тоже считаем крайне важным защитить детей, а по сути — всех пользователей от неэтичного и противоправного контента

2
Ответить

Google защищает детей в своем Duolingo с помощью ЛГБТ контента. Защитники, х-ле.

Ответить

Вроде же была недавно новость, что этот контент удалили

Ответить