Защищаем детей в интернете вместе с Thorn, All Tech is Human и бигтехами
Рассказываем, как контакт-центр может следить за онлайн-безопасностью детей и какие принципы «Безопасности благодаря дизайну» (Safety By Design) мы поможем соблюсти бизнес-партнёрам — чтобы было, как у Google.
Teleperformance присоединилась к инициативе Thorn и All Tech is Human, цель которой — обезопасить детей в цифровой среде. Мы встали в один ряд с Google, Microsoft, Amazon, Open AI, Meta* и др., чтобы скоординировать усилия по предотвращению вреда детям онлайн, причиненного недобросовестным использованием генеративного искусственного интеллекта (ИИ).
* — Компания Meta признана в РФ экстремистской организацией и запрещена.
Как действует Teleperformance
Среди тех, кто поддержал инициативу, только Teleperformance предоставляет услуги модерации контента на аутсорсе. Возможности Teleperformance, которые позволяют следить за безопасностью детей онлайн, таковы:
проверять наборы данных по обучению и защищать их от материалов о насилии над детьми (CSAM), об эксплуатации детей (CSEM);
оценивать потенциал технологий генерировать или распространять CSAM, сгенерированный искусственным интеллектом CSAM (AIG-CSAM) и CSEM, и устранять проблемы до публикации материалов бизнес-партнёра;
помогать обнаруживать оскорбительный и нелегальный контент (CSAM, AIG-CSAM и CSEM) во входных и выходных данных;
помогать ретроспективно оценивать потенциал моделей ИИ создавать AIG-CSAM и CSEM, дорабатывать модели ИИ;
мониторить, удалять и предотвращать публикации CSAM, AIG-CSAM и CSEM на платформах клиентов, информировать об инцидентах.
Какие принципы «Безопасности благодаря дизайну» (Safety By Design) TP поможет соблюсти бизнес-партнёрам
Подключаясь к инициативе Thorn и All Tech is Human, Teleperformance обязалась помочь своим бизнес-партнёрам и заказчикам услуг следовать и соответствовать трём принципам.
1. Разрабатывать, создавать и обучать модели генеративного искусственного интеллекта, которые активно устраняют риски безопасности для детей
Этот принцип подразумевает, что нужно ответственно подбирать данные для обучения и защищать их от оскорбительного и нелегального контента; проводить структурное, масштабируемое и последовательное стресс-тестирование моделей. Это поможет выпускать на рынок такие модели генеративного ИИ, которые не будут создавать оскорбительный и нелегальный контент.
А чтобы генеративный контент не затруднял поиски детей, которые находятся в опасности, от компаний требуется разрабатывать решения для выявления, пометки и проверки сгенерированных фото и видео.
2. Выпускать и распространять модели генеративного ИИ после обучения и оценки безопасности для детей, а также поддерживать высокий уровень безопасности
Этот принцип о том, что обязательно правильно разместить и внедрить модель ИИ, а также продолжать бороться с оскорбительным, неэтичным, нелегальным контентом даже после выхода софта. Нужно отслеживать это самостоятельно, а также дать пользователям возможность оставлять обратную связь о платформе.
Полезно проводить поэтапное развертывание и проверять устойчивость систем, например, с помощью имитации атак (Red Teaming). Это помогает размещать модели ИИ безопасно.
Обязательны четкие правила и политики в отношении запрета моделей ИИ, которые способны генерировать контент, нарушающий безопасность детей. Также принцип подразумевает мотивацию разработчиков обеспечивать «безопасность благодаря дизайну» (Safety By Design).
3. Поддерживать безопасность модели и платформы, продолжая активно реагировать на риски безопасности для детей
Сервисы не должны масштабировать доступ к инструментам, которые создают и/или распространяют оскорбительный, неэтичный и нелегальный контент. На платформах должно быть запрещено создавать, хранить, запрашивать и распространять CSAM, AIG-CSAM и CSEM, в случае появления он должен быть удалён.
Крайне важно инвестировать в исследования и разработку технологий, которые помогут воспрепятствовать злоумышленникам использовать генеративный ИИ во вред детям, в том числе понять этот негативный потенциал продукта. Цель — поддерживать высокий уровень мер по смягчению последствий, чтобы противостоять возможным злоупотреблениям.
* * *
Эти принципы охватывают весь жизненный цикл машинного обучения и искусственного интеллекта, подразумевают превентивные меры на каждом этапе, чтобы помешать злоумышленникам использовать высокие технологии и навредить детям. Инициатива позволяет зафиксировать верховенство высших ценностей человечества и примирить их с потенциалом искусственного интеллекта.