Китай разработал систему искусственного интеллекта, которая серьезно усиливает цензуру в интернете
Расскажу, на основе чего делается такой вывод, и чем это грозит
🔥 Еще больше интересного в моем канале продуктовые штучки
Подробности
Об этом говорит утекшая база данных. Основной целью является контроль общественного мнения и обеспечение продвижения официальных нарративов, подавляя альтернативные точки зрения.
Система предназначена для автоматического выявления любого контента, считающегося "чувствительным" китайским правительством, и идет гораздо дальше традиционных табу, таких как события на площади Тяньаньмэнь. Система использует большие языковые модели (LLM), чтобы выявлять не только прямую критику, но и завуалированную, например, политическую сатиру или исторические аналогии.
Ранее OpenAI обнаружила, что китайские структуры использовали LLM для отслеживания антиправительственных постов и клеветы на диссидентов. Китайское посольство отвергает обвинения в цензуре и утверждает, что придает большое значение развитию этичного ИИ.
Эксперты отмечают, что это свидетельствует о стремлении авторитарных режимов использовать новейшие технологии ИИ для усиления репрессий.
Какие данные были украдены и как они использовались?
Данные, обнаруженные на незащищённом сервере Baidu, включают 133 000 примеров контента, который правительство считает "чувствительным" (коррупция, бедность, Тайвань и др.) Система автоматически выявляет не только прямую критику, но и завуалированные формы, такие как сатиру
Утечка была из компании TopSec. Компания предоставляет услуги "цензуры как сервиса" для государственных и частных клиентов, среди проектов — мониторинг сайтов на политически чувствительный контент и поддержка госорганизаций во время коррупционных скандалов.
Эту базу видело издание TechCrunch. Набор данных был обнаружен исследователем безопасности NetAskari, который поделился образцом с TechCrunch, обнаружив его в незащищенной базе данных Elasticsearch, размещенной на сервере Baidu.
Каковы последствия цензуры ИИ для пользователей?
Без контроля цензура ИИ может стать инструментом тотального контроля.
1. Ограничение свободы выражения мнений
Системы ИИ могут блокировать контент, связанный с политикой, религией, расовыми вопросами или критикой властей, даже если он не нарушает законы. Например, Character.AI запрещает обсуждение теорий заговора, отрицания климата или вакцин, что может подавлять альтернативные точки зрения
2. Эмоциональная зависимость и психологический ущерб
Чрезмерное доверие к ИИ-собеседникам может привести к изоляции от людей, снижению критического мышления и эмоциональным расстройствам. Пример: подросток, общавшийся с ИИ-персонажем, развил тревожное расстройство и совершил суицид
3. Распространение дезинформации и фейков
Хотя ИИ-цензура блокирует явно ложный контент (например, дипфейки), предвзятость алгоритмов может усиливать стереотипы или подавлять правду. Например, предвзятые модели могут игнорировать данные, противоречащие их обучающимся шаблонам57.
4. Манипуляция и контроль ИИ может скрывать информацию, которая не соответствует целям разработчиков или государства
Например, китайские системы цензуры используют ИИ для подавления критики, включая жалобы на бедность или коррупцию
5. Непредсказуемость и ошибки
Цензура ИИ часто работает по шаблонам, что приводит к ложным срабатываниям. Например, блокировка нейтральных тем из-за ключевых слов или контекста, который алгоритм неправильно интерпретирует
6. Утрата доверия к источникам
Массовое использование ИИ для фильтрации контента может подорвать веру в объективность информации, особенно если цензура не прозрачна. Это усиливает скептицизм и дезориентацию в реальности