Дипфейки: как защитить себя от цифрового обмана
В эпоху стремительного развития цифровых технологий граница между виртуальным и реальным становится все менее четкой. Один из самых спорных способов применения технологии искусственного интеллекта — дипфейки, которые показывают то, чего на самом деле не было в реальности. Чем опасны дипфейки, как их опознать и как использовать «во благо» — читайте в нашем материале.
Что такое дипфейк и чем он опасен?
Мы уже слушаем музыку, которая подобрана рекомендательными системами с использованием искусственного интеллекта, покупаем товары, которые «предложила» нам нейросеть, а специалисты проводят исследования и лечат людей с помощью цифровых помощников. Согласно Индексу готовности приоритетных отраслей экономики Российской Федерации к внедрению искусственного интеллекта за 2024 год, средний уровень использования искусственного интеллекта в разных отраслях российской экономики составляет 32%. Однако помимо пользы, эта технология приносит и вред.
Дипфейк — это метод применения ИИ, позволяющий создавать правдоподобные изображения, видео и звук. Часто его используют мошенники, чтобы получить конфиденциальные данные людей, доступ к финансам или аккаунтам.
«Создать дипфейк сегодня стало значительно проще благодаря развитию доступных инструментов и программных решений. На рынке существует множество приложений и онлайн-сервисов, которые предлагают возможность разработать дипфейк без глубоких технических знаний. Для простого дипфейка действительно может хватить нескольких часов, чтобы освоить работу с этими инструментами. Для профессионального уровня дипфейков — например, тех, что используются в кино или для сложных подмен лиц и голосов с сохранением мимики и других деталей, требуются более мощные ресурсы, большие объемы данных и опыт работы с нейронными сетями», — рассказал Андрей Кузнецов, руководитель лаборатории FusionBrain в AIRI.
Чтобы создать дипфейк, специалисты используют генеративно-состязательные нейронные сети (GAN). Такая система разделена на два алгоритма: генератор и дискриминатор. Задача первого — создавать изображение, звук или видео. Второй алгоритм определяет реалистичность этого контента, сравнивая его с «оригиналом» — настоящим голосом, картинкой или видеозаписью.
В итоге система учится сама у себя: генератор получает обратную связь от дискриминатора, которая заставляет его создавать все более и более реалистичные изображения, аудио- или видеозаписи, пока дискриминатор не «перепутает» подделку с оригиналом.
Во имя добра
● образовании;
● киноиндустрии;
● рекламе;
● играх;
● творчестве.
Цифрового двойника на основе искусственного интеллекта можно использовать, например, чтобы «воскрешать» других людей, как это сделало издательство «Эксмо». Кинематографисты тоже используют дипфейки умерших актеров: с их помощью Юрий Никулин «сыграл» в новом фильме «Манюня: Приключения в Москве». Внешность и голос актера были воссозданы с помощью нейросетей. Разрешение на это дал сын актера. Однако не все потомки известных людей разделяют такую позицию. Дочь актера Юрия Яковлева, Алена Яковлева, категорически против воссоздания образа отца с помощью технологии deepfake.
«Один из примеров, который сразу приходит в голову, — технология применялась для создания молодого Марка Хэмилла в сериале “Мандалорец”, а также для восстановления образов актеров в фильмах, когда съемки с их участием не могли быть завершены. Еще один вариант применения в кинематографе — дипфейки могут использоваться для синхронизации движений губ актеров при дублировании фильмов на другие языки. Это позволяет улучшить восприятие переведенного контента, делая его более естественным и точным», — рассказал Андрей Кузнецов.
…И во имя зла
Когда с помощью нейросети можно с поразительной точностью воссоздать голос, внешность и даже движения человека, появляются злоумышленники, которые используют эту возможность для мошенничества, шантажа и других преступлений.
Зачем мошенники могут использовать дипфейки?
● Чтобы притвориться знакомым и втереться в доверие к человеку;
● Чтобы шантажировать человека или бренд;
● Чтобы продвигать свои интересы (например, дискредитировать кандидата во время выборов);
● Чтобы взламывать системы распознавания лиц и получить доступ к конфиденциальной информации;
● Чтобы распространить дезинформацию.
В первом случае в мессенджер может прийти голосовое сообщение или видеозапись (иногда в формате популярного в мессенджерах «кружочка») от знакомого человека с просьбой перевести сумму денег. Зачастую такие дипфейки почти неотличимы от оригинала: с тем же тоном, громкостью голоса, интонациями. В такой ситуации легко попасться на уловку мошенников и сообщить им конфиденциальные данные или даже отправить деньги.
Во втором и третьем случаях злоумышленники распространяют сгенерированный контент, в котором дипфейк сообщает вредоносную информацию или совершает действия, компрометирующие его или других людей или бренды. Так, например, 4 тысяч знаменитостей стали жертвами дипфейков. Часто эти дипфейки применяются для создания порнографических роликов.
Основные опасности дипфейков:
● Дезинформация.
● Дискредитация.
● Финансовое мошенничество.
● Утечка персональных данных.
● Обман систем аутентификации.
Андрей Кузнецов, руководитель лаборатории FusionBrain в AIRI, рассказал, как понять, что перед вами — дипфейк:
● Аномалии в мимике и движениях. Дипфейк может плохо синхронизировать движения лица с речью или эмоциями. Например, движения губ могут не полностью соответствовать звуку или эмоции на лице могут выглядеть неестественно.
● Неестественные моргания. Часто у дипфейков бывают проблемы с реалистичным морганием. Человек может моргать реже или чаще, чем обычно, или само моргание выглядит неестественным — слишком медленным или быстрым.
● Рассогласования в освещенности. В дипфейках освещение на лице может не совпадать с окружающей средой. Например, тени на лице могут быть неестественными или неподходящими для общего освещения.
● Искажения вокруг лица. На границе лица и волос могут наблюдаться искажения, особенно при движении. Контуры лица могут выглядеть размытыми или неправильными.
● Неестественные движения головы и шеи. Нейросеть может создавать артефакты в движениях головы или шеи, особенно если они наклоняются под необычными углами.
● Качество кожи и текстуры. При внимательном рассмотрении можно заметить ненатуральную гладкость кожи или недостатки в текстуре лица, что может указывать на искусственную обработку изображения.
● Аудиосинхронизация. В некоторых дипфейках заметны несовпадения между движением губ и звуком, особенно при сложных или быстрых речевых конструкциях.
Существуют специальные программы, которые позволяют определить, были ли изображение, видео- или аудиозапись созданы искусственным интеллектом. Например, представленная в 2023 году специалистами Донского государственного технического университета разработка позволяет выявлять дипфейки, созданные с помощью алгоритма GAN.
А кто нас защитит?
«В контексте дипфейков речь обычно идет о копировании внешности человека, то есть их использование попадает в список вопросов об авторском праве, связанных с разрешением на копирование. Зачастую создателем дипфейка выступает “нейросеть”, в юридической терминологии –– компьютерная программа, у которой нет субъектности: по российскому законодательству автором может быть только физическое лицо (ст.1228 ГК РФ), возможности признать факт создания объекта авторского права за ИИ-системой нет. Еще сложнее обстоят дела с копированием голоса, так как ни в одной юрисдикции на голос как таковой не распространяется авторское право», — рассказал Андрей Кузнецов.
Также эксперт объяснил, что в российском законодательстве, скорее всего, будут рассматривать дипфейки как «объекты смежного права, при котором использование исходного произведения без согласия его правообладателя будет незаконно». Решить все вопросы с таким подходом не получится, однако на данный момент ни в одной стране мира еще не сформирована законодательная практика, которая полностью регулирует сферу дипфейков, отметил Кузнецов. Это нормально, считает эксперт, ведь создание нормативно-правовой базы для технологических решений требует времени. Впрочем, Европейский парламент в 2024 году утвердил закон о регулировании искусственного интеллекта. Он обязывает маркировать дипфейки.
Дипфейки — это лишь метод, который может использоваться как во благо, так и в преступных целях. Этот инструмент только развивается, поэтому пока что его регулирование и в России, и в других странах развито весьма слабо. До тех пор, пока законодательство не достигнет необходимого уровня, важно не давать себя обмануть: обращать внимание на мимику, тембр голоса и другие признаки, которые могут подсказать, что перед вами — ненастоящее видео, аудио или изображение, а лишь творчество искусственного интеллекта. Лучше всего относиться к любому контенту, который публикуется в интернете, со значительной долей бдительности и настороженности, особенно из-за развития в последнее время систем, создающих дипфейки.
Следите за событиями в сфере ИИ на национальном портале в сфере ИИ – ai.gov.ru.