Дипфейки в 2023 году: как выявить «подделку» и почему с каждым днём это всё труднее
Рассказываем, как проверить подлинность контента и не стать жертвой злоумышленников.
За последние 10 лет количество этических нарушений, связанных с искусственным интеллектом, выросло в 26 раз, говорится в AI Index Report 2023. И если несколько лет назад дипфейком называли только замену лица в видео, то со временем это явление стало более разнообразным.
Появились полностью сгенерированные, но правдоподобные:
- фотографии
- видео
- имитации голоса
- фейковые новости
- письма в стиле конкретных людей
Как появились дипфейки
Дипфейки прошли путь от картинок плохого качества до фальшивых фото и видео, которые могут ввести в заблуждение даже авторитетные СМИ.
2014 год: ИИ научился генерировать реалистичные лица людей
Прародителем современных ИИ-моделей для создания дипфейков считается генеративно-состязательная нейросеть (GAN). Впервые эту модель представили в 2014 году.
В основе GAN лежали две нейросети:
- генератор случайных реалистичных изображений
- дискриминатор, который отделял фейковые материалы от подлинных
Так, одна нейросеть генерировала изображения, а другая их отбраковывала, если результат получался недостаточно реалистичным. При этом в GAN нельзя было ввести запрос — нейросеть сама рисовала случайную картину на основе заложенных в неё образцов.
Изначально генеративно-состязательная нейросеть могла создавать только небольшие изображения лиц в плохом качестве. Но вскоре GAN-модели научились генерировать реалистичные картинки в 4K — некоторые из них уже было трудно отличить от реальных фотографий.
2017 год: первые дипфейки на Reddit
Считается, что первые дипфейки появились в 2017 году, когда на Reddit опубликовали ролики откровенного содержания с лицами знаменитостей. Их выложил пользователь с никнеймом Deepfakes — поэтому слово и стало означать фальшивый контент.
После инцидента с роликами технология стала популярнее. В интернете появились приложения вроде ReFace, которые могут менять лицо на видео.
2021 год: дипфейки может генерировать любой
Следующий этап развития дипфейков наступил в 2021 году, когда компания OpenAI опубликовала первую версию нейросети DALL-E. Она генерировала реалистичные изображения уже по запросу. После этого ИИ-рынок наполнился аналогичными проектами, а в 2022 году Midjourney опубликовала в открытом доступе свою бета-версию.
Когда простые пользователи смогли пользоваться нейросетями, дипфейки стали популярнее.
2023 год: главное — правильный запрос
Сейчас, чтобы сгенерировать фото или видео, даже необязательно специально обучать нейросеть — достаточно просто правильно сформулировать запрос.
Иногда с помощью дипфейков можно обмануть даже авторитетные СМИ. Например, в марте 2023 года в интернете стали распространять фотографии папы римского в белом пуховике известного люксового бренда, а также кадры задержания Дональда Трампа. Только через некоторое время выяснилось, что изображения сгенерировали через Midjourney. После этого доступ к нейросети сделали платным.
Сейчас разработчики создают проекты, с помощью которых на сгенерированном изображении можно разместить конкретный объект или человека. Например, пользователь может загрузить фотографии своего кота и указать, в каких условиях он должен появиться на изображении.
Как применяют дипфейки
Дипфейки используют, чтобы:
- изменить лицо или его выражение
- поменять цвет кожи и причёску
- добавить человеку новые атрибуты — очки или макияж
- сгенерировать лица несуществующих людей
- синхронизировать движения губ на видео с аудиозаписью голоса
У каждого из этих видов дипфейков есть позитивные и негативные сценарии использования.
Позитивные сценарии. Перенос лица и изменение атрибутов применяют в развлекательных и информационных приложениях — чтобы «примерить» новый наряд или узнать, как человек будет выглядеть в старости.
Дипфейки активно использует бизнес. С их помощью в рекламе можно разместить образы реальных людей без их присутствия на съемках. Netflix уже запустил реалити-шоу с использованием дипфейков.
Технология синхронизации губ актуальна при переводе фильмов — чтобы дубляж совпадал с мимикой актеров. Теперь локализовать ролик могут не только профессионалы киноиндустрии, но и обычные люди.
В сентябре 2023 года появилась нейросеть HeyGen, которая переводит и озвучивает видео, а также «докручивает» мимику человека в кадре. Актёров дубляжа технология пока не заменяет, так как может переводить ролики длительностью не больше 15 минут.
Негативные сценарии. Пользователи не всегда могут определить достоверность контента, поэтому всеми видами дипфейков пользуются и мошенники. С помощью нейросетей они создают компромат, который можно использовать для шантажа и вымогательств. А ещё манипулируют общественным мнением, например, делают фейковые обращения звезд или политиков.
По данным Европейского института телекоммуникационных стандартов, для бизнеса один из самых опасных видов дипфейков — обход системы аутентификации.
В банках существуют видеопроверки, с помощью которых клиент может дистанционно открыть счет или заказать услуги. Во время онлайн-звонка мошенник может синтезировать голос человека и его лицо — и подтвердить, например, перевод денег.
Ещё один способ использования дипфейков — социальная инженерия. С помощью ИИ мошенники могут записать видео с просьбой перевести деньги — якобы от лица главы компании и отправить его сотруднику.
Так, в 2020 году руководитель филиала японской компании в Гонконге получил звонок. В нем его руководитель — владелец материнской компании — говорил, что фирма поглощает другой бизнес и для этого нужно сделать переводы на $35 000 000. Менеджер ничего не заподозрил и отправил деньги. Позже оказалось, что это атака с использованием искусственного интеллекта.
Как распознать дипфейк и защитить себя
Есть три способа.
✔ Сопоставить движения губ человека в кадре со звуками, которые он произносит. Специалисты используют для этих целей нейросети, обученные читать по губам. Так дипфейк можно распознать с точностью от 73,5 до 97,6%.
Модели, которые могут читать по губам, разрабатывают и в России. В апреле 2023 года такую нейросеть представили учёные из Санкт-Петербурга. Алгоритм работает на базе компьютерного зрения и искусственного интеллекта и распознает слова с точностью до 90%.
✔ Разложить дипфейк-видео по кадрам и найти отличия между ними. Смотреть нужно не на картинку в целом, а на детали. Сейчас нейросети делают дипфейки покадрово, поэтому изображения немного различаются, например, у человека в кадре может поменяться текстура кожи.
✔ На глаз. Для этого обращайте внимание на такие моменты:
- текстуру кожи — в дипфейках она слишком гладкая
- неестественные тени, например, на скулах или от очков
- мимику и движения губ — нейросети пока не научились её имитировать на 100%
- качество звука и посторонние шумы
- зависания изображения
- странные интонации и неправильные ударения
Например, мы сгенерировали этот портрет с помощью нейросети ThisPersonDoesNotExist. Приглядитесь — справа от человека есть какой-то странный пучок волос. Такие огрехи часто встречаются в дипфейках.
✔ Чтобы мошенники не смогли использовать фотографию для дипфейков, можно добавить на неё специальные невидимые шумы. Если кто-то попытается скопировать такое изображение, оно отобразится искажённо, например, в виде синего квадрата. Против каждого вида атак существуют свои шумы — их можно использовать одновременно для защиты от разных видов угроз.
Некоторые компании сейчас работают над тем, чтобы накладывать на фотографии специальные невидимые метки прямо в момент съёмки. Если изменить такое фото, метка будет нарушена и по ней можно будет определить, что изображение искажали.
Можно ли распознать текстовые фейки
Да, можно — и в этом тоже помогут современные технологии.
- Нейросети. Первые методы поиска фейковых текстов появились еще в 2016 году — за несколько лет до развития GPT. Для этого использовали нейросеть, которую обучили на настоящих новостях. Такие технологии существуют и сейчас. Например, одна из российских разработок определяет фейк-ньюс с точностью до 80%.
- Программы-анализаторы. Сгенерированные тексты отличаются стилистикой от тех, которые пишет человек. Нейросети используют самые предсказуемые и шаблонные конструкции, причём на протяжении всего текста. Если вам кажется, что текст построен странно, скорее всего, тут замешан ИИ.
Для проверки можно также подключить технологии вроде антиплагиата — эту систему уже научили распознавать синтезированные тексты.
А ещё ИИ пишет абстрактно и вставляет выдуманные факты. Поэтому выявить сгенерированные тексты можно и самостоятельно — достаточно провести фактчекинг. Например, вбить часть текста в поисковик и посмотреть, цитировали ли её авторитетные издания. Если нет, велика вероятность, что новость фейковая.
Лучшую защиту синтезированных текстов могут создать разработчики
Самый эффективный способ вычислить тексты от нейросетей — добавлять в написанные материалы специальный водяной знак, например, последовательность символов, которую не видит обычный пользователь.
По водяному знаку разработчики смогут определять, написан ли текст их нейросетью — так у них появится возможность создать детектор текстовых фейков. Сейчас создатели нейросетей ведут исследования именно в этом направлении.
Эти методы всё ещё не способны защитить от более современных видов атак. Например, мошенник может использовать перифрайзер, чтобы поменять порядок слов в предложении и сделать синтаксис более привычным. Также злоумышленник может перенести водяной знак нейросети на несгенерированный текст — и поставить под сомнение его авторство.
А вы сталкивались с фейками? Что помогло их выявить?