Нейросети на службе у мошенников: пора паниковать или подождать еще немного

За последние годы ИИ научился многому: писать стихи, рисовать картины, программировать и даже придумывать шутки. Нейросети применяют для поиска информации, автоматизации рутинных задач, анализа данных и многого другого. Они ускоряют работу, повышают точность и делают технологии доступнее.

Пока мы используем нейросети для пользы, мошенники уже вовсю зарабатывают на них деньги. И делают это настолько ловко, что жертвы осознают обман только когда уже слишком поздно.

Представьте: вы берете телефон, чтобы ответить на звонок, а в трубке слышите близкого человека. Голос – точь-в-точь его: тембр, интонации, манера говорить. Он срочно просит перевести деньги – "карта заблокирована", "попал в беду", "перешли на новый счет". Вы переводите деньги, а потом выясняется, что это был голосовой дипфейк. Деньги ушли в никуда, вернуть их нереально.

Или другая ситуация: в интернете попадается товар по отличной цене. Надежный сайт, реальные отзывы, видео обзоры, красивые фото. Все выглядит убедительно и профессионально. Но после оплаты товар так и не приходит. В реальности этот магазин никогда не существовал. Ни товара, ни продавца, ни довольных клиентов – все сгенерировал искусственный интеллект.

Подобные схемы работают уже повсюду: от поддельных видео политиков и знаменитостей до звонков "из банка", которые на самом деле сделаны ботами. Думаете, вас не обманут? Не спешите с выводами. Мошенники стали умнее и их инструменты тоже.

Нео, ложки нет! Это дипфейк
Нео, ложки нет! Это дипфейк

В рекрутинговом агентстве Lucky Hunter мы помогаем компаниям нанимать топовых экспертов в сфере AI и благодаря этому находимся в самой гуще трендов – как полезных, так и тревожных. Кроме того, наше агентство уже сталкивалось с мошенниками, о чем я писала ранее, так что эта тема нам вдвойне близка.

Сегодня предлагаем разобраться, как именно ИИ помогает преступникам, какие схемы уже работают. А главное, что делать, чтобы не стать их следующей жертвой.

Что дает мошенникам использование нейросетей

Зачем им вообще нейросети:

  • Так более убедительно. Согласитесь, есть разница: выпрашивать деньги смс-кой с неизвестного номера или через звонок с поддельным голосом знакомого человека.
  • Можно масштабироваться. “Человеческий” мошенник может одновременно переписываться всего лишь с несколькими людьми, до 5 максимум. А ИИ-бот способен одновременно обрабатывать тысячи.
  • Более рентабельно. Все как и в бизнесе. Автоматизируй и масштабируй процессы – получишь больше прибыли.

Есть и минусы (для нас, законопослушных граждан, это, конечно, плюсы). Ботов-мошенников довольно легко выявить, если отклониться от запрограммированного сценария. Надо сказать, что и люди-мошенники зачастую теряются, если жертва ведет себя нестандартно и вдруг ломает привычный скрипт “работы”. Но все-таки ИИ еще несовершенен, и у человека вариативности намного больше.

Дипфейки: от вирусных видео до поддельных документов

Дипфейк (от англ. deep fake) – это технология, позволяющая с помощью искусственного интеллекта создавать фальшивые видео или аудио, где человек говорит или делает то, чего на самом деле не было. Когда-то дипфейки были просто развлечением (вспомните видео с поющим Илоном Маском или Уиллом Смитом, который ест спагетти).

Гэндальфу спагетти уже не досталось, зато мороженкой угостили
Гэндальфу спагетти уже не досталось, зато мороженкой угостили

Но если раньше дипфейки касались только звезд и политиков, то сегодня любой человек может стать жертвой подделки. Всего нескольких секунд видео из соцсетей достаточно, чтобы нейросеть создала ваш дипфейк. А учитывая, как часто мы снимаем сторис и записываем кружочки, материала для мошенников хватает у многих.

Видео: не верь глазам своим

Мошенники пошли дальше простых голосовых сообщений – теперь они рассылают "кружочки" в Telegram с якобы лицами знакомых и просят прислать денег. Например, злоумышленники могут взломать аккаунт вашего друга, создать deepfake-видео с его участием, где он просит срочно перевести деньги из-за якобы возникшей проблемы. А потом отправить видео вам. Такие видео выглядят убедительно и могут ввести в заблуждение даже внимательных людей.

Еще одно использование дипфейков, которое чаще всего касается девушек – подделка интимных видео с использованием лица реального человека. Такие дипфейки применяются для шантажа, кибербуллинга и травли. Например, в Южной Корее был зафиксирован случай, когда студент создал и распространил порнографические дипфейк-материалы с изображением несовершеннолетних K-pop айдолов.

Распространенные мошеннические схемы с обычными людьми:

  • Подделывают видео родственников и друзей, чтобы выманить деньги.
  • Создают шокирующие ролики с жертвами для шантажа.
  • Используют дипфейки для подмены личности – например, для обхода систем верификации.

Нередки стали и манипуляции с общественным мнением:

  • Фальшивые заявления политиков, блогеров и бизнесменов. Например, в 2023 году в Словакии, незадолго до парламентских выборов, в интернете распространилась аудиозапись, в которой якобы лидер партии "Прогрессивная Словакия" Михал Шимечка и журналистка Моника Тодова обсуждали фальсификацию выборов и покупку голосов у ромского населения. Оба сразу заявили, что запись является подделкой. Фактчекинговые организации подтвердили, что аудио было создано с использованием технологий искусственного интеллекта. Однако из-за предвыборного моратория опровержение не получило широкого распространения, и фальшивка могла повлиять на исход выборов.
  • Фейковые "разоблачения" и информационные вбросы.
  • Видео с лидерами мнений, которые якобы рекламируют мошеннические схемы.

Подобные манипуляции особенно опасны тем, что несмотря на разоблачения и даже посадки мошенников, в сознании части людей фейковая информация так или иначе оседает. Что называется, ложки-то нашлись, а осадок все равно остался.

Дипфейки используют и для атак на бизнес и компании:

  • Генерируют поддельные обращения CEO, чтобы манипулировать рынком.
  • Проводят финансовые махинации – например, убеждают сотрудников перевести деньги на фейковый счет.
  • Обманывают инвесторов, создавая видео с "гарантиями" от известных людей.

Как не попасться:

  • Проверяйте и перепроверяйте. Если информация из видео кажется странной, найдите подтверждения из других источников.
  • Дьявол в деталях. У дипфейков часто есть мелкие огрехи: ненатурально гладкая кожа, "стеклянные" глаза, неестественная мимика. Особенно плохо у AI с руками: лишние пальцы и суставы – это то, что сразу выдает поделки искусственного разума.
  • Синхронность озвучки. ИИ пока не способен сгенерировать видео с озвучкой “из коробки”. Создание видео и аудио дипфейков – это два отдельных процесса. Это значит, что все deepfake видео-заявления монтируют из двух исходников. И монтаж почти всегда неидеален: звуки голоса не очень соответствуют движениям рта, как при плохом дубляже в кино.
  • Обратный поиск. Если вам прислали сомнительное видео, попробуйте найти его оригинал в интернете.
Дипфейки все еще выдает некоторая нереалистичность деталей
Дипфейки все еще выдает некоторая нереалистичность деталей

Голосовые дипфейки или "мама, я попал в беду"

Раньше мошенникам приходилось стараться самим: менять голос, давить на эмоции, запугивать. Нужны незаурядные актерские способности! Теперь все проще – за них работает нейросеть.

Голосовые дипфейки стали новым инструментом аферистов. Достаточно пары минут записи из соцсетей или телефонного разговора, и искусственный интеллект сможет копировать голос любого человека. А дальше – классическая схема: звонит "родственник", говорит знакомым тембром, с привычными интонациями, просит срочно перевести деньги. В панике жертва не проверяет информацию и делает перевод.

Первый громкий случай

В 2019 году генеральному директору британской энергетической компании позвонил его руководитель из головного офиса в Германии. Голос в трубке был безупречно точным: тот же акцент, тембр, манера говорить. Начальник объяснил, что нужно срочно перевести 220 тысяч евро на счет венгерского поставщика. Сделка якобы важная, медлить нельзя. Директор не заподозрил ничего странного – голос был абсолютно естественным, речь логичной. Деньги ушли на указанный счет.

Только позже выяснилось, что звонок совершили мошенники, использовавшие дипфейк-генератор голоса. Они взяли аудиозаписи настоящего руководителя, "натренировали" нейросеть, а затем сгенерировали подделку, которую невозможно было отличить от оригинала.

С тех пор таких случаев стало в разы больше. Теперь жертвами становятся не только компании, но и обычные люди.

Как мошенники используют голосовые дипфейки:

  • "Звонок от начальника" – убедить сотрудника перевести деньги на "новый счет".
  • "Родственник в беде" – на эмоциях человек переведет деньги, не проверяя детали.
  • "Сотрудник банка / полиции" – требуют сказать код из SMS или передать паспортные данные.

Как не попасться:

  • Всегда перезванивайте лично. Если звонит друг или родственник с подозрительной просьбой, прежде чем что-то куда-то переводить – обязательно перепроверьте.
  • Договоритесь о кодовом слове. Если кто-то из близких действительно попадет в беду, пусть назовет заранее оговоренную фразу.
  • Не выполняйте финансовые операции по телефону. Даже если голос звучит знакомо.
В "Черном зеркале" нам предсказали дипфейк-людей
В "Черном зеркале" нам предсказали дипфейк-людей

Фальшивые документы: паспорта, которых не существует

Теперь, чтобы создать поддельное удостоверение личности, не нужно быть хакером. Существуют сервисы вроде OnlyFake, которые генерируют паспорта, водительские права и другие документы, внешне не отличающиеся от реальных.

Как это используют мошенники:

  • Создают фейковые аккаунты в банках и криптосервисах.
  • Обманывают сервисы с онлайн-верификацией личности (например, биржи, маркетплейсы).
  • Делают липовые профили в соцсетях, чтобы разводить людей на деньги.

Как не попасться:

  • Компании должны усиливать системы проверки – например, требовать видео-идентификацию, а не просто фото.
  • Будьте осторожны с людьми, которые предъявляют документы только в цифровом формате. В ответственных ситуациях всегда запрашивайте оригинал, особенно если речь идет о финансовых операциях, сделках или проверке личности. Кстати именно поэтому многие банки, криптобиржи и маркетплейсы требуют селфи с паспортом в руках или видео-идентификацию.
  • Используйте сервисы проверки подлинности документов, если работаете с важными клиентами или партнерами.
  • Технологии развиваются – и мошенники учатся их использовать. Теперь подделать можно все: голос, лицо, паспорт. А значит, доверять придется все меньше, а проверять – все больше.
Тогда мы думали, что дипфейки – это не для маглов
Тогда мы думали, что дипфейки – это не для маглов

Фейковые товары: когда вам продают воздух

Онлайн-шопинг – привычное дело для многих: пара кликов, и товар уже в корзине. Красивые фото, восторженные отзывы, скидка 50%, что может пойти не так?

Но интернет-аферы с продажей несуществующих товаров вышли на новый уровень.

Мошенники генерируют изображения товаров, которых не существует. Если раньше воровали чужие фото, то теперь нейросети сами создают идеальные вещи. В итоге аферисты продают уникальные платья и модные кроссовки, семена несуществующих растений и посуду, которая не работает по законам физики.

Признаки ИИ-сгенерированного товара

Фотографии выглядят слишком идеально

AI-сгенерированные изображения часто гладкие, без дефектов, с нереально четкими тенями. Такие фото могут не встречаться больше нигде, потому что товар просто не существует.

Как проверить:

  • Найдите изображение через поиск по картинке (Google Lens, Yandex.Images, TinEye). Если этот товар больше нигде не продается, кроме одного магазина – это подозрительно.
  • Посмотрите на тени, текстуру и отражения. Часто ИИ делает слишком выглаженные или неестественные материалы.

Нереальные свойства товара

ИИ позволяет генерировать описания с «волшебными» характеристиками, которые нарушают законы физики.

Что может насторожить:

  • Кроссовки, магически меняющие цвет.
  • Посуда, которая сама нагревается без электричества.
  • Семена растений с мордочками животных
Растения-котики. Так и просят: "купи нас!"
Растения-котики. Так и просят: "купи нас!"

Фальшивые бренды и магазины-однодневки

ИИ позволяет генерировать “новые бренды”, которые выглядят как настоящие.

Сайт можно проверить несколькими способами:

  • Дата регистрации домена. Чтобы узнать, когда сайт был создан, можно воспользоваться сервисами проверки доменов, такими как: whois.domaintools.com, who.is, check-host.net. Просто введите адрес сайта, и система покажет дату регистрации домена.
  • Регистрация компании. У легальных магазинов обычно есть информация о юрлице – название компании, ИНН, ОГРН. На сайте магазина можно найти эти данные в разделах «О нас», «Контакты» или в футере страницы. Информацию о компании можно найти в официальных реестрах. Для России: egrul.nalog.ru– поиск по ИНН, ОГРН или названию компании. Для Европы: e-justice.europa.eu – реестр компаний ЕС. Для США: opencorporates.com – крупнейшая база данных по компаниям.

Кстати, опасаться фейковых изображений стоит не только при покупке товаров. В 2024 году в некоторых соцсетях начали распространяться прекрасные фотографии старинной сицилийской виллы. Под постами появились десятки комментариев с вопросами: "Где можно арендовать этот дом?", "Есть ли он на Airbnb?".

Однако оказалось, что никакой виллы в реальности не существует. Эти изображения создал ИИ-художник Baptiste Bohu.

Та самая итальянская дипфейк-вилла. Как вам?
Та самая итальянская дипфейк-вилла. Как вам?

Фишинг 2.0: когда письмо от «банка» слишком убедительное

Если раньше фишинговые письма было довольно легко распознать – корявый текст, странные ссылки, откровенные ошибки – то теперь все иначе. Искусственный интеллект научился писать тщательно выверенные сообщения, которые невозможно отличить от настоящих:

  • Идеальная грамматика.
  • Персонализация. Ваше имя, последние операции по карте, даже номер договора – все может быть в письме.
  • Подмена отправителя. Письмо приходит с адреса, который похож на официальный, или в котором латинская буква заменена на кириллицу.

Не только по почте

Фальшивые письма – это только один из инструментов. Теперь нейросети пишут фишинговые сообщения в мессенджерах, чатах поддержки и даже социальных сетях.

Как это выглядит:

  • Вам приходит сообщение от банка/курьера/ с просьбой подтвердить платеж.
  • В Telegram бот-помощник предлагает обновить настройки безопасности.
  • В Instagram пишет "знакомый" и просит зайти на сайт, чтобы проголосовать или проверить фото.

Как только вы заходите и вводите данные – доступ к вашему аккаунту становится доступным мошенникам.

Как не попасться:

  • Не нажимайте на ссылки в неожиданных письмах и SMS. Лучше зайдите на сайт вручную через браузер.
  • Проверяйте адрес отправителя. Если письмо пришло с похожего, но неофициального домена (например, sberbank-support.com вместо sberbank.ru), это обман.
  • Не вводите логины и пароли по запросу в письмах. Ни один настоящий банк не попросит вас ввести пароль на стороннем сайте.
  • Дважды проверяйте ссылки. Даже если кажется, что это официальный сайт, мошенники могут подделать адрес, заменив всего одну букву.
Когда спам-рассыльщики подключили нейросеть

Как защититься от мошенников, использующих ИИ

Несколько общих советов для того, чтобы защититься от мошенников:

  • Сохраняйте цифровую осторожность. Не доверяйте информации сразу. Если кто-то срочно требует денег или данных – проверьте. Перезвоните лично, найдите подтверждения в официальных источниках.
  • Не верьте только одному источнику. ИИ делает обман убедительным, но настоящие события всегда можно проверить по независимым источникам.
  • Не переходите по ссылкам в неожиданных письмах и SMS. Если вам приходит сообщение от «банка» или «службы поддержки» — заходите на официальный сайт вручную.
  • Если звонок по содержанию кажется подозрительным — кладите трубку и перезванивайте сами. Даже если голос звучит как настоящий.
  • Тренируйте критическое мышление. ИИ умеет писать убедительные тексты, генерировать реалистичные голоса и создавать поддельные видео. Единственная защита — не принимать решения на эмоциях и всегда внимательно проверять информацию.

Нейросети против мошенников

Было бы нечестно не рассказать о том, как ИИ не только создает проблемы, но и помогает их решать. Компании, разработчики и исследователи уже работают над технологиями, которые распознают дипфейки, блокируют фишинг и отслеживают подозрительные активности.

Кроме того, появляются целые отделы этичного применения искусственного интеллекта. Они следят за тем, чтобы технологии использовались безопасно и честно.

AI-инструменты уже помогают бороться с цифровым мошенничеством:

  1. AI-определители номера. Сотовые операторы используют AI-алгоритмы, чтобы анализировать подозрительные вызовы. Если номер числится в базе известных мошенников, система автоматически предупреждает абонента или даже блокирует звонок.
  2. База биометрических данных голосов мошенников. Минцифры предложило создать специальную базу данных голосов мошенников, которая позволит операторам автоматически распознавать аферистов по голосу. Однако у этой системы есть недостаток – мошенники уже используют дипфейки, чтобы менять голос. Также в базу могут случайно попасть голоса невинных людей.
  3. Liveness. Технология Liveness определяет, действительно ли перед камерой живой человек, а не дипфейк или видео. Система фиксирует естественные движения лица – моргание, реакцию глаз на свет, микромимику. Кроме того, ИИ анализирует текстуру кожи, выявляя мелкие неровности, которые сложно подделать. Дополнительно пользователю могут предложить повернуть голову или моргнуть, чтобы проверить непредсказуемость движений.
  4. Нейробабушка. В Великобритании придумали необычный способ борьбы с телефонными мошенниками – ИИ-бот Бабушка Дейзи. Его задача не вычислять аферистов, а тянуть время, не давая им быстро переключаться на новых жертв. Когда звонок поступает с подозрительного номера, система автоматически перенаправляет его на Дейзи. Дальше начинается настоящий спектакль: нейробабуля говорит медленно, запинается, забывает, о чем шла речь, задает бессмысленные вопросы. В итоге мошенник вынужден тратить свое время на бесполезный разговор. Этот метод работает за счет основного принципа телефонных аферистов – чем больше людей они обзвонят, тем выше шанс кого-то обмануть.
  5. Цифровая маркировка контента. Чтобы противостоять поддельным фото и видео, компании начали внедрять цифровые водяные знаки и системы маркировки контента.

Некоторые генераторы изображений уже запрещают создание картинок с реальными брендами и товарами. Кроме того, Google и Microsoft разрабатывают технологии для автоматического помечания контента, созданного нейросетями. Это позволит пользователям проверять подлинность изображений и видео, чтобы не попадаться на фальшивые новости, дипфейки и рекламные подделки.

А вы когда-нибудь сталкивались с нейросетевым мошенничеством? Что это было? Как распознали?

1
1
Начать дискуссию