Мошенники используют ИИ-изображения, чтобы нажиться на землетрясениях в Турции и Сирии
По сообщению BBC, эксперты по безопасности предупредили, что мошенники используют ИИ для создания эмоциональных изображений турецко-сирийского землетрясения, а затем создают поддельные страницы с обращениями для выживших.
Онлайн-мошенники делились этими сгенерированными ИИ изображениями катастрофы в Твиттере вместе со ссылками на криптовалютные кошельки с просьбами о благотворительных пожертвованиях.
Разрушительное землетрясение магнитудой 7,8 в Турции и Сирии во вторник унесло жизни более 35 000 человек, а миллионы остались без крова, еды и воды.
Однако, утверждая, что собирают деньги для выживших после катастрофы, мошенники, как сообщается, переводят пожертвованные средства на свои собственные счета.
Би-би-си сообщает, что аккаунт в Твиттере восемь раз за двенадцать часов публиковал поддельное обращение с одной и той же «фотографией» пожарного, держащего ребенка в окружении обрушившихся зданий.
Однако позже греческая газета OEMA обнаружила, что изображение было сгенерировано генератором текста в изображение с искусственным интеллектом Midjourney.
Midjourney создает похожие изображения, когда получает подсказку «Изображение пожарного после землетрясения, спасающего маленького ребенка в шлеме с греческим флагом».
Пользователи социальных сетей также заметили, что у пожарного, сгенерированного искусственным интеллектом, на правой руке шесть пальцев.
Сообщается, что один из адресов криптокошелька, который был опубликован в аккаунте Twitter, также использовался в твитах для мошенничества и спама еще в 2018 году. Другой адрес был опубликован в российской социальной сети ВКонтакте вместе с порнографическим контентом.
Когда BBC связалась с учетной записью Twitter, которая поделилась призывом, пользователь отрицал, что это мошенничество.
«Моя цель — помочь людям, пострадавшим от землетрясения, если мне удастся собрать средства», — говорят они. «Сейчас в зоне бедствия людям холодно, а особенно детям не до еды. Я могу подтвердить этот процесс квитанциями».
Би-би-си сообщает, что не получала никаких квитанций или доказательств их личности от аккаунта в Твиттере.
Инцидент является признаком растущего использования изображений, созданных искусственным интеллектом, в онлайн-мошенничестве. Ранее на этой неделе сообщалось о фейковом видео подкастера Джо Рогана, которое обманом заставило зрителей TikTok купить продукт, который он никогда не обсуждал.