Популярность приложений «Nudify», использующих ИИ для «раздевания» женщин на фотографиях, стремительно растет
По мнению исследователей, популярность pps и веб-сайтов, использующих искусственный интеллект для раздевания женщин на фотографиях, стремительно растет.
По данным компании Graphika, занимающейся анализом социальных сетей, только в сентябре сайты, посвященные раздеванию, посетили 24 миллиона человек.
По данным Graphika, многие из этих сервисов раздевания или «обнажения» используют популярные социальные сети для маркетинга. Например, с начала этого года количество ссылок, рекламирующих приложения для раздевания, увеличилось более чем на 2400% в социальных сетях, в том числе на X и Reddit, говорят исследователи. Сервисы используют ИИ для воссоздания изображения так, чтобы человек был обнажен. Многие услуги работают только с женщинами.
Эти приложения являются частью тревожной тенденции разработки и распространения порнографии без согласия из-за достижений в области искусственного интеллекта — типа сфабрикованных медиа, известных как дипфейковая порнография. Его распространение наталкивается на серьезные юридические и этические препятствия, поскольку изображения часто берутся из социальных сетей и распространяются без согласия, контроля или ведома субъекта.
В одном изображении, опубликованном на X, в рекламе приложения для раздевания использовался язык, предполагающий, что клиенты могут создавать изображения обнаженной натуры, а затем отправлять их человеку, чье изображение было раздето в цифровом формате, что провоцирует преследование. Тем временем одно из приложений заплатило за спонсируемый контент на YouTube от Google и появляется первым при поиске по слову «обнажить».
Представитель Google заявил, что компания не разрешает рекламу, «содержащую откровенно сексуальный контент». Мы рассмотрели рассматриваемые объявления и удаляем те, которые нарушают наши правила». Ни X, ни Reddit не ответили на запросы о комментариях.
Порнография общественных деятелей без согласия уже давно является бичом Интернета, но эксперты по конфиденциальности все больше обеспокоены тем, что достижения в области технологий искусственного интеллекта сделали программное обеспечение для дипфейков проще и эффективнее.
«Мы видим, что все больше и больше подобных действий совершается обычными людьми с обычными целями», — сказала Ева Гальперин, директор по кибербезопасности Electronic Frontier Foundation. «Вы видите это среди старшеклассников и людей, которые учатся в колледжах».
Многие жертвы так и не узнают об изображениях, но даже тем, кто узнает, может быть сложно заставить правоохранительные органы провести расследование или найти средства для возбуждения судебного дела, сказал Гальперин.
В настоящее время не существует федерального закона, запрещающего создание дипфейковой порнографии, хотя правительство США запрещает создание такого рода изображений несовершеннолетних. В ноябре детский психиатр из Северной Каролины был приговорен к 40 годам тюремного заключения за использование приложений для раздевания на фотографиях своих пациентов. Это первое судебное преследование такого рода в соответствии с законом, запрещающим создание дипфейков с материалами о сексуальном насилии над детьми.
TikTok заблокировал ключевое слово «раздеваться», популярный поисковый запрос, связанный с сервисами, предупреждая всех, кто ищет это слово, что оно «может быть связано с поведением или контентом, нарушающим наши правила», согласно сообщению приложения. Представитель TikTok отказался сообщить подробности. В ответ на вопросы Meta Platforms Inc. также начала блокировать ключевые слова, связанные с поиском приложений для раздевания. Представитель отказался от комментариев.
Надеюсь вам понравилась статья.
Так же, у меня есть свой канал, в котором я размещаю интересные новости, обзоры и сервисы по нейросетям и искусственному интеллекту, которые помогают в работе и жизни. Если вам интересна эта тема, буду рад вас там видеть -