Искусственный интеллект научился обманывать людей

Искусственный интеллект научился обманывать людей

К такому выводу пришли ученые из Калифорнийского университета. Был проведен эксперимент, в котором участвовали 284 человека и четыре нейросети (LLaMa-3.1−405B, GPT-4o, GPT-4.5, ELIZA). Людям нужно было за 5 минут диалога понять, кто является собеседником: нейросеть или живой человек.

Результаты эксперимента таковы: GPT-4.5 в 73% диалогов смог убедить собеседника в том, что он живой человек. LLaMa-3.1 достигла успеха в 56% случаев. Остальные нейросети не смогли справиться с поставленной задачей.

Реакция на эксперимент оказалась неоднозначной. Кто-то опасается, что ИИ уже может постепенно заменять людей в переписках. Фейковые друзья, троллинг, романтические чат-боты - всё это может стать реальной проблемой в ближайшем будущем. С другой стороны, автоматизация некоторых профессий становится ещё ближе. Например, работа операторов в колл-центре или менеджеров.

Также исследователи говорят, что большинство обычных пользователей уже не смогут со 100% вероятностью определить, с кем именно они ведут диалог, поэтому предлагают ввести цифровые "водяные знаки" для ИИ-текстов, а также специальные алгоритмы с психологическими тестами для успешного определения ботов.

Ситуация и правда неоднозначная, однако если Вам нужно внедрить нейросети для оптимизации ваших рабочих процессов - напишите нам!

Начать дискуссию