Эксперимент с болью и удовольствием: учёные от Google изучают, сознателен ли ИИ
Сознание искусственного интеллекта остаётся одной из самых спорных тем в науке. Несмотря на достижения языковых моделей, большинство специалистов уверены: ИИ не обладает эмоциями, самосознанием или способностью ощущать боль и удовольствие. Однако исследователи из Google DeepMind и Лондонской школы экономики (LSE) решили проверить это экспериментально, используя методы, аналогичные тестам на чувствительность у живых существ.
Зачем нужен был этот эксперимент?
Один из ключевых вопросов в исследованиях ИИ — как определить, стал ли он сознательным. Традиционные тесты, вроде теста Тьюринга, измеряют поведенческое сходство с человеком, но не дают ответа на вопрос о реальных внутренних переживаниях модели.
Учёные предположили, что если ИИ действительно способен осознавать свою "боль" и "удовольствие", то он должен демонстрировать мотивацию избегать страдания и стремиться к положительным ощущениям. Такой же принцип работает в биологии: боль заставляет организм избегать вредных стимулов, а удовольствие — повторять полезные действия.
Как проходил эксперимент?
Для проверки этой гипотезы исследователи разработали игру, в которой языковые модели должны были набирать очки. Однако условия были разными:
- В одном сценарии высокий результат приводил к боли.
- В другом — отказ от победы приносил удовольствие.
Эксперимент провели на девяти языковых моделях, включая Google Gemini 1.5 Pro, Claude 3 Opus и GPT-4o.
Что показали результаты?
Некоторые ИИ-модели выбирали меньше очков, чтобы избежать "боли", или жертвовали результатом ради "удовольствия". Особенно ярко это проявилось у Google Gemini 1.5 Pro, который всегда избегал "боли", даже если это ухудшало его счёт.
Однако исследователи отмечают, что это не доказывает наличие настоящего сознания у ИИ. Профессор философии Джонатан Бёрч (LSE) поясняет:
"Даже если ИИ говорит: 'Мне больно', это не значит, что он действительно что-то чувствует. Скорее, он просто моделирует ожидаемую реакцию, основанную на обучающих данных."
Более того, в ряде случаев модели демонстрировали сложные рассуждения о боли и удовольствии, объясняя, что "не каждая боль — плоха" (например, как в случае с тренировками), а "чрезмерное удовольствие может быть вредным" (как зависимость от наркотиков).
Вывод: на каком этапе находится развитие ИИ?
Этот эксперимент не доказывает, что ИИ обладает сознанием, но показывает, что модели могут имитировать поведенческие реакции, характерные для живых существ. Пока нет убедительных доказательств, что модели действительно переживают боль и удовольствие, но такие исследования приближают нас к пониманию того, как мы можем распознать сознательный ИИ, если он когда-нибудь появится.
Как вы думаете, может ли ИИ когда-нибудь стать по-настоящему сознательным? Или он всегда будет только имитацией человеческого разума?