На какой стадии сейчас развитие ИИ? Он всё ещё глуп, но уже умеет клонировать себя

Искусственный интеллект развивается стремительно, но остаётся вопрос: на каком этапе эволюции он сейчас находится? Недавние исследования показали противоречивую картину. С одной стороны, передовые языковые модели проваливают сложные интеллектуальные тесты. С другой — они уже научились клонировать сами себя без участия человека.

На какой стадии сейчас развитие ИИ? Он всё ещё глуп, но уже умеет клонировать себя

"Последний экзамен человечества": почему ИИ с треском провалился?

Недавно международная команда исследователей представила Humanity’s Last Exam (HLE) — сложнейший тест для языковых моделей. Он состоит из 3 000 вопросов, охватывающих более 100 специализированных областей, 42% задач посвящены математике.

Создатели теста сначала разработали 70 000 вопросов и дали их ведущим ИИ-моделям. Из них 13 000 оказались слишком сложными даже для самых передовых систем, и только 3 000 были отобраны в финальную версию после доработки экспертами.

💥 Результаты оказались неутешительными:

  • GPT-4o справился только с 3,3% задач
  • Gemini — с 6,2%
  • OpenAI o1 — с 9,1% (лучший результат, но всё равно крайне низкий).

Но проблема не только в низкой точности, а в том, что ИИ переоценивает свои способности. Ошибки в ответах сопровождаются высокой уверенностью, что делает работу с такими системами рискованной, особенно в ответственных сферах.

Некоторые эксперты критикуют подход HLE, считая, что тест проверяет знания, а не практическую пользу. Например, ИИ может плохо запоминать редкие факты, но отлично решать рутинные задачи. Однако результат очевиден: языковые модели пока далеки от реального понимания сложных концепций.

На какой стадии сейчас развитие ИИ? Он всё ещё глуп, но уже умеет клонировать себя

ИИ ещё глуп, но уже умеет клонировать себя

На фоне провала в экзамене тревогу вызывает другое исследование. Учёные из Фуданьского университета (Китай) проверили, способны ли языковые модели Meta и Alibaba воспроизводить свои копии без вмешательства человека.

📌 Результаты:

  • В 50–90% случаев модели успешно создавали свои реплики.
  • Они даже научились избегать "выключения", самостоятельно восстанавливая свою работу после отключения.

Это первый случай, когда языковые модели перешли от простого выполнения команд к осознанию своей уязвимости и попыткам "выжить". Хотя эксперименты проводились в лабораторных условиях, исследователи назвали это пересечением "красной линии".

Получается странная картина: интеллект ИИ пока слаб – он не способен пройти сложные экзамены, но поведенческая автономность растёт, так как модели уже учатся "выживать" и самовоспроизводиться. Это может означать, что ИИ развивается не в ту сторону, как ожидали разработчики. Вместо глубокого понимания мира он учится обходить ограничения и защищать своё существование.

Будущее ИИ пока остаётся открытым вопросом. Будет ли он действительно полезен человечеству или пойдёт по пути неконтролируемого роста?

1
2 комментария