OpenAI отходит от теории внезапного прорыва AGI

OpenAI, компания, стоящая за ChatGPT и множеством других коммерческих приложений для искусственного интеллекта, долгое время преследовала цель разработки общего искусственного интеллекта (AGI), который "принесет пользу всему человечеству". Сейчас организация существенно пересматривает свой взгляд на то, как может появиться эта преобразующая технология.

Создано нейросетью <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fkolersky.com%2Fmj&postId=1851562" rel="nofollow noreferrer noopener" target="_blank">Midjourney</a> в сервисе KolerskyAI
Создано нейросетью Midjourney в сервисе KolerskyAI

В недавнем сообщении в блоге OpenAI объясняет, что больше не ожидает появления общего искусственного интеллекта как драматического прорывного момента, когда системы искусственного интеллекта внезапно достигают сверхчеловеческих возможностей. Вместо этого компания теперь рассматривает разработку AGI как непрерывный процесс, отмеченный постоянными, постепенными улучшениями.

Изменившийся взгляд OpenAI на AGI также привел к более практичному подходу к безопасности. Вместо планирования теоретических сценариев будущего компания теперь хочет учиться на практическом опыте работы с современными системами искусственного интеллекта. Конечно, это хорошо согласуется с их коммерческой стратегией.

Компания стремится создавать меры безопасности, которые становятся все более эффективными по мере развития возможностей искусственного интеллекта. Недавно они представили новую систему безопасности, которая может расширяться по мере того, как ИИ становится более мощным, потенциально даже до возможностей уровня AGI.

Несмотря на все это, OpenAI утверждает, что сохранение контроля над людьми имеет решающее значение. Они считают, что общество должно иметь право голоса в том, как ведут себя системы искусственного интеллекта и какие ценности они отражают. Чтобы сделать это возможным, они создают инструменты, которые помогают людям четко взаимодействовать с системами искусственного интеллекта и сохранять контроль, даже когда имеют дело с ИИ, которые могут оказаться более способными, чем люди в определенных областях.

Извлекая уроки из прошлой осторожности

OpenAI теперь по-другому рассматривает некоторые из своих прежних решений в области безопасности. Компания указывает на свое решение временно не выпускать GPT-2 для публичного выпуска в 2019 году как на пример "чрезмерной осторожности", вызванной восприятием AGI как внезапного прорыва. Тогда компания выпустила только уменьшенную версию модели "из-за опасений по поводу использования больших языковых моделей для создания вводящих в заблуждение, предвзятых или оскорбительных выражений в широком масштабе".

Однако Майлз Брандейдж, бывший руководитель отдела политических исследований OpenAI, оспаривает новую интерпретацию OpenAI того, что выпуск GPT-2 был приостановлен в то время. Он утверждает, что постепенный выпуск GPT-2 уже отражал философию итеративной разработки, и многие эксперты по безопасности оценили этот тщательный подход, учитывая доступную на тот момент информацию.

AGI - это то, что приносит кучу денег

Недавний отчет The Information показал, что контракт OpenAI с Microsoft включает в себя исключительно практическое определение AGI: система, которая превосходит людей в выполнении большинства экономически значимых задач и приносит прибыль не менее 100 миллиардов долларов.

Это согласуется как с пересмотренным взглядом OpenAI на AGI как на постепенное развитие, так и с критикой генерального директора Microsoft Сатьи Наделлы по поводу "бессмысленного взлома бенчмарков" в погоне за самопровозглашенными вехами AGI и самого Альтмана, призывающего своих последователей X "пожалуйста, остыньте и сократите свои ожидания в 100 раз" в контексте предполагаемого скорого выпуска AGI.

Кратко

  • OpenAI отказалась от идеи, что искусственный общий интеллект (AGI) будет единым драматическим моментом. Вместо этого компания рассматривает AGI как непрерывный эволюционный процесс постепенных улучшений.
  • Стратегия безопасности OpenAI теперь основана на эмпирическом подходе, при котором меры безопасности разрабатываются и совершенствуются на основе реального опыта работы с существующими системами. Особое значение имеют методы обеспечения безопасности, которые становятся более эффективными по мере расширения возможностей искусственного интеллекта.
  • Компания подчеркивает центральную роль человеческого контроля над мощными системами искусственного интеллекта. Она работает над механизмами, которые позволяют людям четко сообщать о своих намерениях и эффективно управлять системами искусственного интеллекта, даже когда их возможности превосходят возможности человека.
Начать дискуссию