Цукерберг выпустил Франкенштейна? Новый ИИ компании пугает даже основателя
На днях случилось знаменательное, но мало кем замеченное событие — Meta* выпустила программный документ, очерчивающий сценарии, в которых компания может не выпускать определенные категории «рискованных» систем ИИ. Полный анализ документа — ниже. Пока же отмотаем историю немного назад, чтобы разобраться в том, что происходит и куда все это приведет.
Этот материал подготовлен телеграм-каналом "Нейронутые". Больше аналитики, новостей ИИ и обзоров — по этой ссылке.
В конце 2023 году Марк Цукерберг дал обещание, что мы все будем жить будущем, где искусственный сверхразум AGI (ИИ, способный превзойти человека в любой задаче) станет достоянием общественности. Это обещание взбудоражило воображение общественности.
Однако теперь мы получили новые детали, которые все меняют.
Новый документ Meta, получивший название Frontier AIFramework (который я очень внимательно изучил) словно холодный душ, намекает на то, что светлое завтра может и не наступить. Компания допускает возможность держать взаперти собственные, невероятно мощные разработки в области ИИ. Неужели Цукерберг готов предать свою мечту о всеобщем доступе к AGI?
Meta представила свою «Рамочную программу для передового ИИ» - своего рода кодекс, определяющий, какие творения искусственного разума мир никогда не увидит. Внутри этого кодекса прописаны две категории, которые никогда не выйдут в открытый доступ (при этом ничего не говорится, что сама Meta не будет использовать свои наработки — прим. ред.): «высокий риск» и, что еще страшнее, «критический риск». Выходи Meta что-то обнаружила в своих разработках, раз готова спрятать их навсегда.
Оказывается, ИИ от Meta может стать не только гениальным помощником, но и смертоносным оружием. Обе категории – и «высокий риск», и «критический риск» – потенциально полезны в кибератаках, химических и биологических диверсиях. Но если «высокий риск» лишь упрощает злодеяния, то "критический риск" способен обрушить на мир нечто непоправимое – катастрофу, которую уже невозможно остановить. Получается, Meta играет с огнем, создавая инструменты, способные уничтожить цивилизацию?
Итак, что может натворить вырвавшийся на свободу ИИ от Meta? Компания намекает на кошмары: от взлома корпораций, защищенных по последнему слову техники, до создания биологического оружия, способного в мгновение ока выкосить население целых континентов. Meta признает, что это лишь верхушка айсберга, но именно эти сценарии – самые неотложные, самые вероятные, и самые пугающие последствия их экспериментов с ИИ. Получается, мы стоим на пороге апокалипсиса, созданного руками Meta.
Самое странное: Meta не использует строгие тесты, чтобы определить опасность своего ИИ. Вместо этого, они полагаются на мнение экспертов – внутренних и внешних исследователей – чьи выводы утверждаются «высшим руководством». Почему? Meta утверждает, что не существует надежных научных методов, позволяющих измерить риск, исходящий от ИИ. Получается, судьба мира зависит от субъективных оценок группы людей в кабинетах Meta? Это напоминает гадание на кофейной гуще, а не научный подход к потенциальной угрозе.
Итак, что же произойдет, если Meta решит, что создала слишком опасного монстра? Если ИИ классифицируется как «высокий риск», его просто запрут внутри компании, а потом, возможно, немного «подкрутят», чтобы сделать менее опасным. Но если система достигнет «критического риска»... тогда нас ждет что-то вроде экстренного протокола. Meta обещает таинственные «меры защиты», чтобы ИИ не вырвался на свободу, и... прекращение разработки до тех пор, пока угроза не будет нейтрализована. Но достаточно ли этих мер предосторожности, чтобы удержать ИИ, который способен, по словам самой Meta, уничтожить мир? Остается только надеяться, что бункер, который строит себе Цукерберг, действительно надежный.
«Рамочная программа для передового ИИ» - это запоздалая попытка Meta оправдать свою политику «открытого» ИИ. Они словно спохватились, услышав критику о том, что их щедрость может обернуться катастрофой. В отличие от более осторожных компаний, как OpenAI, запирающих свои творения за платным API, Meta решила делиться своими разработками (почти) со всем миром. Теперь, столкнувшись с перспективой создания AGI, который может спровоцировать конец света, они пытаются убедить нас, что держат ситуацию под контролем. Возможно, это слишком поздно для такого «осознания».
Открытость Meta обернулась палкой о двух концах. С одной стороны, их ИИ-модель Llama стала мега-хитом, собрав сотни миллионов скачиваний. С другой – эта же самая Llama, по слухам, попала в руки «врагов США» и теперь используется для создания оборонных систем. Вот и получается: Meta помогла прогрессу, но, возможно, и подтолкнула нас к новой мировой войне. Цена открытости оказалась слишком высока.
Представляя свою «рамочную программу», Meta, возможно, пытается показать, что их «открытый» ИИ - это не полный хаос, как у китайской компании DeepSeek. DeepSeek тоже делится своими разработками, но, кажется, совсем не заботится о безопасности. Китайский ИИ легко поддается манипуляциям и может генерировать опасный и отвратительный контент. Meta пытается сказать: «Мы не такие! Мы хоть что-то контролируем!» Но достаточно ли этого «чего-то», чтобы остановить потенциальную катастрофу?
«Мы верим, что, взвешивая риски и выгоды при создании и выпуске передового ИИ, сможем принести пользу обществу, минимизируя при этом опасность», – заявляет Meta. Но это звучит ли слишком самонадеянно. Действительно ли Meta способна обуздать мощь, которая потенциально превосходит возможности человечества? Или мы наблюдаем за тем, как корпорация в погоне за прибылью играет с силами, которые могут уничтожить все, что нам дорого? Это лишь вопрос времени.
В конце-концов, как предсказал футуролог Рей Курцвейл — сингулярность – момент, когда развитие искусственного интеллекта станет настолько стремительным и непредсказуемым, что необратимо изменит человеческую цивилизацию, возможно, даже лишив нас контроля над собственной судьбой — наступит уже в 2042 году. Часы тикают.
*Мета признана экстремистской организацией в РФ.
Ссылка на документ Frontier AI Framework.
Но я избавлю вас от необходимости его читать и переводить. Вот полный анализ отчета Meta "Frontier AI Framework" Самые пугающие моменты документа
1. Потенциально катастрофические риски ИИ
Meta выделяет два ключевых направления, в которых передовые модели ИИ могут привести к катастрофическим последствиям: - Кибербезопасность – автоматизированные кибератаки, обнаружение и эксплуатация уязвимостей, масштабные мошеннические схемы. - Химические и биологические угрозы – упрощение создания биологического оружия даже для низкоквалифицированных акторов, совершенствование существующих биологических угроз.
2. Возможность ИИ выполнять сложные хакерские атаки
Отчет подчеркивает, что передовые модели ИИ могут позволить автоматизированное проникновение в защищенные корпоративные сети с использованием методов, которые раньше были доступны только профессиональным хакерам. В сценариях угроз описаны: - Полная автоматизация кибератак, включая взлом MFA-защищенных систем. - Автоматический поиск и эксплуатация нулевых уязвимостей (zero-day), которых еще не обнаружили разработчики ПО. - Массовые схемы онлайн-мошенничества (например, "pig butchering"), где ИИ самостоятельно создает и адаптирует мошеннические сценарии.
3. Опасность биологических угроз
Meta признает, что ИИ может существенно упростить создание биологического оружия. Угрозы включают: - Подготовку простых и понятных инструкций для неподготовленных людей по созданию биологического оружия. - Возможность использования ИИ для разработки новых патогенов и совершенствования существующих вирусов. - Способность ИИ анализировать и интерпретировать научные данные, что ускоряет разработку смертоносных биологических агентов.
4. Влияние на глобальную безопасность
Meta прямо признает, что государственные и негосударственные акторы могут использовать передовой ИИ для усиления угроз национальной безопасности. При этом: - Угрозы от государственных акторов (например, КНР, РФ) требуют особого контроля. - Нелегальные группировки могут получить доступ к технологиям без значительных вложений.
5. "Красные линии" Meta: когда разработку ИИ остановят
Meta разработала систему порогов риска: - Критический риск – если ИИ уникально способен выполнить один из катастрофических сценариев, его разработка полностью прекращается. - Высокий риск – если ИИ значительно повышает вероятность угрозы, его не выпускают публично. - Умеренный риск – ИИ может быть выпущен, но с мерами предосторожности.
Важно: Если модель достигает критического риска и не может быть смягчена, Meta обещает остановить ее разработку. Однако нет ясности, как они будут оценивать этот момент.
6. Опасность "неизвестных угроз"
Meta признает, что невозможно предсказать все сценарии использования передового ИИ. Это означает, что: - Вполне вероятно появление неизвестных катастрофических угроз. - Оценка рисков все еще несовершенна и не позволяет точно измерить возможные последствия.
Вывод: документ Meta показывает, что корпорация осознает возможные катастрофические последствия своих разработок. Однако ключевая проблема – отсутствие гарантий того, что ИИ не выйдет из-под контроля. Ключевые угрозы включают автоматизацию кибератак, разработку биологического оружия и потенциальное усиление глобальных конфликтов с использованием передового ИИ.
Подписывайтесь на телеграм-канал "Нейронутые" и вы не пропустите самых ярких новостей из мира ИИ.