Илон Маск против Жириновского, или Чего так боялись разработчики Искусственного Интеллекта: а оно уже началось!
В последнее время набирает обороты тема письма о запрете развития ИИ, которое подписал Илон Маск, Стив Возняк, Юваль Харари и прочие именитые ребята. В некоторых Европейских странах уже ведут дискуссии о запрете разработок в сфере ИИ - я решил разобраться, где же там собака зарыта?! Оказалось весьма интересно - а к выходу статьи подоспел важный апдейт от ЛДПР - в конце статьи
С чего все начиналось
22 марта Институт Жизни Будущего (Future of Life Institute - как хотите переводите) опубликовал открытое письмо с призывом приостановить обучение моделей ИИ типа ChatGPT 4 и старше.
Институт этот появился в 2014 году и занимается исследованиями, направленными на предотвращение рисков глобальных катастроф, в том числе - риска появления разумного, а потому опасного, искусственного интеллекта.
Сначала я отнесся скептически, но среди основателей оказались не какие-то неизвестные фанатики, а причастные к подобным разработкам ребята: космолог из MIT Макс Тегмарк, кофаундер Skype Джан Таллини и Виктория Кракова, научный исследователь из DeepMind. Судя по тому, что практически каждую инициативу поддерживают супер-звезды, типа Илона Маска, Возняка и прочих - нетворкинг у этого института развит весьма неплохо.
Вернемся к письму. На самом деле письмо достаточно сдержанное и к излишней панике не взывает, хотя каждый читатель может нафантазировать себе любые интерпретации. Я попробую разложить по полочкам:
Призыв - просим приостановить развитие (обучение) моделей ИИ типа ChatGPT (4 модель и старше) на 6 месяцев.
Зачем - чтобы ведущие игроки и государства могли объединить усилия для разработки протоколов безопасного использования/разработки ИИ + повысить интенсивность исследований.
Почему - потому что “мы не знаем”, во что это может вылиться.
Конкретных рисков толком не перечислено, по большей части письмо представляет собой рассуждение в духе: “Может, мы и не правы, но если правы - то что тогда?”. (Практически цитата).
Я смог выделить 3 риска из этих рассуждений:
1. Создание AGI (A general I)
Реализация такого ИИ, который будет обладать сознанием / супер близким к нему поведением. Сможет обучаться в человеческой манере и прочие ужасы из Черного Зеркала.
2. Использование инструментов ИИ для генерации бесконечного количества “фейк” контента
Это может создать очаги напряженности в непредвиденных местах/локациях/сообществах. Да и просто подорвать основы социума, какой бы он ни был.
Когда полез копать, оказалось, этот вопрос поднимал еще Папа Римский Франциск в 2019 году! Мол, генерация такого количества контента, который почти невозможно отличить от созданного человеком - порождает опасность разрушения тех институтов, что призваны поддерживать в социуме хоть какие-то общепринятые договоренности.
3. Использование инструментов ИИ для разработки опасных для человечества типов вооружений
Тут и использование генеративного ИИ для ускорения разработок различного оружия, так и в принципе - риск последствий повышенного внимания к инструментам ИИ. То есть - пока его разрабатывают OpenAI и Google - Тебе скорее помогут справится с агрессией, чем дадут гайд к созданию новой невиданной опасной игрушки.
Меня текст письма немного разочаровал, поскольку я ожидал конкретный список рисков, предложения по реализации, подкрепленные исследованиями и экспериментами, - а там… Там квалифицированные, бесспорно, ребята, рассуждают о тех же проблемах, что и писатели-фантасты: машина обретет разум и поймет, что человеки ей не нужны.
Впрочем, сейчас такое представить гораздо проще. Результаты прохождения топовых экзаменов и тестов по абсолютно различным дисциплинам - действительно впечатляют!
> 80 %
Из более чем 10 дисциплин (логика, физика, математика, химия, биология, политология, экономика и пр.) - результаты ChatGPT-4 - выше 60%. Если точнее - 90% из них - выше 80%.
Куда это привело
Часть 1. Хотите как во Франции?
Снова к письму - поскольку информационная поддержка у имени Илона Маска равнозначна $10-миллионному бюджету на трафик в каком-нибудь ВК - письмо заметили в ЮНЕСКО. (Вместо ВК хотел было другие буквы, но т9 исправил, выручает)
ЮНЕСКО - помимо составления списка памятников, занимается исследованиями в сфере предотвращения катастроф, прямо как Институт Жизни Будущего!
Ресурсов у организации при ООН оказалось достаточно, и буквально через пару дней вышел документ на 47 страниц, под названием “Этические рекомендации”. ЮНЕСКО призвала страны участницы немедленно отреагировать на этот документ, а это - примерно все страны-члены ООН.
Краткое содержание документа - ничего интересного.
Но! Список из 100+ топиков, над которыми необходимо совместно поработать. Совместно: это и коммерческим игрокам между собой, и государствам с ними, и между собой отдельно, и чтобы исследования все открыты, и чтоб моральный кодекс на всю Вселенную, - в общем, за все хорошее, и что-нибудь еще, например, гендерный вопрос отдельным пунктом.
Однако скепсис-скепсисом, а ресерч - ресерчем
Я не мог поверить, что такая активность не подкреплена хоть какими-то исследованиями, помимо результатов школьных тестов ChatGPT, которые, как минимум - можно иногда даже угадать.
Да и в 1997 уже был Deep Blue — суперкомпьютер (IBM), который обыграл Гарри Каспарова. А Терминатора все нет…
Так вот, оказалось - исследования все же были (я пролистал с десяток), и в 2017 году они привели к конференции “Выгоды ИИ” (Beneficial AI 2017, California).
Там было много интересностей, а подборка спикеров включала в себя представителей практически всех компаний и институций, что занимаются исследованиями/разработками в сфере ИИ (Google, DeepMind, FaceBook, OpenAI, IBM, Oxford, MIT, etc…)
Результатом этой конференции стал документ “Принципы работы с ИИ” - который являет собой список-прародитель списка ЮНЕСКО, с кратким комментарием, в какую сторону необходимо направить разработки и исследования.
Приведу несколько примеров пунктов-рассуждений, которые касаются рисков развития этой технологии:
- Как обеспечить надежность будущего ИИ, чтобы системы были эффективны, при этом не подвергались угрозам сбоев и хакерских атак?
- Как повысить уровень благосостояния с помощью ИИ, не повысив при эт��м уровень безработицы и сохранив ценность человеческого труда?
- Как учесть в правовой системе реалии развития ИИ, включая все риски, связанные с его использованием?
- Какие ценностные ориентиры должны лежать в основе ИИ?
- Каким правовым и моральным статусом он должен обладать?
Часть 2. Наш ответ Чемберлену!
Итак, риски, страхи и опасения мы вычислили, и я собирался на этом закончить, добавив, что все будет хорошо и нужно учиться пользоваться этим инструментом.
И что письмо: призывает к разумной паузе обучения ИИ на 6 месяцев, чтобы разработчики, правительства, и социум в целом - могли начать разрабатывать некий протокол общей безопасности в этой области. Потому что - границ у технологий нет.
Потом сказал бы подписываться, поскольку про ИИ писать буду много, и пошел бы спать…
Но не тут-то было! Листая новости я обнаружил страшное:
Пока Европа собирает дискуссионные группы на тему Искусственного Интеллекта, невольный наследник Владимира Жириновского, в годовщину его смерти, выходит на сцену и декларирует о разработке искусственного интеллекта, обученного на речах, статьях, дебатах и прочих работах Владимира Вольфовича. И что цель его - аналитика политической ситуации и разработка стратегии развития России и всего мира. Буквально.
Должен сказать, что лично я искренне восхищаюсь квалификацией и экспертизой Владимира Вольфовича, однако здесь речь совсем о другом - об Искусственном Интеллекте.
Я не профессиональный журналист, и моим мнением тут сильно пахнет, однако мне искренне интересно:
Не кажется ли вам, что какой-то из перечисленных страхов прямо вот здесь - сделал первый шаг?
Немного источников, которые не пришлись к тексту, но могут пригодится тем, у кого вспыхнет любопытство:
И специально для VC - подписывайтесь, но без ссылки - их тут достаточно. (-:
💜