Гонка на пути к искусственному сверхинтеллекту: что нас ждет?
Проект ai-2027.com обсуждает потенциальное будущее искусственного интеллекта к 2027 году и дает свое видение основных вех ра��вития ИИ на ближайшее время. Что будет, если ИИ выйдет за пределы человеческого контроля? К 2027 году сверхинтеллектуальные системы могут стать не только полезными, но и опасными. Как изменится рынок труда и кто получит власть в этой новой реальности?
🔥 Еще больше интересного в моем канале продуктовые штучки
Проект ai-2027.com создан некоммерческой организацией AI Futures Project. Проект предлагает возможные сценарии развития событий в гонке создания ИИ (включая как положительные, так и отрицательные последствия от внедрения сверхинтеллекта, ASI) и дает анализ потенциальных рисков, связанных с ИИ (таких как несоответствие целей ИИ с человеческими ценностями и геополитические напряженности).
Авторы прогноза –весьма известные и уважаемые в мире ИИ специалисты.
Проект также составил весьма захватывающее хронологическое описание событий на пути к сверхинтеллекту, читайте тут.
К 2027 году мы можем автоматизировать исследования и разработки в области ИИ, что приведет к появлению сверхчеловеческого ИИ (сверхинтеллект или ASI). В AI 2027 компании, занимающиеся ИИ, создают системы ИИ экспертного человеческого уровня в начале 2027 года, которые автоматизируют исследования в области ИИ, что приведет к появлению сверхинтеллекта к концу 2027 года.
Сверхинтеллект будут определять будущее человечества. Миллионы агентов сверхинтеллекта будут быстро выполнять задачи, выходящие за рамки человеческого понимания. Поскольку они очень полезны, они будут широко развернуты.
Обладая сверхчеловеческой стратегией, взломом, разработкой оружия и многим другим, цели этих агентов ИИ будут определять будущее. И это – уже не совсем абстрактные пугалки футуристов. Специалисты говорят о том, что кибератаки с применением ИИ уже скоро станут проблемой.
Сверхтинтеллект могут разработать непреднамеренные, враждебные «несогласованные» цели, что приведет к лишению человечества прав и возможностей. В 2027 люди добровольно предоставляют автономию, казалось бы, согласованному сверхинтеллекту. Все выглядит великолепно, пока у сверхинтеллекта не появится достаточно жесткой власти, чтобы лишить человечество прав и возможностей.
Субъект, обладающий полным контролем над сверхинтеллектом, может захватить полную власть. Если человек или небольшая группа согласует сверхинтеллект со своими целями, это может предоставить им контроль над будущим человечества.
Международная гонка к сверхинтеллекту приведет к сокращению затрат на безопасность. В 2027 Китай отстает от США всего на несколько месяцев по мере приближения сверхинтеллекта, что оказывает давление на США, заставляя их двигаться вперед, несмотря на предупреждающие признаки несоответствия.
Вероятно, отставание Китая от США может исчезнуть еще раньше. Стэнфорд говорит о том, что Китай и США почти достигли паритета в гонке ИИ.
С геополитической точки зрения гонка к сверхинтеллекту закончится войной, сделкой или фактической капитуляцией. Лидирующая страна по умолчанию накопит решающее технологическое и военное преимущество, что побудит других настаивать на международном соглашении («сделке»), чтобы предотвратить это. В отсутствие сделки они могут пойти на войну, а не «фактически сдаться».
Ни один проект ИИ в США не является защищенным от кражи моделей ИИ со стороны национальных государств к 2027 году. В AI 2027 Китай крадет ведущую модель ИИ США в начале 2027 года, что усугубляет конкурентное давление за счет сокращения времени опережения США.
По мере приближения сверхинтеллекта общественность, вероятно, не будет знать о лучших возможностях ИИ. Сегодня общественность отстает от внутренних возможностей на несколько месяцев, и как только ИИ автоматизируют исследования и разработки в области ИИ, несколько месяцев превратятся в огромный разрыв в возможностях. Повышенная секретность может еще больше увеличить разрыв. Это приведет к небольшому контролю над ключевыми решениями, принимаемыми небольшой группой руководителей компаний, занимающихся ИИ, и правительственных чиновников.
Авторы прогноза
Даниэль Кокотайло — бывший сотрудник OpenAI, известный своими точными прогнозами в области ИИ. В 2021 году он предсказал развитие больших языковых моделей, включая их параметры и влияние, что позже подтвердилось. В 2024 году он ушел из OpenAI, отказавшись подписывать соглашение о неразглашении, несмотря на угрозу потери акций компании (~$2 млн). Это сделало его важным голосом в обсуждении рисков развития AGI и корпоративной ответственности
Скотт Александр — автор популярных блогов SlateStarCodex и AstralCodexTen, где он анализирует сложные темы, включая ИИ и его риски. Его работы часто цитируются в дискуссиях о безопасности искусственного интеллекта, а также о прогнозах его развития
Томас Ларсен — директор стратегии в Center for AI Policy. Он занимается разработкой законодательных инициатив для снижения ИИ рисков, включая управление вычислительными ресурсами и оценку опасных возможностей AI
Илай Лифланд — один из лидеров команды прогнозистов Samotsvety, известный как суперпрогнозист с выдающимися способностями предсказывать будущее.
Йонас Фоллмер — венчурный инвестор в Macroscopic Ventures, который сделал ранние инвестиции в Anthropic благодаря своей способности предвидеть развитие технологий.
Ромео Дин — магистрант Гарварда и руководитель команды студентов по ИИ безопасности.