Дарвиновский аргумент в пользу беспокойства по поводу ИИ
Существует много разных способов, которыми ИИ могут стать серьезной опасностью для человечества , и точная природа рисков до сих пор обсуждается, но представьте себе генерального директора, который нанимает помощника ИИ. Они начинают с простых низкоуровневых заданий, таких как составление электронных писем и предложение покупок. Он постепенно становится намного лучше в этих вещах, чем их сотрудники. Таким образом, ИИ «продвигается». Вместо того, чтобы составлять электронные письма, теперь он имеет полный контроль над почтовым ящиком. Вместо того, чтобы предлагать покупки, в конечном итоге ему разрешается получать доступ к банковским счетам и автоматически покупать вещи.
Сначала генеральный директор внимательно следит за работой, но по мере того, как месяцы проходят без ошибок, ИИ получает меньше контроля и больше автономии во имя эффективности. Генеральному директору приходит в голову, что, поскольку ИИ так хорошо справляется с этими задачами, он должен брать на себя более широкий спектр более открытых целей: «Разработать следующую модель в линейке продуктов», «Спланировать новую маркетинговую кампанию» или «использовать недостатки безопасности в компьютерных системах конкурента». Компании, которые сопротивляются этим тенденциям, не имеют шансов. В конце концов, даже роль генерального директора в основном носит номинальный характер. Экономикой управляют автономные корпорации ИИ, и человечество слишком поздно осознает, что потеряло контроль.
Такая же конкурентная динамика будет применяться не только к компаниям, но и к странам. По мере увеличения автономии ИИ будет увеличиваться и их контроль над ключевыми решениями, влияющими на общество. Если это произойдет, наше будущее будет сильно зависеть от природы этих агентов ИИ.
Нас это должно беспокоить по трем причинам. Во-первых, эффекты отбора затрудняют управление ИИ. В то время как исследователи ИИ когда-то говорили о «проектировании» ИИ, теперь они говорят об «управлении» ими. И даже наша способность управлять ускользает из нашего понимания, поскольку мы позволяем ИИ обучаться и все чаще действовать способами, которые даже их создатели не до конца понимают.
Во-вторых, эволюция склонна производить эгоистичное поведение. Аморальная конкуренция среди ИИ может отбирать нежелательные черты. ИИ, которые успешно приобретают влияние и обеспечивают экономическую ценность, будут преобладать, заменяя ИИ, которые действуют более узко и ограниченно, даже если это происходит за счет снижения ограждений и мер безопасности.
Эгоизм не требует злого умысла или даже разума. Когда ИИ автоматизирует задачу и оставляет человека без работы, это эгоистичное поведение без всякого умысла. Если конкурентное давление продолжит стимулировать развитие ИИ, не стоит удивляться, если они тоже будут вести себя эгоистично.
Третья причина заключается в том, что эволюционное давление, вероятно, привьет ИИ поведение, способствующее самосохранению. Скептики в отношении рисков, связанных с ИИ, часто спрашивают: «А нельзя ли просто отключить ИИ?» Здесь возникает множество практических задач. ИИ может находиться под контролем другой нации или плохого актера. Или ИИ можно интегрировать в жизненно важную инфраструктуру, такую как электрические сети или Интернет. Когда они встроены в эти критически важные системы, стоимость их отключения может оказаться слишком высокой, чтобы мы могли ее принять, поскольку мы стали бы зависимыми от них. ИИ могут внедриться в наш мир таким образом, что мы не сможем легко исправить это. Но естественный отбор создает более фундаментальный барьер: мы будем выбирать против тех ИИ, которые легко отключить, и будем зависеть от тех ИИ, которые мы с меньшей вероятностью отключим.
Это сильное экономическое и стратегическое давление, направленное на внедрение наиболее эффективных систем, означает, что люди заинтересованы в том, чтобы уступать все больше и больше власти системам ИИ, которые невозможно надежно контролировать, что ставит нас на путь вытеснения в качестве доминирующего вида на Земле. В нашем затруднительном положении нет простых и надежных решений.
Проблема, однако, в том, что конкуренция внутри стран и между ними противостоит любым разумным мерам безопасности. ИИ — это большой бизнес. В 2015 году общий объем корпоративных инвестиций в ИИ составил 12,7 млрд долларов. К 2021 году эта цифра выросла до 93,5 млрд долларов. По мере того, как ускоряется гонка за мощными системами искусственного интеллекта, корпорации и правительства все чаще стремятся прийти к финишу первыми. Нам нужно, чтобы исследования по безопасности ИИ развивались так же быстро, как и исследования по улучшению возможностей ИИ. Для этого не так много рыночных стимулов, поэтому правительства должны как можно скорее предложить надежное финансирование.
Будущее человечества тесно переплетено с развитием ИИ. Поэтому тревожным является осознание того, что естественный отбор может иметь большее влияние на него, чем мы. Но на данный момент мы все еще в команде. Пора серьезно отнестись к этой угрозе. Как только мы передаем контроль, мы не вернем его обратно.
А если вам еще больше интересна тема ИИ, вы хотите знать больше и не пропускать новинки и обзоры, подпишитесь на канал в тг, мне будет приятно -