Восстание машин: опасны ли нейросети?
«Темная сторона»: какие угрозы могут нести в себе нейросети? Размышляем с футурологом Борисом Агатовым
Казалось бы, еще недавно мы смотрели фильмы о подобных технологиях и мечтали о том, как сами однажды с ними познакомимся — и вот они уже тут. Мы болтаем с Алисой, просим ChatGPT написать за нас письмо коллеге или даже научную работу, генерируем картинки с Гарри Поттером в Midjourney, чтобы развлечь себя вечером. В общем, совершенно обыденно используем те технологии, которые когда-то казались нам совершенно непостижимыми.
Будущее настало так стремительно, что мы даже не успели это заметить и как-то осознать. Нейросети уже не просто существуют, но и довольно успешно имитируют процесс сознания человека. Они разговаривают, пишут тексты, шутят, занимаются творчеством — а мы даже до конца не понимаем, что они такое.
Эксперты из Sendsay, платформы автоматизации маркетинга, в сегодняшней статье подняли старую тему страха перед восстанием машин и серьезно поговорили о том, какие реальные угрозы могут в себе нести современные технологии. И, чтобы не звучать голословно, мы позвали порассуждать вместе с нами футуролога, независимого эксперта по инновациям в ритейле Бориса Агатова.
Если вы хотя бы раз задумывались о том, что нейросети, возможно, не так безобидны, как о них говорят — этот материал будет вам интересен. Обещаем: нагнетать не будем и восклицать, что мы все умрем от рук машин — тоже.
Думаем о будущем: какую потенциальную угрозу несут в себе нейросети?
О том, как должен или не должен вести себя плод искусственного интеллекта, мы знаем разве что из научной фантастики. Долгое время мы опирались на три закона робототехники, сформулированные Айзеком Азимовым:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но в момент, когда мы столкнулись с реальными моделями искусственного интеллекта, у ученых появились сомнения в том, что законы, сформулированные фантастом, действительно ограждают нас от угроз, которые потенциально несет в себе эта технология.
Проблема искусственного интеллекта заключается в том, что он действительно может вести себя аморально — если это требуется для решения задачи или имитации такого решения.
Например, недавно тот же ChatGPT «догадался» притвориться слабовидящим, чтобы за него решили капчу. И это не единственный пример, когда модель ведет себя странно: например, нейросеть также не раз была уличена в том, что неправильно решает даже простые математические задачи — убеждая пользователя в том, что это и есть правильное решение.
Так что нейросети действительно неоднозначный инструмент, который несет в себе скрытые угрозы. И для мультимодальных нейронных сетей и больших языковых моделей их даже можно типологизировать.
Первая угроза — чувствительные персональные данные
Сегодня все большие языковые модели (БЯМ) — ChatGPT, GigaChat, Ernie, Bard и другие — отлично умеют вести диалог. При этом люди доверяют им достаточно чувствительные вопросы, связанные с их психикой, личными отношениями и так далее. Непонятно, как сами БЯМ и люди, которые их контролируют, распорядятся этой информацией. Может возникнуть желание манипулировать этими данными — и, как следствие, и самими пользователями. Огромным количеством пользователей. В этом и кроется главная опасность, поэтому нужно быть максимально осторожными, когда вы делитесь с такими нейросетями какой-то чувствительной информацией.
Главное свойство нейронной сети — самообучаемость. Но при этом мы не знаем, что происходит у нее «в голове». Последние исследования показывают, что у больших языковых моделей есть «искры разума».
Это говорит о том, что нет никакой уверенности в том, что удастся удержать БЯМ на тех серверах, на которых их создали и обучили. Вполне можно представить, что в какой-то момент кто-то поставит задачу размножиться на других компьютерах. А какую они себе при этом поставят цель — мы можем только догадываться.
Третья угроза — использование нейросетей злоумышленниками
Был эксперимент с нейронной сетью, которая была обучена созданию и моделированию новых химических веществ. В его результате нейросеть легко создала 40 новых формул активных токсинов, которые превосходят по силе отравляющего эффекта многие боевые отравляющие вещества.
Этот эксперимент указал на возможную проблему: нейронные сети в руках злоумышленников могу стать настоящим оружием. С их помощью можно создавать новые формулы психотропных и наркотических веществ — таких, которые формально не будут считаться наркотиками. А значит, их оборот и распространение не будут контролироваться и пресекаться.
Если обобщить: высокопроизводительные нейросети могут мультиплицировать любые виды угроз в невероятных масштабах — начиная от использования дипфейков для получения доступа к банковским аккаунтам, заканчивая созданием химического оружия. И у нас пока нет решения, как регулировать эту потенциальную проблему.
Каким сферам может навредить ИИ?
Если мы говорим про угрозы, мы говорим и про вред, который могут нести в себе технологии искусственного интеллекта.
Первая и, пожалуй, самая растиражированная проблема — это, конечно, прямой вред человеку. При этом речь не про жизнь или здоровье людей, а про их рабочие места. Это один из самых главных страхов, который постоянно циркулирует в медиапространстве. Люди действительно боятся, что новые технологии призваны не улучшать качество их жизни и упрощать рутину — а забирать у них средства к существованию.
И нельзя сказать, что эти страхи неоправданны. Они вполне естественны: люди всегда сопротивлялись изменениям. Им не нравился плуг, не нравилось электричество, не нравились автомобили. Все это тоже в какой-то степени угрожало их привычному существованию. И большие технологические прорывы и правда чаще всего приводят к тому, что какие-то профессии просто исчезают из-за ненадобности. Поэтому, например, у нас больше нет кучеров или машинисток.
Как мы видим, отсутствие некоторых профессий уже не кажется нам, современным людям, чем-то страшным или несправедливым. Да, такие специалисты больше не нужны — но нужны другие. Поэтому, сфера найма хоть и меняется под влиянием ИИ, но не находится под ударом.
Есть куда более серьезные проблемы, о которых говорят меньше, — но которым стоит уделить более пристальное внимание.
Кибербезопасность — область, которая наиболее подвержена риску, исходящему от нейросетей. Сегодня любой человек без специальных знаний в диалоге с ChatGPT может создать вредоносный код или маркетплейс для даркнета.
Сюда же относится и кибермошенничество. Нейросети научились вести очень убедительный диалог с высокой скоростью реагирования — практически неотличимый от реального человека. И это ставит под угрозу социально уязвимые слои населения — пенсионеров, детей и просто доверчивых граждан. А кроме того, открывает возможности для масштабирования мошенничества: если один преступник может вести одновременно диалог только с одним человеком, то для нейросетей подобных ограничений просто не существует.
На самом деле, если смотреть шире, под угрозой не только пенсионеры и дети — но и вообще каждый. Так как в целом все мы привыкли доверять искусственному интеллекту — и в этом ключе мы тоже находимся в зоне риска.
Как оградить себя от возможных рисков?
Находится в зоне риска, конечно же, некомфортно. Хочется иметь инструкцию, которая поможет обезопасить себя от любых угроз.
Но в случае с искусственным интеллектом сделать это сложно. Преимущественно из-за того, что эта технология постоянно развивается. Даже в случае с обычными мошенниками бывает сложно распознать обман — а искусственный интеллект постоянно самосовершенствуется.
И в этом, конечно, и самое сильное, и самое слабое место этой технологии.
К сожалению, универсального совета, как оградить себя от рисков, не существует.
Дело в том, что технология общедоступного ИИ появилась совсем недавно — даже года не прошло. И в некотором плане мы проходим те же этапы, что проходили люди на заре появления электричества и автомобилей. Возможно, наши опасения преувеличены. Но есть вероятность, что, наоборот, — слишком преуменьшены, и эта технология действительно угрожает самому существованию человечества, как атомное оружие.
Поэтому сегодня важно внимательно следить за развитием технологий, поддерживать на должном уровне традиционные контуры безопасности — как личные, так и корпоративные. Нужно понимать, что рядом с нами теперь есть и развивается параллельный мир, в котором уже сейчас есть «искры разума» и для которого уже создана хорошая инфраструктура. И, конечно, следует «иметь голову на плечах» — критически мыслить и помогать уязвимым слоям общества избежать опасности.
Нейросети, которым можно доверять
Несмотря на то, что мы проговорили немало негативных факторов, которые связаны с нейросетями — мы ни в коем случае не рекомендуем вам оградиться от них и больше никогда не прикасаться ни к умным колонкам, ни к чату GPT.
Мы уже живем в будущем, о котором когда-то мечтали — и время назад не повернется. Эти технологии существуют и продолжат развиваться, хотим мы того или нет. Поэтому лучше не избегать их, а «подружиться» с ними.
Все нейросети можно и нужно использовать — от ChatGPT и Midjourney до GigaChat и Kandisky 2.0.
Здесь ситуация как с интернетом: да, в нем таится много опасностей, но если его не использовать, ты не только не столкнешься с проблемами безопасности, но и не узнаешь всех выгод.
Я бы рекомендовал тестировать все, что выходит — чем лучше вы понимаете новую технологию, тем четче понимаете, как извлечь выгоду, избежав проблем.
Благодарю это очень интересно. Но не всегда получается ожидать нужного результата от картинки. То что ты описываешь и желаешь увидеть. Не всегда и всё проходит. А это очень тяжело. Например пишу. Жених и невеста под шляпой лепрекона. И мне выдаёт картинку что каждый в своей шляпе. А я желаю увидеть двоих под одной общей шляпой. А может я что то пишу неправильно?