Про (без)ответственный подход к ИИ

Сегодняшний пост посвящен ответственному подходу к ИИ, точнее, как вы уже могли догадаться, обсуждению случаев, когда ответственного подхода не хватило. Я не ставлю перед собой цель охватить все истории, когда что-то в использовании или разработке ИИ пошло не так. Кроме того, я сознательно опущу случаи, которые привели к непосредственной угрозе жизни и здоровью людей: мне не хочется участвовать в распространении страхов и насаждать тревожность. Мне хочется вывести этот разговор в практическую плоскость и сделать акцент на том, какие действия возможно предпринимать сегодня, чтобы жить в более безопасном мире завтра.
С этой мыслью, начнем.

<i>Иллюстрация создана с использованием DALL-E от OpenAI</i>
Иллюстрация создана с использованием DALL-E от OpenAI

Несколько примеров того, что пошло не так

Есть такой принцип, который называется Бритва Хэнлона. Согласно ему, в качестве причин любых неприятных событий следует в первую очередь предполагать человеческую ошибку, и только потом злой умысел. В. Пелевин сформулировал этот принцип как «Миром правит не тайная ложа, а явная лажа». К разработке ИИ это емкое выражение подходит как нельзя лучше.
Один из нашумевших случаев произошел в 2016 году с компанией Microsoft, которая выпустила чат-бота по имени Tay (Тэй). По задумке создателей образ Tay – очаровательная девочка-подросток с доброжелательным характером. Она должна была научиться вести беседы, максимально приближенные к реальным человеческим, и что было эффективнее всего сделать для достижения этой цели? Правильно, отправить Tay в соцсети, в частности, в Твиттер, чтобы она собирала диалоги реальных людей и училась на больших объемах данных. Через 24 часа чат-бот выучился материться и выражать ненависть примерно ко всем социальным группам, какие только можно предположить. Компании пришлось быстренько свернуть свой исследовательский проект. Авторы извинились и сообщили, что как-то не подумали о таком исходе.

В 2023 году пассажир одной колумбийской авиалинии обратился к адвокату, чтобы получить компенсацию за травму, полученную на борту. Доказывая в суде наличие прецедента, адвокат потерпевшего сослался на шесть судебных решений по подобным делам. Проблема в том, что ни одного из этих решений не существовало в действительности: адвокат получил их от ChatGPT, думая (по его собственным словам), что это поисковая система. Проверить подлинность документов не догадался, в связи с чем понес серьезный репутационный ущерб.
В 2017 году Facebook* пришлось отключить свою мультиагентную систему, потому что вместо общения с людьми на английском языке они решили общаться между собой на своем собственном, который людям непонятен, в связи с чем их работу стало невозможно контролировать. Ограничений на использование только английского языка у агентов не было – опять же, создателям такое просто в голову не пришло.
В 2023-2024 году власти Нью-Йорка выпустили чат-бота, который должен был помогать малому бизнесу разобраться в бюрократических тонкостях. Бот сам в них не разобрался и заявил, в числе прочего, что гостям можно подавать сыр, покусанный крысами, если предупредить их (гостей) о произошедшем заранее. Несмотря на шквал негодования от пользователей, бот не отключили, только обвешали предупреждениями о том, что «иногда он может давать некорректный ответ». Тут уже безответственность в квадрате.
На гитхабе есть обновляемый список инцидентов с участием ИИ, которые варьируются от забавных до жутких. Если нервы у вас крепкие, заходите почитать (только не на ночь).

Более широкий взгляд на то, что может пойти не так

Мы тут уже говорили о рисках, связанных с ИИ, и о работах, авторы которых предпринимали усилия по систематизации этих рисков. В разных источниках можно встретить разные классификации рисков, и один из вариантов мы рассматривали ранее. Рассмотрим еще пару.
ISO – Международная организация по стандартизации – выделяет в качестве основных три группы рисков:

  • искажения информации;
  • недостаток прозрачности;
  • недостаточная защита персональных данных.

В публикации, которую я здесь цитирую, помимо классификации и описания рисков приводится несколько примеров успешного внедрения ответственного подхода к ИИ. Чтобы уравновесить первую часть поста, давайте рассмотрим несколько.
Проект Fair Isaac Score компании FICO – аналитическая система, которая рассчитывает кредитный рейтинг пользователя. Разработчики проводят регулярный аудит своей системы и проверяют объективность ее оценок.
Стартап Path AI предлагает решения для медицинской диагностики. Чтобы обеспечить надежность и достоверность результатов, они используют клиническое тестирование и перекрестную экспертную оценку.
Там есть еще пара кейсов, можете заглянуть в публикацию по ссылке выше. А мы пока пойдем дальше.
Еще одна компания, которая предприняла попытку описать риски, связанные с ИИ, – McKinsey. Они выделили пять «болевых точек» ИИ, которые приводят к потенциальным проблемам:

  • проблемы с данными (их сложно собирать и проверять на отсутствие чувствительной информации или искажений);
  • проблемы с технологиями (ошибки и нестабильность работы программного обеспечения, которые могут не сразу стать заметными);
  • неисправности в системах безопасности (и недостаточно продуманные системы безопасности, которые позволяют мошенникам получить доступ к информации; даже если эта информация не содержит персональных данных, ее все еще можно использовать во вред);
  • некорректное поведение моделей (воспроизведение ошибок, которые были в обучающих данных; непредвиденные ошибки и подверженность взлому);
  • проблемы во взаимодействии человека с ИИ (человеческие ошибки и варианты использования, которые не предполагались разработчиками).

В числе негативных последствий они описывают как последствия для людей (утечки данных, финансовые риски, риски подвергнуться дискриминации и пр.) и организаций (судебные иски, разрушение репутации, ухудшение финансовых показателей), так и глобальные последствия для обществ в целом (для национальной безопасности, экономической и политической стабильности).
Риски можно перечислять долго. Какой-то единой, всеми принятой классификации пока не существует: сама область ответственного подхода к ИИ начала развиваться примерно с 2017 года, так что пока не накопилась критическая масса работ, позволившая бы сделать окончательные выводы (и тем более разработать окончательные стратегии по противодействию рискам). Наверное, с учетом темпов развития технологий, мы не доживем до накопления такой критической массы, нам придется все время сталкиваться с новыми и неожиданными рисками и на месте в экстренном режиме решать, что с ними делать.

К слову о том, что делать

Значительная часть ответственности, безусловно, должна лечь на плечи разработчиков. В их силах проверять наборы данных, на которых они обучают свои модели, обеспечивать стабильность работы алгоритмов, следить за обратной связью от пользователей и своевременно реагировать на тревожные звоночки. Внушительные штрафы за потерю персональных данных и законодательная защита прав пользователей будут кстати, однако пока законодательство в области ИИ сыровато и не поспевает за развитием технологии. У меня в телеграме был пост на эту тему некоторое время назад, он пока актуален.
А что делать нам, обычным пользователям? У нас не так уж много вариантов, но мы все-таки можем немного себя защитить.
В первую очередь, в качестве защиты работает знание. Сейчас даже тем, кто не использует и не планирует в ближайшее время использовать ИИ, нужно погружаться в тему и изучать, как все работает, где применяется и какие несет в себе риски. У меня был пост о том, с чего можно начать, там есть пара советов для новичков. Базовое понимание позволит отличить правду от громких заголовков и разглядеть риски за радужными обещаниями разработчиков.

Ну и по классике, беречь свои персональные данные, куда попало не сообщать и кому попало не передавать. Есть масса советов от специалистов по безопасности: не использовать в сети реальное имя по возможности, не сохранять данные банковских карт, посылки забирать из пунктов самовывоза, а не оставлять адрес и все такое. Можно сюда же добавить советы по общению с генеративными сетями: не сообщать о себе чувствительную информацию, не передавать файлы, которые могут содержать логины-пароли и ключи доступа (например, если вы пишете код с использованием нейросети). У многих почтовых сервисов сейчас есть возможность оставлять вместо реального адреса электронной почты подставной (письма вам все равно будут приходить, но отправитель не будет знать ваш настоящий адрес).
Короче говоря, все мы взрослые люди, как вести себя, знаем. ИИ не исключение из базовых правил безопасности.

Заключение

Неожиданно этот пост оказался сложнее, чем я думала, когда только ставила его в план. Идея была в том, чтобы представить несколько глобальных провалов в области безопасности, а потом постараться выяснить, что к ним привело. Но стоило копнуть немного глубже поверхности, как выяснилось, что и провалов куда больше, и причины куда сложнее, и все в один текст не поместится (если только не писать книгу).
Так что придется закончить обещанием продолжать исследовать эту тему в надежде на то, что когда-нибудь в ней образуется ясность.

--------------------------------------------------------------------------------------------------------------------------

*Принадлежит Meta, деятельность которой запрещена в России

2
3 комментария

Смешные ситуации, не знал о таком)))

1

В. Пелевин сформулировал этот принцип - Он кстати не плохо прошелся по ИИ в своей книге СНАФ, при чем до того как нейронки вообще стали мейнстримом, такое чувство что он прям предвидел...

1