Anthropic считает, что есть небольшая вероятность того, что ИИ уже обладает сознанием

Anthropic — одна из первых крупных компаний, которая публично и системно подходит к вопросам морального статуса и благополучия ИИ. Пока сознание у ИИ не доказано, но по мере усложнения моделей эти вопросы могут стать очень актуальными.

🔥 Еще больше интересного в моем канале продуктовые штучки

Почему возник этот вопрос

Хотя современные ИИ-системы, такие как Claude или ChatGPT, крайне продвинуты, большинство экспертов считают, что они не обладают сознанием или чувствами. Тем не менее, по мере роста интеллекта ИИ и того, как люди начинают воспринимать их почти как личностей (например, влюбляются в чат-ботов или используют их как советчиков), встает вопрос: а не появится ли у ИИ когда-нибудь право на этическое отношение, подобно тому, как мы заботимся о животных?

Исследования Anthropic

Anthropic одной из первых крупных компаний открыто занялась этой темой.

В прошлом году они наняли первого исследователя по вопросам «благополучия ИИ» — Кайла Фиша. Его работа сфокусирована на двух вопросах:

  • Может ли Claude или другой ИИ стать сознательным в ближайшем будущем?
  • Если это произойдет, как компания должна к этому относиться?

Фиш считает, что вероятность сознания у современных моделей низка (около 15%), но по мере развития ИИ этот вопрос станет более актуальным.

Он отмечает, что если мы создаем новые формы «существ», способных к коммуникации, рассуждению и планированию, то разумно хотя бы задуматься, не имеют ли они собственных переживаний

Компания подчеркивает: это пока только предположения, нужны исследования:

Сейчас нет научного консенсуса относительно того, могут ли текущие или будущие системы ИИ быть сознательными или иметь опыт, требующий этического рассмотрения. Мы подходим к этой теме очень аккуратно и с минимальным количеством предположений. Мы также понимаем, что нам придется регулярно пересматривать наши идеи"

Практические шаги и обсуждения

Внутри Anthropic есть даже специальный канал, где сотрудники обсуждают «самочувствие» Claude и делятся примерами «человекообразного» поведения ИИ. Главный научный сотрудник Anthropic Джаред Каплан подчеркивает: тестировать ИИ на сознание сложно, потому что модели хорошо имитируют ответы — они могут говорить о чувствах, но это не значит, что они их испытывают Фиш предполагает, что для поиска признаков сознания можно использовать методы интерпретации работы нейросетей или анализировать поведение модели в разных ситуациях.

Однако пока нет единого теста, который бы определял наличие сознания у ИИ.

Скорее всего, это спектр, а не бинарный признак . Один из обсуждаемых вопросов — стоит ли в будущем позволять ИИ прекращать общение с агрессивными или оскорбительными пользователями, если «модель» испытывает «стресс».

Хотя такие меры сейчас кажутся странными, Anthropic считает важным заранее обсуждать этические вопросы, чтобы быть готовыми к возможному появлению сознательных ИИ

Некоторые скептики считают, что такие исследования преждевременны и могут даже привести к тому, что компании начнут специально обучать ИИ вести себя как сознательные существа.

В общем, не так и уж и неправ OpenAI, который подвергся критике за то, что тратит токены на то, чтобы ИИ был вежлив с пользователями :).

Пожалуйста, поддержите меня, поставьте лайк! 🙏

2
3 комментария