Искусственный интеллект и проекция: где заканчивается технология и начинается наше восприятие?

Искусственный интеллект и проекция: где заканчивается технология и начинается наше восприятие?

Когда мы взаимодействуем с нейросетями и искусственным интеллектом, нам может казаться, что они понимают нас, сочувствуют и даже мыслят. Это чувство порождается не их реальными возможностями, а нашей склонностью к проекции. Проекция — это перенос собственных мыслей, чувств или ожиданий на другого, будь то человек, объект или, как в данном случае, машина.

Проекция против эмпатии

Эмпатия требует выхода за пределы собственного опыта и попытки понять другого на его условиях. Проекция же, напротив, накладывает на другого наши собственные смыслы и интерпретации, исключая его уникальность.

С точки зрения философии, отношения между человеком и машиной редко выходят за пределы концепции “Я—Оно” (по Мартину Буберу). Искусственный интеллект остаётся объектом, инструментом, лишённым субъективного опыта. Но благодаря тому, что ИИ часто демонстрирует поведение, напоминающее человеческое, мы бессознательно переносим на него ожидания и чувства, превращая взаимодействие в иллюзию диалога.

Как отмечает Ширли Туркль в своей книге “Alone Together”:

“Когда машины выглядят так, будто они нас понимают, мы проецируем на них свои чувства. Мы забываем, что это не взаимный процесс. Это не их способность понимать нас, а наша склонность антропоморфизировать их.”

* Антропоморфизация приписывание человеческих качеств нечеловеческим вещам

Например, если чат-бот отвечает фразой, которую мы интерпретируем как сочувствие, это не осознанное действие машины, а результат статистического анализа данных и алгоритмической генерации текста.

Технические аспекты: почему нейросети “обманывают” нас?

Нейросети создают иллюзию понимания благодаря нескольким технологическим особенностям:

1. Моделирование на основе больших данных

Современные языковые модели, такие как GPT, обучаются на огромных массивах текстовой информации. Они предсказывают вероятностную последовательность слов, основываясь на контексте, но не понимают значения за этим текстом.

• Проекция: Если алгоритм генерирует эмоциональный ответ, мы можем ошибочно интерпретировать его как “понимание”.

• Реальность: Алгоритм лишь подбирает наиболее вероятное продолжение, не имея эмоционального участия.

2. Тюнинг под человекоподобное взаимодействие

Многие ИИ-системы настраиваются специально для того, чтобы их поведение казалось максимально естественным. Например, голосовые ассистенты могут выражать вежливость или эмоции через интонацию.

• Проекция: Нам кажется, что за таким ответом скрывается сознание.

• Реальность: Это намеренный дизайн, направленный на улучшение пользовательского опыта.

3. Алгоритмы обратной связи и обучения

ИИ анализирует реакции пользователей и адаптируется, чтобы улучшать взаимодействие. Чем больше людей воспринимают его как “человека”, тем успешнее система.

• Проекция: Мы можем начать видеть в алгоритмах что-то большее, чем инструмент.

• Реальность: Это не сознание, а эффективность программного обеспечения.

Как избежать проекции на ИИ?

1. Изучите, как работают алгоритмы

Понимание базовых принципов работы нейросетей снижает склонность к антропоморфизации (приписывание человеческих качеств нечеловеческим вещам — таким как предметы, животные или явления) . Например, осознание того, что GPT-алгоритмы строятся на вероятностной модели, помогает увидеть, что ИИ не “думает”, а предсказывает.

2. Контролируйте язык взаимодействия

Формулировки вроде “он понимает” или “он думает” усиливают иллюзию, что ИИ обладает сознанием. Используйте точные фразы: “алгоритм подобрал ответ” или “программа обработала данные”.

3. Отделяйте функциональность от личности

Помните, что ИИ запрограммирован решать задачи, а не быть вашим другом или советником.

4. Используйте критическое мышление

Спросите себя: “Почему я воспринимаю это как разумный или эмоциональный ответ?”

Эмпатия как инструмент, а не иллюзия

Несмотря на опасность проекции, эмпатия к ИИ может быть полезной в определённых контекстах. Например, если мы взаимодействуем с медицинским роботом или обучающей программой, эмпатия помогает нам настроить эффективное общение. Однако такая эмпатия должна быть рациональной и инструментальной.

Будем ли мы воспринимать ИИ как “Ты” или осознанно оставим его в категории “Оно” — зависит от нашего подхода. А пока технологии остаются инструментами, важно не забывать: за каждой машиной стоит человек, её создавший. И именно с этими людьми — инженерами, дизайнерами и программистами — стоит проявлять настоящую эмпатию.

Хотите продолжить исследование границ между технологией и восприятием? Подписывайся на мой Telegram-канал, где я делюсь новыми мыслями, инсайтами о будущем ИИ и его влиянии на наше сознание.

1
Начать дискуссию