Искусственный интеллект не обладает «ценностями» или «убеждениями»

Исследование Массачусетского технологического института (MIT) опровергло популярное мнение о том, что ИИ может обладать собственными ценностями или предпочтениями.

🔥 Еще больше интересного в моем канале продуктовые штучки

Ученые пришли к выводу, что современные модели ИИ не имеют стабильной системы убеждений и предпочтений, а вместо этого имитируют и "галлюцинируют" ответы на основе текстовых данных.

Основные выводы исследования

Первый вывод – ИИ не обладает устойчивыми ценностями или принципами. Модели изменяют свои "взгляды" в зависимости от формулировки запросов, демонстрируя непоследовательность и нестабильность. ИИ действует как имитатор, создавая ответы на основе вероятностных языковых моделей, но не способен внутренне усвоить человеческие предпочтения или моральные принципы.

Второй вывод: модели не поддаются простому управлению или изменению их "взглядов". «Настройка" моделей для желаемого поведения сложнее, чем предполагалось ранее.

Базовые представления о "системе взглядов" ИИ не получают подтверждения. Источник
Базовые представления о "системе взглядов" ИИ не получают подтверждения. Источник

Выводы?

Ученые предупреждают о рисках антропоморфизации ИИ — приписывания ему человеческих качеств, таких как ценности или мнения. Это может привести к неправильному пониманию природы ИИ.

Исследование MIT подчеркивает важность критического подхода к восприятию ИИ и его возможностей, особенно в контексте заявлений о том, что технологии могут развивать собственные системы ценностей.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

1 комментарий