Искусственный интеллект не обладает «ценностями» или «убеждениями»
Исследование Массачусетского технологического института (MIT) опровергло популярное мнение о том, что ИИ может обладать собственными ценностями или предпочтениями.
🔥 Еще больше интересного в моем канале продуктовые штучки
Ученые пришли к выводу, что современные модели ИИ не имеют стабильной системы убеждений и предпочтений, а вместо этого имитируют и "галлюцинируют" ответы на основе текстовых данных.
Основные выводы исследования
Первый вывод – ИИ не обладает устойчивыми ценностями или принципами. Модели изменяют свои "взгляды" в зависимости от формулировки запросов, демонстрируя непоследовательность и нестабильность. ИИ действует как имитатор, создавая ответы на основе вероятностных языковых моделей, но не способен внутренне усвоить человеческие предпочтения или моральные принципы.
Второй вывод: модели не поддаются простому управлению или изменению их "взглядов". «Настройка" моделей для желаемого поведения сложнее, чем предполагалось ранее.
Выводы?
Ученые предупреждают о рисках антропоморфизации ИИ — приписывания ему человеческих качеств, таких как ценности или мнения. Это может привести к неправильному пониманию природы ИИ.
Исследование MIT подчеркивает важность критического подхода к восприятию ИИ и его возможностей, особенно в контексте заявлений о том, что технологии могут развивать собственные системы ценностей.