Проблема морали искусственного интеллекта: компания Open AI ищет решения

На днях вышла новость, что OpenAI финансирует академические исследования, направленные на разработку алгоритмов, способных предсказывать моральные суждения людей. Согласно заявлению компании, грант в размере 1 миллиона долларов был предоставлен группе исследователей из Университета Дьюка для проекта под названием «Исследование морали ИИ».

Проблема морали искусственного интеллекта: компания Open AI ищет решения

Целью этого проекта является обучение ИИ алгоритмов предсказывать человеческие моральные суждения в ситуациях, связанных с конфликтами в медицине, праве и бизнесе. Однако эксперты выражают сомнения в возможности создания таких алгоритмов, учитывая сложность и субъективность морали. Ранее попытки разработать подобные системы, такие как инструмент Ask Delphi от Института Аллена, сталкивались с проблемами, связанными с предвзятостью и непоследовательностью в ответах нейросетей.

Модели машинного обучения — это статистические машины. Обученные на множестве текстовых примеров со всего интернета, они изучают закономерности в этих примерах, чтобы делать прогнозы того, какая фраза или слово последует дальше в тексте.

ИИ не ценит этические концепции и не понимает рассуждений и эмоций, которые играют роль в принятии моральных решений. Вот почему ИИ склонен повторять ценности западных, образованных и индустриальных стран. В сети, а значит, и в данных обучения ИИ, преобладают статьи, поддерживающие эти точки зрения. Неудивительно, что ценности многих людей не выражаются в ответах, которые дает ИИ.

Таким образом, основной вызов для OpenAI и поддерживаемых ею исследователей заключается в учёте разнообразия моральных ценностей и культурных различий, а также в преодолении ограничений современных технологий. Несмотря на эти трудности, компания стремится продвигать исследования в области морали ИИ, надеясь на создание алгоритмов, способных учитывать человеческие моральные нормы и принимать этически обоснованные решения.

Начать дискуссию