Технологии и мораль: должны ли машины принимать этические решения? Как искусственный интеллект может стать моральным субъектом?

Вопрос о том, могут и должны ли машины принимать этические решения, становится все более насущным ввиду быстрого развития искусственного интеллекта. Когда мы создаем системы, которые способны выполнять задачи и принимать решения, возникает не только вопрос о том, как эффективно их написать, но и о том, может машина стать субъектом моральной ответственности.

Технологии и мораль: должны ли машины принимать этические решения? Как искусственный интеллект может стать моральным субъектом?

Как ИИ может стать моральным субъектом?

Представьте ситуацию: автономный автомобиль должен выбрать, кому спасти жизнь в случае неизбежной аварии. Это далеко не фантастика, а реальный пример того, что может случиться, когда машины окажутся в ситуации, требующей принятия моральных решений. Машины уже способны принимать решения, основываясь на данных, но эти решения не являются моральными или этичными. Они не понимают, почему один выбор может быть «хорошим», а другой — «плохим».

Для того чтобы искусственный интеллект стал моральным субъектом, ему нужно не только «понимать» законы и правила, но и развивать способность учитывать человеческие ценности и нормы, а это затруднительно, так как мы сами до конца не понимаем как работает человеческие "мораль и совесть".

Технологии и мораль: должны ли машины принимать этические решения? Как искусственный интеллект может стать моральным субъектом?

1. Этические алгоритмы: возможно ли это?

Искусственный интеллект может анализировать огромные объемы данных и предсказывать, что может быть наиболее оптимальным выбором с точки зрения эффективности. Но как быть с моральными дилеммами? Как решить, что правильно с точки зрения человека, а не машины?

Разработчики уже работают над созданием этических алгоритмов, которые могут имитировать моральное рассуждение. Одним из примеров является блокчейн с открытыми и прозрачными системами принятия решений. Но что, если эти алгоритмы не смогут точно учитывать индивидуальные ценности, культуральные различия или неопределенность человеческих эмоций?

2. Моральная ответственность.

Кто несет ответственность за моральные решения, принимаемые ИИ? Если система искусственного интеллекта совершит ошибку, которая приведет к плохому исходу, кто понесет ответственность? Разработчики, компании или сама машина?

Многие исходы различных ситуаций беспилотную технику "вбивает" человек на этапе персонализированной настройки: к примеру беспилотный автомобиль может предложить дорожную ситуацию и спросить "в этой ситуации мне резко свернуть на обочину, подвергнув вас большому риску, но спасти пешехода, или сберечь вас, но рискнуть жизнью пешехода". И субъектом ответственности выступает именно человек.

Технологии и мораль: должны ли машины принимать этические решения? Как искусственный интеллект может стать моральным субъектом?

3. "Черный ящик". Отсутствие прозрачности.

Одним из недостатков нынешних систем ИИ является так называемый «черный ящик». ИИ самостоятельно строит внутри себя наиболее эффективную программу для выполнения задачи. Это означает, что мы можем не всегда понять, почему ИИ принял тот или иной выбор. Если алгоритмы не прозрачны, как можно доверить ИИ принятие решения по этическим нормам? А вдруг его взломали?

4. Роль человека в принятии решений

Конечное решение и конечная ответственность всегда должны быть за человеком. Как в ситуации, описанной выше, машины могут предложить рекомендации, основываясь на данных, но конечный выбор должен оставаться за человеком.

Технологии и мораль: должны ли машины принимать этические решения? Как искусственный интеллект может стать моральным субъектом?

Заключение

Это очень важный философский вопрос. Для определения места ИИ в вопросах принятия решений (не только этических и моральных) нас сперва нужно точно и четко понимать, как это осуществляется человеком. Где у нас сосредоточена мораль, как она функционирует и формируется. Так что как Я описывал в своей статье "Нейросети и роботы заменят человека..." развитие техники не должно двигаться без соответствующего развития гуманитарных наук.Уверен в ближайшие годы этот вопрос будет решен.

Спасибо за прочтение!

1
Начать дискуссию