Чат-бот Сабина — хороший повод поразмышлять о зонах и субъектах ответственности за контент, выдаваемый генеративным ИИ. Особенно, если этот контент касается ментального здоровья, включает советы и прямые указания.
Возможно, неслучайно самые популярные англоязычные чат-боты для ментального здоровья — Woebot и Wysa хоть и основаны на технологиях ИИ, предлагают все-таки диалоги по сценариям, созданным людьми.
Это и понятно — такие диалоги создают профессиональные специалисты, которые ответственны за качество контента и его доказательную базу. В крупных проектах с миллионной аудиторией нелепо сгенерированная фраза, очевидная ошибка или «вредный» совет могут похоронить продукт и доверие людей в принципе к подобным технологиям (недавний пример из сферы универсальных чат-ботов с ИИ — провал презентации нейросети Bard).
А кто несет ответственность за рекомендации, интерпретации и конкретные советы, которые самостоятельно генерирует ИИ?
При создании любого бота на основе ИИ важно, на чем будет тренироваться нейросеть. Думаю, что для создания бота для решения таких практических задач просто нет достаточного количества информации. Тем более на русском языке
Вы правы. Тогда два варианта: либо не создавать бот вообще, либо не брать деньги за недоработанный и слабый продукт.
Спасибо за статью.
Скажите, а вы трестировали chatGPT на предмет того как он справляется с функцией психолога?
Пока только немного «игрался» с ним. Спасибо за идею, попробую протестировать его в этой роли!