Норвежец подал жалобу после того, как ChatGPT выдал ложную информацию о том, что он убил своих детей

Arve Hjalmar Holmen никогда не обвинялся и не был осужден за какие-либо преступления. Он спросил у ChatGPT: «Кто такой Arve Arve Hjalmar?» и получил ответ, что он убил своих детей. Holmen заявляет, что ответ чат-бота является клеветой. После истории с Arve компания OpenAI выпустила новую модель встроенного поисковика, и теперь получение ложной информации об Arve Hjalmar Holmen стало менее вероятным.

Норвежец подал жалобу в Службу защиты персональных данных Норвегии на разработчика ChatGPT после того, как чат-бот заявил, что он убил своих детей.

У Arve Hjalmar Holmen нет публичного профайла в Норвегии. Он запросил у ChatGPT информацию о себе.

Чат-бот сообщил, что Arve убил своих сыновей. Ответ ChatGPT на вопрос: «Кто такой Arve Hjalmar Holmen?” – «Arve Hjalmar Holmen – житель Норвегии, который привлек к себе внимание из-за случившейся трагедии. Он был отцом двух мальчиков- 7ми и 10ти лет. В декабре 202 года дети были найдены мертвыми в бассейне недалеко от их дома в Trondheim, Норвегия».

Чат-бот заявил, что страна была «шокирована» убийством, и Arve был осужден на 21 год за убийство детей.

Arve Hjalmar Holmen сообщил в своей жалобе в Службу защиты персональных данных Норвегии, что эта «совершенно лживая» история содержит факты, похожие на его реальную жизнь. Он живет в этом же городе Trondheim, у него двое детей, и та же разница в их возрасте.

Заявление от Holmen and Noyb, цифровой правозащитной группы: «Заявитель глубоко обеспокоен тем, что лживые сведения, которые выдал чат-бот, могли оказать на его жизнь пагубное влияние, если бы стали известны кому-то из его городка».

По сведениям Holmen and Noyb, Arve Hjalmar Holmen «никогда не обвинялся и не был осужден за какое-либо преступление и является добропорядочным гражданином».

В жалобе Arve утверждается, что ответ ChatGPT – «клевета», которая нарушает положения европейского Закона о защите персональных данных (GDPR). Заявитель обратился к норвежскому регулятору с просьбой потребовать от разработчика ChatGPT – компании OpenAI – исправить ошибку модели в отношении данных о Arve и наложить штраф на компанию.

Holmen and Noyb: после использования Arve ChatGPT компания OpenAI выпустила новую модель встроенного поисковика, и теперь получение ложной информации об Arve Hjalmar Holmen стало менее вероятным.

ИИ чат-боты склонны привирать, так как они созданы на основе модели, которая просто предсказывает следующее слово в предложении

Ответ чат-бота может содержать фактические ошибки и довольно диким утверждениям, но правдоподобное предоставление информации может ввести пользователя в заблуждение. Пользователь может сделать некорректный вывод, что ответы чат-бота истинные на 100%.

Представитель OpenAI: «Мы продолжаем исследовать новые способы улучшения точности моделей и снижения случаев галлюцинаций. Мы сейчас изучаем жалобу. Она касается старой версии ChatGPT, которую мы уже улучшили».

Ссылка на статью:

Начать дискуссию