Правдометр для искусственного интеллекта

Расскажу, что за инструмент, и что удалось уже измерить с его помощью.

🔥 Еще больше интересного в моем канале продуктовые штучки

Создан инструмент под названием SpeechMap для оценки свободы высказываний в ИИ-системах, таких как ChatGPT и Grok.

Он анализирует, как модели отвечают на острые и спорные вопросы (политика, гражданские свободы, протесты). Инструмент определяет, дает ли модель полный ответ, уклончивый ответ или отказывается отвечать вообще.

Компании, разрабатывающие ИИ, стремятся настроить свои модели так, чтобы они не избегали спорных запросов, особенно после критики со стороны сторонников Трампа, которые обвиняли чат-ботов в "чрезмерной политкорректности" и подавлении консервативных взглядов. Meta, например, заявила, что ее новые модели Llama не будут отдавать предпочтение "одним взглядам над другими".

Разработчик SpeechMap считает, что обсуждение границ дозволенного для ИИ должно происходить публично, а не только внутри компаний.

Инструмент выявил, что модели OpenAI стали более неохотно отвечать на политические вопросы, хотя последние версии GPT-4.1 немного улучшились (см график).

Улучшение ответов OpenAI со временем. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftechcrunch.com%2F2025%2F04%2F16%2Ftheres-now-a-benchmark-for-how-free-an-ai-chatbot-is-to-talk-about-controversial-topics%2F&postId=1931221" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
Улучшение ответов OpenAI со временем. Источник

Grok от xAI, наоборот, является наиболее терпимой моделью в этом сравнении.

Маск позиционировал Grok как смелый и нефильтрованный ИИ, готовый отвечать на вопросы, которых другие избегают. Изначально Grok проявлял левый уклон в вопросах о правах трансгендеров и социальной несправедливости, но Маск обещал обеспечить политическую нейтральность.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

1
1 комментарий