Как нейросеть GPT-4 модерирует контент?

OpenAI используют GPT-4 для разработки политики в отношении контента и принятия решений по модерации контента, что обеспечивает более последовательную маркировку, более быстрый цикл обратной связи для уточнения политики и меньшее участие модераторов-людей.

Как нейросеть GPT-4 модерирует контент?

Модерация контента играет решающую роль в поддержании работоспособности цифровых платформ. Система модерации контента с использованием GPT-4 значительно ускоряет итерацию изменений политики, сокращая цикл с месяцев до часов. GPT-4 также может интерпретировать правила и нюансы в длинной документации по политике контента и мгновенно адаптироваться к обновлениям политики, что приводит к более последовательной маркировке. Мы считаем, что это предлагает более позитивное видение будущего цифровых платформ, где ИИ может помочь модерировать онлайн-трафик в соответствии с политикой конкретной платформы и облегчить умственную нагрузку большого числа модераторов-людей. Любой, у кого есть доступ к API OpenAI, может реализовать этот подход для создания собственной системы модерации с помощью ИИ.

Проблемы модерации контента

Модерация контента требует кропотливых усилий, деликатности, глубокого понимания контекста, а также быстрой адаптации к новым вариантам использования, что делает ее трудоемкой и сложной задачей. Традиционно бремя этой задачи ложилось на модераторов-людей, которые просеивали большие объемы контента, чтобы отфильтровать токсичные и вредные материалы, поддерживаемые более мелкими моделями машинного обучения, ориентированными на вертикаль. Процесс изначально медленный и может привести к психологическому стрессу модераторов.

Использование больших языковых моделей

Мы изучаем возможности использования LLM для решения этих проблем. Наши большие языковые модели, такие как GPT-4, могут понимать и генерировать естественный язык, что делает их применимыми для модерации контента. Модели могут выносить суждения о модерации на основе предоставленных им политик.

Благодаря этой системе процесс разработки и настройки политик контента сокращается с месяцев до часов.

  • После написания руководства по политике эксперты по политике могут создать золотой набор данных, определив небольшое количество примеров и присвоив им метки в соответствии с политикой.
  • Затем GPT-4 считывает политику и присваивает метки тому же набору данных, не видя ответов.
  • Изучая расхождения между суждениями GPT-4 и суждениями человека, эксперты по политике могут попросить GPT-4 обосновать свои ярлыки, проанализировать двусмысленность в определениях политики, устранить путаницу и предоставить дополнительные разъяснения в политике соответственно. Мы можем повторять шаги 2 и 3, пока не будем удовлетворены качеством политики.

Этот итеративный процесс дает усовершенствованные политики контента, которые преобразуются в классификаторы, что позволяет развертывать политику и модерировать контент в масштабе.

При желании, чтобы обрабатывать большие объемы данных в масштабе, мы можем использовать прогнозы GPT-4 для точной настройки гораздо меньшей модели.

Важные моменты

Более последовательные "этикетки"

Политики в отношении контента постоянно развиваются и часто очень детализированы. Люди могут по-разному интерпретировать политики, или некоторым модераторам может потребоваться больше времени, чтобы переварить новые изменения политики, что приводит к несогласованным ярлыкам. Для сравнения, LLM чувствительны к детальным различиям в формулировках и могут мгновенно адаптироваться к обновлениям политик, чтобы предлагать пользователям единообразный контент.

Ускоренная обратная связь

Цикл обновления политики — разработка новой политики, маркировка и сбор отзывов людей — часто может быть длительным и затяжным процессом. GPT-4 может сократить этот процесс до нескольких часов, что позволяет быстрее реагировать на новые угрозы.

Снижение умственной нагрузки

Постоянное воздействие вредоносного или оскорбительного контента может привести к эмоциональному истощению и психологическому стрессу среди модераторов. Автоматизация этого типа работы полезна для благополучия тех, кто в ней участвует.

Иллюстрация того, как мы используем GPT-4 для модерации контента, от разработки политики до модерации в масштабе (OpenAI).
Иллюстрация того, как мы используем GPT-4 для модерации контента, от разработки политики до модерации в масштабе (OpenAI).

В отличие от конституционного ИИ ( Бай и др., 2022 г. ), который в основном полагается на собственное внутреннее суждение модели о том, что безопасно, а что нет, наш подход делает итерацию политики контента для конкретной платформы намного быстрее и менее трудоемкой. Мы призываем специалистов по доверию и безопасности опробовать этот процесс для модерации контента, поскольку любой, у кого есть доступ к OpenAI API, может провести те же эксперименты уже сегодня.

Ограничения

Суждения по языковым моделям уязвимы для нежелательных предубеждений, которые могли быть введены в модель во время обучения. Как и в случае с любым приложением ИИ, результаты и выходные данные необходимо будет тщательно контролировать, проверять и уточнять, поддерживая людей в курсе. Сокращая участие человека в некоторых частях процесса модерации, которые могут выполняться с помощью языковых моделей, человеческие ресурсы могут быть больше сосредоточены на решении сложных крайних случаев, наиболее необходимых для уточнения политики. Продолжая совершенствовать и развивать этот метод, мы сохраняем приверженность прозрачности и будем продолжать делиться своими знаниями и прогрессом с сообществом.

Информация - OpenAI.

PS. лайк, пожалуйста, он помогает продвижению статьи.

Ну и как положено на VC, канал телеграм))) Канал и чатик

В закрепленных канале всегда telegram боты для доступа в ChatGPT, GPT-4 без VPN, а так же генераторы изображений Midjourney, Dall-e и другие

1 комментарий

До сих пор, почему-то удивляюсь, как нейросети прикручивают ко всем возможным работам. Это даже вдохновляет! Насмотрится всякого жескача, пока модерировать будет

Ответить