The New York Times «одобрило» использование ИИ в новостном и продуктовом отделах — Semafor

Издание задумалось об этом ещё в 2024 году.

  • Руководство The New York Times (NYT) верит, что генеративные нейросети могут «расширить возможности» журналистов, пишет Semafor со ссылкой на внутренние сообщения.
  • Сотрудникам разрешили использовать Google NotebookLM для создания и редактирования заметок, неназванные ИИ-продукты Amazon, «напарника» программиста GitHub Copilot и платформу для машинного обучения Google Vertex AI. Использование API от OpenAI нужно согласовывать с юристами (API даёт доступ не к ChatGPT, уточняет Semafor).
  • Издание также представило свою модель Echo для сводок «статей NYT, брифингов и интерактивов». Использовали ли при разработке модели сторонних компаний — неизвестно.
  • Редакцию «призвали» использовать нейросети, чтобы создавать SEO-заголовки, викторины, выжимки, карточки с цитатами, списки частых вопросов и контент для соцсетей; придумывать вопросы для интервью и идеи для текстов; вносить правки; исследовать темы и «анализировать документы и изображения издания».
  • В шпаргалках есть примеры промптов: «Перескажи эту статью NYT для рассылки — кратко, в разговорном стиле», «Если бы ты публиковал эту статью в Facebook*, как бы ты её подал?», «Предложи пять SEO-заголовков для статьи» — и не только.
  • Сотрудников попросили не использовать нейросети для создания черновиков, радикального переписывания статей, а также обхода пэйволла. Помимо этого, нельзя «скармливать» ИИ материалы, защищённые авторским правом и договорами о неразглашении, и публиковать сгенерированные видеоролики и изображения без маркировки.
  • Некоторые сотрудники рассказали Semafor, что пока не хотят включать нейросети в работу. Они переживают, что команды разленятся, заголовки будут посредственными, а информация, которую сгенерирует ИИ, может оказаться бесполезной из-за неточностей.
Источник фото: New Yorker
Источник фото: New Yorker

*Meta, владеющая Facebook, признана в России экстремистской организацией и запрещена.

3
2
1
32 комментария