Что Deepseek может означать для будущего журналистики и генеративного ИИ
Эксперт Карен Хао о том, как эта китайская нейросеть может изменить сферу ИИ, как она может повлиять на журналистику и как репортерам следует ее освещать
Сделал перевод статьи Марины Адами (автор сайта Reuters Institute).
В понедельник 27 января в сфере ИИ произошло два необычных события. Во-первых, американская компания Nvidia, которая производит и поставляет компьютерные чипы, необходимые для обучения генеративного ИИ, потеряла 589 миллиардов долларов рыночной капитализации (или 17% от своей стоимости), установив рекорд по самой большой однодневной потере стоимости среди всех компаний в истории. Во-вторых, AI ассистент китайской компании DeepSeek вытеснил ChatGPT с первой строчки в App Store от Apple.
DeepSeek утверждает, что обучает свои модели лишь на части специализированных и дорогих чипов Nvidia, используемых другими разработчиками генеративного ИИ, включая OpenAI. Компания также утверждает, что достигает, а в некоторых случаях и превосходит своих коллег по бенчмаркам, используемым в отрасли для измерения прогресса. Это делает DeepSeek более эффективной и значительно менее дорогой моделью, чем многие ее западные аналоги. Однако, по мере того, как пользователи тестируют чат-бота DeepSeek, возникают опасения по поводу цензуры , защиты данных и авторских прав. Модели компании стали общедоступными, что позволяет свободно загружать, использовать и изменять их.
Поскольку волнение и беспокойство вокруг того, что некоторые называют «землетрясением ИИ», растут, мы обратились к эксперту по ИИ и журналисту Карен Хао за комментарием по поводу того, что произошло и что может произойти дальше. Хао много писала об ИИ и Китае для Wall Street Journal и в настоящее время работает над книгой об OpenAI. Мы спросили Хао, что выделяет DeepSeek, что его успех может означать для будущего отрасли и как это может повлиять на журналистику во всем мире.
- Вкратце, что особенного в DeepSeek?
- DeepSeek — китайская компания, разработавшая ряд моделей ИИ, которые достигли, а в некоторых случаях и превзошли показатели американских компаний, таких как OpenAI и Anthropic, по определенным типам тестов, но при этом затратили на это гораздо меньше средств. Это бросает вызов догме, которая установилась в индустрии ИИ в последние годы: что нужно тратить огромные суммы, чтобы достичь прогресса ИИ. Деньги необходимы для множества компьютерных чипов и огромных центров обработки данных для обучения моделей ИИ, которые могут повышать производительность. DeepSeek только что показал, что это не так.
Тут нет ничего нового для многих людей в мире нейросетей, которые давно следят за развитием ИИ. Было много критиков подхода OpenAI и этой догмы. Они выступали за инвестиции в гораздо более ресурсоэффективные подходы. Но их не слушали. Этот момент так важен, потому что он подчеркивает, что мы должны были прислушаться к этим людям. Это должно стать призывом к действию для индустрии ИИ, чтобы начать думать по-другому.
- Как вы думаете, какой будет вероятная реакция Дональда Трампа и индустрии ИИ?
- Невозможно запретить модели DeepSeek. Они просто выкладывают их в сеть с полностью открытым исходным кодом, и вы не можете наложить запрет на это. Но я думаю, что мы находимся на развилке, где люди либо усвоят урок DeepSeek и сделают что-то другое, либо они станут еще упрямее и удвоят ставку на существующий подход, попытавшись доказать, что были правы. Я подозреваю, что в администрации Трампа мы увидим именно эти удвоенные усилия, поскольку американские компании имеют огромный корыстный интерес, убеждая правительство США в правильности своего подхода. И они однозначно смогут убедить в своей позиции администрацию США и президента Трампа.
- Есть ли какие-либо положительные последствия этого (старта DeepSeek - прим. перев.)?
- DeepSeek будет очень вдохновляющим примером для исследователей и разработчиков ИИ по всему миру, чтобы сильнее задуматься о работе за пределами крупных компаний. Одной из реальных проблем разработки ИИ за последние четыре года, учитывая ее огромную потребность в ресурсах, было то, что исследователи (люди в университетах или некоммерческих организациях), у которых нет доступа к таким ресурсам, чувствовали себя деморализованными из-за того, что оказались вне игры. Они чувствовали себя потерянными и не знали, как им внести свой вклад в исследования ИИ, поскольку также поверили в догму о том, что ставки в этой игре составляют 100 миллионов или 1 миллиард долларов. Теперь эти исследователи понимают, что могут применять и другие подходы, требующие значительно меньше денег. В долгосрочной перспективе я надеюсь, что появится целая волна альтернативных проектов, которые покончат с доминированием текущей ресурсоемкой концепции.
- То есть вместо того, что DeepSeek заменит OpenAI в качестве ведущей компании в области генеративного ИИ, вы предполагаете, что может возникнуть больше конкуренции со стороны ряда других, более мелких компаний?
- Да. Я не думаю, что DeepSeek заменит OpenAI. В целом, мы увидим, что больше компаний войдут в эту сферу и представят модели ИИ, которые немного отличаются друг от друга. Если многие участники выберут ресурсоемкий путь, это увеличит интенсивность использования ресурсов, что может вызвать тревогу. Но я надеюсь, что DeepSeek приведет к появлению поколения других компаний ИИ, которые войдут в эту сферу с намного более дешевыми и ресурсоэффективными проектами. Тогда мы не окажемся в странном мире, где для разработки ИИ- технологий потребляются значительные энергетические ресурсы. У нас будут DeepSeek, OpenAI и многие другие игроки, и каждый из них попытается дифференцировать себя на рынке разными способами.
- Как вы упомянули в недавней публикации, все это может иметь положительные последствия для окружающей среды. Но есть и другие опасения. У журналистов и медиакомпаний в частности возникают вопросы о прозрачности и авторских правах. Если модель DeepSeek действительно возобладает, как изменится ситуация?
- DeepSeek показывает, что нынешние негативные экологические последствия не являются обязательными. Но я бы не сказала, что DeepSeek стал “золотой звездой”, за которой все должны стремиться, потому что в их подходе есть еще и другие проблемы. Так все еще актуальны значимые вопросы о конфиденциальности данных, происхождении контента, нарушении авторских прав и других проблемах, которые преследуют индустрию ИИ во всем мире. DeepSeek, возможно, показал путь к смягчению одной из проблем, но на самом деле эта модель все еще перенимает сценарии Кремниевой долины и наследует другие проблемы. Одна из причин, по которой мы наблюдаем именно такую модель развития ИИ, когда компании могут просто захватить все данные и уйти от ответственности, заключается в том, что США не заняли жесткую позицию по регулированию конфиденциальности данных. Это было вызвано страхом перед Китаем, который якобы не станет вводить подобные запреты и поэтому может вырваться вперед.
Я надеюсь, DeepSeek покажет, что китайская карта больше недействительна: правительство США не регулировало ни одну из ИИ-компаний, а китайская фирма все равно оказалась в лучшем положении даже в условиях ограничений.
- Насколько мы можем доверять тому, что нам говорят о Deepseek? Звучал некоторый скептицизм относительно того, как работает компания, количества используемых чипов и стоимости ее разработок.
- Скептицизм должен быть по отношению к любой компании. Я не согласна с тем, что люди относятся скептически к этой китайской компании. Но даже если так, они не относятся с таким же скептицизмом к американским компаниям. Ко всему, что говорят американские компании, такие как OpenAI, следует относиться с крайней осторожностью, поскольку они не предоставляют доказательств в поддержку своих слов.
Есть определенные структурные вещи, которые позволяют проверить заявления DeepSeek. Первое — они открыли исходный код своей модели онлайн, так что любой может скачать ее и проверить их заявления. OpenAI этого не делает. Anthropic этого не делает. Google уже давно не делал этого для своих ведущих моделей. Так что они фактически оценивают свои собственные проверки, когда дело касается производительности их моделей.
- А что насчет заявления DeepSeek о чипах?
- Когда DeepSeek говорит, что они обучили свою модель на таком небольшом количестве чипов, весьма вероятно, что это правда. Поскольку китайские фирмы не могут получить доступ к большим партиям чипов из-за экспортного контроля США. Стоит ли нам скептически относиться к точной цифре? Да. Так же, как нам следует скептически относиться к заявлениям любой компании. Но будет ли эта цифра отличаться отличаться от реальной на порядок? Нет, из-за глобального геополитического ландшафта.
- Безопасно ли использовать DeepSeek в журналистской среде? Существуют проблемы с конфиденциальностью данных в приложении, но решаются ли они загрузкой открытого исходного кода?
- Если проблема касается конфиденциальности данных, то да, она решается с помощью открытого исходного кода, если вы загружаете и запускаете локально на своем компьютере. Честно говоря, это гораздо более безопасная альтернатива конфиденциальности данных, чем использование ChatGPT или Claude или Gemini, потому что эти данные идут напрямую в компании, тогда как возможность загрузить версию с открытым исходным кодом на свой локальный компьютер означает, что они никогда не покинут его.
В целом, я призываю журналистов не использовать генеративный ИИ, пока у вас нет хорошо продуманного варианта, который, по вашему мнению, однозначно использует сильные стороны нейросетей. Эти инструменты не предназначены для того, чтобы быть поисковыми системами или предоставлять точные фактические данные. Так что здесь также есть риски с точки зрения того, насколько вы полагаетесь на эту информацию.
- Как бы вы описали такой вариант правильного использования ИИ?
- Я разработала его в рамках серии публикаций Pulitzer Center's AI Spotlight Series. В ней я рассмотрела, что журналистам стоит оценивать, используя ИИ в своей работе. Схема работы с нейросетями включает в себя две разные оси. Одна из них заключается в том, требует ли задача, которую вы пытаетесь выполнить с помощью ИИ, высокой точности или низкой точности? Другая - будут ли полученные данные использоваться как конечный продукт для вашего внутреннего исследования или они будут обращаться к внешней аудитории.
Если задача, которую вы пытаетесь выполнить, должна содержать очень точные данные и ориентироваться на аудиторию, например, это может быть написанная вами статья или снятое вами видео, то вам не следует использовать Gen AI, поскольку он не является высокоточным инструментом. У Apple была функция, которая суммировала заголовки, и она делала это неправильно. Это прекрасный пример того, что такой контент должен быть очень точным, поскольку он обращен прямо к аудитории. И вот тут-то и может произойти огромный провал. Но если требуется низкая точность и данные нужны для внутренних исследований, то при таких условиях использовать Gen AI гораздо безопаснее.
- В социальных сетях есть несколько постов от людей, экспериментирующих с чат-ботом, задающих вопросы на такие темы, как протесты на площади Тяньаньмэнь и обращение с уйгурами, и получающих сообщения об ошибках или пропагандистские ответы. Это распространяется и на инструменты с открытым исходным кодом?
- Обычно эти типы модерации контента не встроены в модель, а представляют собой фильтр, накладываемый поверх модели. Когда DeepSeek разместил свои модели с открытым исходным кодом на ИИ-платформе Hugging Face, разработчики по всему миру начали копировать и совершенствовать свои модели. Так что теперь есть сотни вариаций DeepSeek, и многие из них будут лишены цензуры, поскольку они разрабатываются и совершенствуются в совершенно некитайских контекстах. Вот в чем прелесть открытого исходного кода: теперь существует экосистема моделей в стиле DeepSeek, которые были основаны на оригинале. Но теперь они адаптированы и отвечают потребностям разных пользователей и разных рынков с разными законами. Журналисты могли бы зайти на Hugging Face , рассмотреть альтернативы и выбрать ту модель, которая лучше подходит для обхода цензуры.
Как журналистам следует подходить к освещению популярности DeepSeek и любых других «землетрясений» в сфере ИИ?
- Во-первых, я бы посоветовала им ознакомиться с серией статей Пулитцеровского центра «Искусственный интеллект в центре внимания», где мы подробно обсуждаем эту тему в ходе 90-минутного вебинара и шестичасового семинара. Вы должны помнить, что ИИ — это не просто история о технологиях. Это история о людях, власти и деньгах, потому что именно люди разрабатывают инструменты. И именно на людей эти инструменты влияют.
В индустрии ИИ происходит большая консолидация власти, и вкладывается много денег. Фиксируя любое крупное явление в этой отрасли, всегда спрашивайте себя: кто за ним стоит? Как это повлияет на других людей? Как это может усугубить или смягчить вред от технологии?
С другой стороны, я бы воздержалась от фокусировки на странах, а не на компаниях. Большое внимание уделяется технологической конкуренции между США и Китаем или глобальной “гонке вооружений” в области ИИ. Хотя геополитический контекст важен, многие люди в сфере разработки ИИ не думают об этом применительно к странам. Они думают только в масштабах компаний, поскольку это глобальная корпоративная гонка. Иногда я вижу комментарии о DeepSeek в духе: «Стоит ли доверять ей, раз это китайская компания?» Нет, доверять ей не стоит, потому что это компания. А также: «Что это значит для лидерства США в области ИИ?» Ну, я думаю, по-настоящему интересный вопрос: «Что это значит для лидерства OpenAI?» Американские фирмы теперь склонились к риторике о том, что они являются активами США. Поэтому они хотят, чтобы правительство страны защищало их и помогало им развиваться.
Но зачастую реальные люди, которые разрабатывают эти инструменты, не обязательно думают в таком ключе. Скорее они мыслят как граждане мира, участвующие в глобальной корпоративной технологической гонке, или глобальной научной гонке, или глобальном научном сотрудничестве. Я бы призвал журналистов думать об этом так же.