Почему рано хоронить OpenAI и превозносить DeepSeek?

В техно и финансовых кругах развернулась дискуссия (если не сказать паника). Шутка ли, что можно вот так вот создать модель с 20 раз дешевле, да и еще в условиях санкций? Но не все так просто. Расскажу, в чем дело

🔥 Еще больше интересного в моем канале Продуктовые штучки

Подробнее о ситуации вокруг модели DeepSeek можно почитать тут

Есть несколько аргументов против апокалиптических выводов «все пропало». Сразу скажу, что придумала не сама, взяла у крутых специалистов. Леннарт Хейм – профессор, преподаватель курса по управлению ИИ, научный сотрудник института RAND, где руководит вычислительными исследованиями.

1. Реальные экспортные ограничения на чипы ИИ начались позже

Эффективность DeepSeek могла быть достигнута за счет того, что ранее у нее был доступ к значительным вычислительным ресурсам.

Ограничения начались только в октябре 2023 года, когда модель уже была создана, что делает заявления об их неэффективности преждевременными.

Леннарт Хайм и Сихао Хуан. Источник

DeepSeek обучался на чипах Nvidia H800, специально разработанных для обхода первоначальных мер контроля октября 2022 года.

2. Экспортный контроль работает с задержкой и не успел проявиться

Если для обучения моделей следующего поколения потребуется 100 000 чипов, экспортный контроль существенно повлияет на разработку китайской пограничной модели. Однако даже без такого масштабирования контроль повлияет на экосистему искусственного интеллекта Китая за счет сокращения возможностей. Вычислительный разрыв между США и Китаем, еще больше увеличенный экспортным контролем, остается основным ограничением DeepSeek. Руководство DeepSeek открыто признало 4-кратное отставание в вычислительных возможностях, несмотря на рост эффективности.

Когда реально начались экспортные ограничения. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fblog.heim.xyz%2Fdeepseek-what-the-headlines-miss%2F&postId=1778418" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
Когда реально начались экспортные ограничения. Источник

3. Неудивительно, что DeepSeek V3 обучался на меньших вычислительных ресурсах

Алгоритмы машинного обучения всегда становились дешевле с течением времени

Леннарт Хайм и Сихао Хуан. Источник

Этот же самый рост эффективности, который позволяет таким мелким игрокам, как DeepSeek, получать доступ к заданной возможности («эффект доступа»), вероятно, также позволит другим, последующим, компаниям создавать более мощные модели («эффект производительности»).

Лаг между "эффектом доступа" и "эффектом производительности". <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fblog.heim.xyz%2Fdeepseek-what-the-headlines-miss%2F&postId=1778418" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
Лаг между "эффектом доступа" и "эффектом производительности". Источник

4. Ведущие американские компании держат лучшие из своих возможностей в тайне

А это означает, что публичные бенчмарки рисуют несовершенную картину прогресса ИИ. Это делает прямые сравнения на основе публичной информации неполными.

Внимание к DeepSeek отчасти обусловлено их открытым подходом: подробным обменом весами моделей и методами, в отличие от все более закрытой позиции западных компаний.

Однако еще предстоит выяснить, обязательно ли открытость приводит к стратегическому преимуществу.

Леннарт Хайм и Сихао Хуан. Источник

Какой вывод?

Достижения DeepSeek являются подлинными и значительными. Заявления, отрицающие их прогресс, сработают против тех, кто отрицает.

Кстати, Сэм Альтман признал достижения конкурентов:

Стоит помнить, что в машинном обучении всегда так: сначала нужно много вычислительных ресурсов, чтобы найти правильный путь, а повторить его затем значительно проще. Дообучение модели в процессе работы модели - всего дешевле, чем первоначальная настройка, и есть способы, как удешевить модель на этом этапе.

Это мы и видим: ChatGPT также подешевел с точки зрения используемых для вычислений мощностей.

Пожалуйста, поддержите меня, поставьте лайк!

9
11 комментариев

Нужно в 4 раза больше мощностей? Ну ок, увеличат в 4-5 раз, будет 30 млн инвестиций. Дипсик хорошо работает, сам использую.

Сравним с бюджетами что там декларируют на chatgpt - от 500 млн на обучение модели до 500 млрд на развитие техно структуры. Явно был надут пузырь по стоимости, удобный для всех, кроме тех, кто это собирался финансировать)

Данные уже всеми собраны, вопрос стоит в том чтобы научить ИИ с ними работать более продуманно. То есть вложения нужны скорее в человеческий капитал, который это реализует.

2

Без VPN в РФ работает? Никак не могу найти информацию как его запустить с компа, а то все нахваливают, а я даже попробовать не могу

Хоронить Опен АИ не надо, конечно, но корону с такой собаки женской особи сбить необходимо. Это 1.
2. Хуавей уже выпустили передовой чип для ИИ, несмотря ни на какие ограничения.
Западу остаётся только утереться слезами соплями и прочими субстанциями. И признать поражение в борьбе за глобальное доминирование. Слишком много на себя взять решили, выскочки...

1

Сам утрись, дурачёк )Такие выводы может сделать только полнейший профан. Ну и да, в твоём комментарии так и сквозит пропаганда и псевдопатриотизм. Ах, какой Запад злой гегемон )))

2

Попросил DeepSeek написать вывод.
Вывод:
Достижения DeepSeek, безусловно, впечатляют, и они демонстрируют, что китайские разработчики могут создавать конкурентоспособные модели даже в условиях санкций. Однако рано хоронить OpenAI, так как:

OpenAI обладает значительными ресурсами и опытом, которые позволяют ему оставаться лидером в области ИИ.

Экспортные ограничения на чипы могут серьезно замедлить развитие китайских моделей в будущем.

OpenAI и другие западные компании могут скрывать свои реальные достижения, что делает публичные сравнения неполными.

Таким образом, конкуренция между OpenAI и DeepSeek будет продолжаться, и окончательные выводы о том, кто окажется в выигрыше, делать пока рано.

1

Я протестил, DS явно лучше выдаёт ответы. По крайней мере не хоронит живых людей))) И скорость выше. Не плохо пишет стихи и хорошо коммуницирует. Я его закрепил себе.

А Технологии классических ИИ, действительно должны уже уйти.
Стадия "гигантизма" - предвестник финала любой технологии, возьмите от создания лука и паровой машины.
Уже создан PANC, ассоциативный нейроморфный компаратор от Progress inc. Распознает имиджи и графики на принципах биологического мозга. Для "обучения" (построения библиотеки распознавания), требуется всего от 10 до 200 шт. имиджей, в зависимости от сложности работы.
Если эту технологию китайцы первые купят, nVidio надо будет точно перестраивать бизнес. Их не стоит скидывать со счетов, но на их мощностях, можно уже сделать Альтер Эго для каждого человека на Земле.
Вот куда стоит инвестору посмотреть...