Представьте: есть огромные компании вроде OpenAI (те, кто создал ChatGPT). Чтобы научить их ИИ чему-то новому, нужно100+ миллионов💸.Это как построить целый завод,чтобы испечь один торт🏭→🎂.А потом приходит DeepSeek и говорит: «Мы сделаем это за 5 миллионов, и торт будет вкуснее». И у них получилось!
рекомендовал бы перед публикацией проверять фактографию, т.к. ИИ склонны к галлюцинациям при этом сопровождаемым убедительным тоном, что данная статья в очередной раз подтверждает. Из бросившихся в глаза ложных утверждений:
- ИИ используют 32-бит квантитизацию - конечно нет, самые популярные это 8 и 16, для дома/экспериментов часто используется даже 8бит.
- H100 топовый ИИ ускоритель - конечно нет, H200 поновее и побольше ресурсов имеет
- NVIDIA не умеет в 8-бит на тензорных блоках но теперь может добавить - конечно ложь, H100/200 вполне себе гоняют как FP8 так и INT8, с ожидаемым удвоением прямой (синтетической) производительности, информация об этом есть на первой странице гугла в статьях от 2022 г..
И т.п. в общем, господа, не верьте текстам от ИИ приведенным не особо привередливым промпт-райтером, получите кучу лапши на уши плохо отличимой от реальности, вот что-что, а имитировать правдоподобные ответы ИИ наловчились очень хорошо.
Этот тестировщик постоянно шит постит,а потом кичится, что у него много просмотров. Вот такой человек, такой автор.....