Если вы хотите узнать больше способов запуска языковых моделей с открытым исходным кодом на локальной машине, например, с помощью CLI, LM Studio или других инструментов, сообщите мне об этом в комментариях ниже. Я буду рад поделиться с вами советами и рекомендациями, которые помогут вам получить максимальную пользу от этих невероятных моделей ИИ.
Если я уже пользуюсь плагином Codeium в вс коде, то есть смысл ставить ламу? Чем она будет лучше?
Про Codeium не знаю, не пробовал, но llama - довольно мощная модель.
Есть еще расширение Continue, оно тоже под VSCode и JetBrains, вроде там тоже уже Llama3 есть
Спасибо за информацию, Дмитрий!
туда же https://pieces.app
Хоть что-то разумное и полезное на этом wc
Спасибо, стараюсь )