Как я за 15 минут запустил локально свой Copilot, который работает без VPN, без создания аккаунта и без ключей
Короче устал я от того что Copilot не работает в России, остальное все через VPN и подумал почему бы мне не ра��вернуть локально свою модель? Тем более ресурсов макбука хватает.
Для того чтобы все заработало нужны 3 вещи:
1. Ollama - это штука которая может запускать локально разные модели и предоставляет к ним доступ
2. Собственно сама модель. Я выбрал qwen2.5-coder, но можно поставить любую другую по вкусу
3. Расширение Continue в VS Code
Погнали!
1. Скачиваем Ollama
2. Запускаем в консоли `ollama pull qwen2.5-coder`
3. Ставим расширение Continue в VS Code
4. Заходим в Continue и далее в настройки
5. Добавляем туда нашу модель отредактировав конфиг
6. Готово!
Заходим в любой файлик с кодом и видим автодополнение кода 😉
Можно так же настроить дополнительные команды, промпты через Continue - это уже по желанию.
Интересна тема веб разработки? Подписывайся на мой телеграм канал @artemlikes_dev