Как я за 15 минут запустил локально свой Copilot, который работает без VPN, без создания аккаунта и без ключей

Короче устал я от того что Copilot не работает в России, остальное все через VPN и подумал почему бы мне не ра��вернуть локально свою модель? Тем более ресурсов макбука хватает.

Для того чтобы все заработало нужны 3 вещи:

1. Ollama - это штука которая может запускать локально разные модели и предоставляет к ним доступ

2. Собственно сама модель. Я выбрал qwen2.5-coder, но можно поставить любую другую по вкусу

3. Расширение Continue в VS Code

Погнали!

1. Скачиваем Ollama

2. Запускаем в консоли `ollama pull qwen2.5-coder`

3. Ставим расширение Continue в VS Code

4. Заходим в Continue и далее в настройки

5. Добавляем туда нашу модель отредактировав конфиг

{ "models": [ { "model": "qwen2.5-coder:latest", "title": "qwen2.5-coder:latest", "provider": "ollama" } ], "tabAutocompleteModel": { "model": "qwen2.5-coder:latest", "title": "qwen2.5-coder:latest", "provider": "ollama" }, }

6. Готово!

Заходим в любой файлик с кодом и видим автодополнение кода 😉

Можно так же настроить дополнительные команды, промпты через Continue - это уже по желанию.

Интересна тема веб разработки? Подписывайся на мой телеграм канал @artemlikes_dev

12
10 комментариев