Локальный пруфридинг без OpenAI и Copilot
Доработал расширение для VS Code, теперь оно умеет работать с Ollama (это штука, которая поднимает AI-модели локально).
Проще всего использовать модельку gemma2:2b
, она компактная и работает быстро даже без GPU. Качество приемлемое, если отправлять не больше нескольких абзацев за раз.
Если машина мощная, можно попробовать mistral
или mistral-nemo
— качество будет лучше.
Подробности настройки в заметках к релизу
>>Click here to continue<<