VSCodeの拡張機能「Continue」とローカルLLM環境「Ollama」を連携して使う方法を、インストールから設定・動作確認までくわしく解説します。特にあなたが試した以下の設定内容を元に具体的な解説をします。
Continueは、VSCodeなどで動作するオープンソースのAIコードアシスタント拡張です。GitHub Copilotのように、AIモデルを使ったコード補完・チャット・コマンド生成を提供します。OllamaはローカルLLMの管理・実行ツールで、ContinueはVSCodeとOllamaの橋渡し役です。
ollama list
で導入済みモデルを確認しますPullコマンドは以下
ollama pull gemma3:latest ollama pull qwen2.5-coder:1.5b ollama pull embeddinggemma:latest
name: Local Agent
version: 1.0.0
schema: v1
models:
- name: gemma3:latest
provider: ollama
model: gemma3:latest
roles:
- chat
- edit
- apply
- name: Qwen2.5-Coder 1.5B
provider: ollama
model: qwen2.5-coder:1.5b
roles:
- autocomplete
- name: embeddinggemma
provider: ollama
model: embeddinggemma:latest
roles:
- embed
name
, version
, schema
はメタ情報として任意に設定可能です。models
には3種類のモデルを登録しています。 provider
は必ずollama
を指定し、モデル名はOllamaで登録済みの完全一致名を使います。http://localhost:11434/
で「Ollama is running」を確認。~/.continue/config.yaml
の場所やフォーマットの誤りを確認。apiBase
パラメータを更新。今回の設定で、VSCodeのContinue拡張はOllamaの複数モデル(会話用・補完用・埋め込み用)を有効活用できる環境が構築されます。
この環境はローカルで完結しプライバシー面でも安心、柔軟にモデルを切り替えながら快適なAIコーディングを支援します。
モデルの追加や設定の微調整は今後の運用で柔軟に行い、最適な開発環境を目指してください。
この内容を基に環境を整え、VSCode内でAIコードアシストを最大限活用しましょう.