この記事では、ローカルLLM「llama.cpp」を2025年最新版の手順で、Windows環境にCURL機能を無効化してビルド・実行する方法を、必要なツールのインストールから丁寧に解説します。
※2025年現在、llama.cppのビルド方法は「CMake専用」にアップデートされています。従来のmakeコマンドは廃止されており、公式マニュアルや多くの解説記事よりも新しい、最新の手順でご案内しています。
llama.cppのビルドには**C++コンパイラ(MSVC)**が必要です。
フリーで使える「Visual Studio Build Tools」を使いましょう。
Visual Studioの本体は不要です。
Microsoft.VisualStudio.Workload.VCTools
)にチェックを入れてインストールします。 llama.cppのビルドにはCMakeが必須です。
cmake --version
を実行し、バージョンが表示されればOKです。Gitが使える場合はコマンドプロンプトで以下を実行
git clone https://github.com/ggerganov/llama.cpp
build/bin/Release
(またはbuild/Release
)フォルダにビルドされた物が生成されます。cd llama.cpp
cmake -B build -DLLAMA_CURL=OFF
cmake --build build --config Release
※curlは基本使用しないとおもいますので、OFF設定で問題ありません。
モデルファイル(例:tinyswallow-1.5b-instruct-q8_0.gguf
など)をmodels
ディレクトリに入れます。
llama-cli.exe -m build\bin\models\tinyswallow-1.5b-instruct-q8_0.gguf -p "こんにちは、自己紹介をしてください。"
-m
でモデルファイルを指定-p
でプロンプト(入力文)を指定cmake -B build -DLLAMA_CURL=OFF
でビルドこの手順で、2025年最新版のllama.cppをWindows環境で手軽にビルドできます!
ローカルAIを試してみたい方は、ぜひチャレンジしてみてください。