この記事では、ローカルLLM「llama.cpp」を2025年最新版の手順で、Windows環境にCURL機能を無効化してビルド・実行する方法を、必要なツールのインストールから丁寧に解説します。
※2025年現在、llama.cppのビルド方法は「CMake専用」にアップデートされています。従来のmakeコマンドは廃止されており、公式マニュアルや多くの解説記事よりも新しい、最新の手順でご案内しています。
llama.cppのビルドには**C++コンパイラ(MSVC)**が必要です。
フリーで使える「Visual Studio Build Tools」を使いましょう。
Visual Studioの本体は不要です。
Microsoft.VisualStudio.Workload.VCTools)にチェックを入れてインストールします。 llama.cppのビルドにはCMakeが必須です。
cmake --versionを実行し、バージョンが表示されればOKです。Gitが使える場合はコマンドプロンプトで以下を実行
git clone https://github.com/ggerganov/llama.cppbuild/bin/Release(またはbuild/Release)フォルダにビルドされた物が生成されます。cd llama.cpp
cmake -B build -DLLAMA_CURL=OFF
cmake --build build --config Release※curlは基本使用しないとおもいますので、OFF設定で問題ありません。
モデルファイル(例:tinyswallow-1.5b-instruct-q8_0.ggufなど)をmodelsディレクトリに入れます。
llama-cli.exe -m build\bin\models\tinyswallow-1.5b-instruct-q8_0.gguf -p "こんにちは、自己紹介をしてください。"-mでモデルファイルを指定-pでプロンプト(入力文)を指定cmake -B build -DLLAMA_CURL=OFF でビルドこの手順で、2025年最新版のllama.cppをWindows環境で手軽にビルドできます!
ローカルAIを試してみたい方は、ぜひチャレンジしてみてください。