AI

AI

llama.cppの実行ファイル大全:llama-cli・llama-server以外も徹底解説

llama.cppで生成される実行ファイルの特徴と使い方を徹底解説。llama-cliやllama-server以外にも、モデルの評価・量子化・検索・状態管理など多彩なツールの役割を紹介し、ローカルLLM活用の幅を広げます。
AI

llama-serverのコマンドの使い方|ローカルLLMサーバーを始める手順

ローカル環境で大規模言語モデルを活用したい方必見!llama-serverのコマンドの使い方や起動手順、curlやPythonでのリクエスト方法を分かりやすく解説。llama.cpp,LLMサーバー構築の基礎がわかる記事です。
AI

llama-cliのオプション徹底解説!使いこなしに役立つ全主要パラメータ

llama-cliの主要オプションを徹底解説!使いこなしに役立つ全パラメータを表でまとめました。LLMをローカルで快適に動かすための設定方法や活用例も紹介します。
スポンサーリンク
AI

【2025最新版】llama.cppをWindowsでビルド!公式マニュアル超アップデート:CMake専用手順で完全解説(CURL無効化版)

2025年最新版のllama.cppをWindows環境でCMake専用手順により簡単にビルド・実行する方法を解説。Visual Studio Build ToolsとCMakeだけでOK、CURL無効化でエラーなし。初心者でも手順通りに進めばローカルAIをすぐに体験できます。
AI

Windowsネイティブが優位!Ollama応答速度ベンチマーク【Gemma3検証】

Windows 11 PCでOllamaをWindowsネイティブとWSL2環境に導入し、Gemma3モデルの応答速度を徹底比較。実測データから最適なローカルLLM実行環境を解説します。初回遅延や連続利用時の違いも詳しく紹介。
AI

LinuxでOllamaのポート変更・外部アクセス・セキュリティ設定まとめ

Ollamaのポート変更方法や外部アクセス設定、セキュリティ強化のためのOLLAMA_ORIGINS活用法をわかりやすく解説。Linux環境での設定手順やファイアウォール対策も紹介。安全で便利なローカルLLM運用をサポートします。
AI

WSL環境(Ubuntu 24.04)でOllamaをインストールする方法

WSL環境(Ubuntu 24.04)でOllamaを簡単にインストールする手順を解説。Windows 11上でのセットアップ、よくあるトラブル回避策、GPU利用時の注意点も紹介。ローカルで大規模言語モデルを手軽に活用したい方におすすめです。
AI

OllamaとLangChainを活用した簡単なRAGチャットボットの作成

OllamaとLangChainを活用した簡単なRAGチャットボットの作成方法を解説。ローカル環境で動作し、特定のドキュメントから情報を検索して回答を生成する仕組みを構築します。
AI

ollamaでDeepSeek-R1を試してみる

DeepSeek-R1は、中国のAI企業DeepSeekが開発した推論に特化したオープンソースの大規模言語モデルです。今回は、ollamaを使ってDeepSeek-R1を試してみましたので、その様子をレポートします。ollamaとは?ollamaは、LLMをローカル環境で効率よく実行するためのランタ...
AI

ollamaでOpenCoderを試してみた! – 完全にオープンで再現可能な大規模言語モデル

OllamaでOpenCoderを試してみた!ローカルでコード生成AIを試せる手軽さを体験。簡単なソケット通信プログラムを生成し、実際に動作させた結果をレポートします。OpenCoderの評価や注意点も解説。
スポンサーリンク