ローカルLLM実行ツールについての覚書です。
大規模言語モデル(LLM)を自身のコンピューター上で実行するためのソフトウェアです。
いろいろなサイトで紹介されており、活動も活発なようです。(2025/03)
ローカルLLM実行ツールは、大規模言語モデル(LLM)を自身のコンピューター上で実行するためのソフトウェアです。これにより、インターネット接続がなくてもLLMを利用でき、データのプライバシーも保護されます。
ローカルLLM実行ツールの主な特徴:
- オフラインでの利用:
- インターネット接続がない環境でもLLMを利用できます。
- プライバシーの保護:
- 機密性の高いデータを外部サーバーに送信せずにLLMを利用できます。
- カスタマイズ性:
- LLMモデルのカスタマイズやファインチューニングが可能です。
- 低遅延:
- インターネット経由での通信がないため、応答速度が速いです。
代表的なローカルLLM実行ツール:
- Ollama:
- LLMを簡単にダウンロード、実行、管理できるツールです。
- シンプルなコマンドラインインターフェースが特徴で、様々なプラットフォームに対応しています。
- llama.cppをバックエンドにしたオープンソースソフトウェアです。
- LM Studio:
- LLMのダウンロード、実行、チューニング、共有が可能なGUIツールです。
- 使いやすいインターフェースで、初心者でも簡単にLLMを試すことができます。
- 様々なモデル形式に対応しており、幅広いLLMをサポートしています。
- GPT4All:
- 一般的なデスクトップやラップトップで大規模言語モデル(LLM)をプライベートに実行できます。
- APIコールやGPUは不要です。
- 消費者向けハードウェアでローカルに実行できるオープンソースのチャットボットと言語モデルのエコシステムです。
ローカルLLM実行ツールの利用シーン:
- 機密性の高いデータの処理:
- 金融、医療、法律など、機密性の高いデータを扱う場合に適しています。
- オフライン環境での利用:
- インターネット接続が不安定な場所や、オフラインでの作業が必要な場合に便利です。
- 開発・研究:
- LLMの性能評価やカスタマイズ、新しいアプリケーションの開発などに利用できます。
ローカルLLM実行ツールは、LLMの利用をより身近なものにし、新たな可能性を広げる技術として注目されています。

Ollamaについて

オープンソースで作成されています。
Ollamaは、大規模言語モデル(LLM)をローカル環境で簡単に実行できるようにするためのオープンソースのツールです。主な特徴と利点は以下のとおりです。
主な特徴:
- 簡単なセットアップ:
- Ollamaは、複雑な設定を必要とせずに、LLMを簡単にダウンロード、実行、管理できます。
- シンプルなコマンドラインインターフェース(CLI)を提供し、直感的な操作が可能です。
- 幅広いモデルのサポート:
- Llama 2、Mistral、Gemmaなど、さまざまなオープンソースのLLMモデルをサポートしています。
- ユーザーは、自分のニーズに合ったモデルを自由に選択できます。
- クロスプラットフォーム対応:
- macOS、Linux、Windowsなど、複数のプラットフォームで動作します。
- Modelfileによるカスタマイズ:
- Modelfileと呼ばれるファイルを使用して、モデルのパラメータや設定をカスタマイズできます。
- これにより、ユーザーはモデルの挙動を細かく調整できます。
- APIによる連携:
- OllamaはAPIを提供しており、他のアプリケーションやツールとの連携が可能です。
- これにより、LLMをさまざまな用途に組み込むことができます。
Ollamaの利点:
- プライバシーの保護:
- LLMをローカル環境で実行するため、機密性の高いデータを外部に送信する必要がありません。
- オフラインでの利用:
- インターネット接続がない環境でもLLMを利用できます。
- 低遅延:
- ローカル環境で処理を行うため、応答速度が速いです。
- コスト削減:
- クラウドサービスの利用料金を削減できます。
Ollamaの利用シーン:
- 開発・研究:
- LLMの性能評価やカスタマイズ、新しいアプリケーションの開発などに利用できます。
- 機密性の高いデータの処理:
- 金融、医療、法律など、機密性の高いデータを扱う場合に適しています。
- オフライン環境での利用:
- インターネット接続が不安定な場所や、オフラインでの作業が必要な場合に便利です。
Ollamaは、LLMの利用をより身近なものにし、新たな可能性を広げるツールとして注目されています。
Windows:
- Ollamaのウェブサイトにアクセス:
- Ollamaの公式ウェブサイト(ollama.com)にアクセスします。
- インストーラーのダウンロード:
- ウェブサイトからWindows用のインストーラー(
.exe
ファイル)をダウンロードします。- インストーラーの実行:
- ダウンロードした
.exe
ファイルを実行します。- インストーラーの指示に従ってインストールを進めます。
- インストール完了:
- インストールが完了すると、Ollamaが利用可能になります。
インストール後の確認:
- インストールが完了したら、ターミナルまたはコマンドプロンプトで以下のコマンドを実行して、Ollamaが正常にインストールされたことを確認できます。
ollama --version
インストールするLLMはOllamaのサイトで検索すると確認できます。
モデルの説明欄に「ollama run ***」(***:モデル名)のコピペ用のテキストがあるので、コピーして、コマンドプロンプトで実行するとダウンロードが始まります。

インストールするとやり取りができるようになります。

LM Studioについて

GUIベースなので、扱いやすいと思います。
LM Studioは、ローカル環境で大規模言語モデル(LLM)を簡単に実行、管理、カスタマイズできるデスクトップアプリケーションです。特に、以下の点でユーザーに利便性を提供します。
主な特徴:
- GUIベースの操作:
- LM Studioは、直感的なGUI(グラフィカルユーザーインターフェース)を提供しており、コマンドライン操作に不慣れなユーザーでも簡単にLLMを扱うことができます。
- 幅広いモデルのサポート:
- さまざまな形式のLLMモデル(GGUF、GGMLなど)に対応しており、多様なモデルを試すことができます。
- モデルのダウンロードと管理:
- Hugging Faceなどのプラットフォームから直接モデルをダウンロードし、管理することができます。
- パラメータの調整:
- モデルのパラメータ(温度、トークン数など)をGUI上で簡単に調整し、生成されるテキストの挙動を制御できます。
- サーバー機能:
- LM StudioはAPIサーバーとしても機能し、他のアプリケーションからLLMを利用することができます。
- GPUアクセラレーション:
- GPUを利用することで、LLMの推論を高速化できます。
LM Studioの利点:
- 手軽さ:
- GUIベースであるため、複雑な設定やコマンド操作を必要とせず、誰でも簡単にLLMを試すことができます。
- 柔軟性:
- 多様なモデル形式に対応し、パラメータ調整も容易なため、さまざまな用途に合わせたLLMの利用が可能です。
- プライバシー:
- ローカル環境でLLMを実行するため、機密性の高いデータを外部に送信する必要がありません。
LM Studioの利用シーン:
- LLMの評価:
- さまざまなモデルを試して、性能や特性を比較評価するのに適しています。
- 開発・研究:
- LLMの挙動を細かく調整しながら、アプリケーション開発や研究を行うことができます。
- 個人的な利用:
- 文章生成、質問応答、アイデア出しなど、個人的な用途でLLMを利用できます。
LM Studioは、ローカルLLMの利用をより身近なものにし、新たな可能性を広げるツールとして注目されています。
Windowsの場合:
- LM Studioのウェブサイトにアクセス:
- LM Studioの公式ウェブサイト(lmstudio.ai)にアクセスします。
- インストーラーのダウンロード:
- ウェブサイトからWindows用のインストーラー(
.exe
ファイル)をダウンロードします。- インストーラーの実行:
- ダウンロードした
.exe
ファイルを実行し、インストーラーの指示に従ってインストールを進めます。- インストール完了:
- インストールが完了すると、デスクトップなどにLM Studioのショートカットが作成されます。
検索してダウンロードします。(既存のものがあるので、インストールしたての状態と異なるかもしれません)
LLMの実行は下記のように選択して、Load Modelを実行します。切り替えはEjectして選択します。
タブごとに機能が分かれています。
Chat:
- ダウンロードしたLLMと対話するためのインターフェースです。
- プロンプト(指示文)を入力し、モデルからの応答を受け取れます。
- モデルのパラメータ調整もこちらから可能です。
Developer:
- LLMをローカルサーバーとして起動し、APIを通じて他のアプリケーションからアクセスするための機能を提供します。
- ローカルLLMを活用したアプリケーション開発を支援します。
My Models:
- ローカルにダウンロードしたLLMの一覧を表示し、管理できます。
- モデルの削除やパスの確認などが行えます。
Discover:
- Hugging Face Hubなどのリポジトリから、様々なLLMを検索し、ダウンロードできます。
- モデルのサイズ、ライセンス、評価などの情報を確認できます。

VScode
VSCode拡張機能との連携:
- VSCode拡張機能「Continue」をインストールします。
- Continueの設定で、LLM実行ツールのAPIエンドポイント(
http://localhost:1234/v1
)を設定します。 - ContinueからLLM実行ツールでダウンロードしたモデルを選択することで、VSCode内でLLMを利用できます。

Continueの設定


+ Add MCP Serversでconfig.jsonが開きます。

モデル名の隣にあるギアのマークをクリックするとconfig.jsonが表示されます。
頻繁にUIが変更されているのですが、実際のファイルは、
C:\Users\<それぞれのユーザー名>\.continue
のフォルダにconfig.jsonがあります。
ローカルモデルの設定
貼り付け例
providerは、ここでは使用するローカルLLM実行ツールを指定します。
modelは、使用するLLM名を入力します。apiBaseは下記ですが、LM Studioの既定に合わせた(※1)ようになっています。
{
"title": "LM Studio Local",
"provider": "lmstudio",
"model": "Qwen2.5 7B Instruct 1M",
"apiBase": "http://localhost:1234/v1"
}

いくつかセット
複数のモデルをセットできます。

{
"title": "LM Studio Local",
"provider": "lmstudio",
"model": "Qwen2.5 7B Instruct 1M",
"apiBase": "http://localhost:1234/v1"
},
{
"title": "Ollama Local",
"provider": "ollama",
"model": "qwen",
"apiBase": "http://localhost:11434"
}
複数セットすると、切り替えながら作業が行えます。
ローカルLLMの実行
Continueで操作する前に、ローカルLLMを起動させておく必要があります。

チャット確認
コードの修正
対象の指定
適用
作成されたコードを元へ適用します。
Applyを実行すると、コードの上部から順に変更箇所を表示してくれます。
受け入れ
変更箇所上部のAcceptで修正されます。
Tips
操作
作業しやすいようにサイドバーを移動させます。移動するとアイコンが左の列から消ますが、戻すと再び表示されます。
モデル
・モデルサイズが大きいと実行にも時間がかかります。
・また、メモリも多く必要になります。
参照
ワークスペースや、仕様を書いたテキストなどを指定して実行できます。
LLMで画像をサポートしている場合には、画面画像のクリップボードを指定して指示が行えます。
実施

コメント