ローカルLLM実行ツール

M001 ローカルLLM実行ツール


ローカルLLM実行ツールについての覚書です。

大規模言語モデル(LLM)を自身のコンピューター上で実行するためのソフトウェアです。
いろいろなサイトで紹介されており、活動も活発なようです。(2025/03)

ローカルLLM実行ツールは、大規模言語モデル(LLM)を自身のコンピューター上で実行するためのソフトウェアです。これにより、インターネット接続がなくてもLLMを利用でき、データのプライバシーも保護されます。

ローカルLLM実行ツールの主な特徴:

  • オフラインでの利用:
    • インターネット接続がない環境でもLLMを利用できます。
  • プライバシーの保護:
    • 機密性の高いデータを外部サーバーに送信せずにLLMを利用できます。
  • カスタマイズ性:
    • LLMモデルのカスタマイズやファインチューニングが可能です。
  • 低遅延:
    • インターネット経由での通信がないため、応答速度が速いです。

代表的なローカルLLM実行ツール:

  • Ollama:
    • LLMを簡単にダウンロード、実行、管理できるツールです。
    • シンプルなコマンドラインインターフェースが特徴で、様々なプラットフォームに対応しています。
    • llama.cppをバックエンドにしたオープンソースソフトウェアです。
  • LM Studio:
    • LLMのダウンロード、実行、チューニング、共有が可能なGUIツールです。
    • 使いやすいインターフェースで、初心者でも簡単にLLMを試すことができます。
    • 様々なモデル形式に対応しており、幅広いLLMをサポートしています。
  • GPT4All:
    • 一般的なデスクトップやラップトップで大規模言語モデル(LLM)をプライベートに実行できます。
    • APIコールやGPUは不要です。
    • 消費者向けハードウェアでローカルに実行できるオープンソースのチャットボットと言語モデルのエコシステムです。

ローカルLLM実行ツールの利用シーン:

  • 機密性の高いデータの処理:
    • 金融、医療、法律など、機密性の高いデータを扱う場合に適しています。
  • オフライン環境での利用:
    • インターネット接続が不安定な場所や、オフラインでの作業が必要な場合に便利です。
  • 開発・研究:
    • LLMの性能評価やカスタマイズ、新しいアプリケーションの開発などに利用できます。

ローカルLLM実行ツールは、LLMの利用をより身近なものにし、新たな可能性を広げる技術として注目されています。

VScodeでの操作

Ollamaについて

Ollama
Get up and running with large language models.

オープンソースで作成されています。

Ollamaは、大規模言語モデル(LLM)をローカル環境で簡単に実行できるようにするためのオープンソースのツールです。主な特徴と利点は以下のとおりです。

主な特徴:

  • 簡単なセットアップ:
    • Ollamaは、複雑な設定を必要とせずに、LLMを簡単にダウンロード、実行、管理できます。
    • シンプルなコマンドラインインターフェース(CLI)を提供し、直感的な操作が可能です。
  • 幅広いモデルのサポート:
    • Llama 2、Mistral、Gemmaなど、さまざまなオープンソースのLLMモデルをサポートしています。
    • ユーザーは、自分のニーズに合ったモデルを自由に選択できます。
  • クロスプラットフォーム対応:
    • macOS、Linux、Windowsなど、複数のプラットフォームで動作します。
  • Modelfileによるカスタマイズ:
    • Modelfileと呼ばれるファイルを使用して、モデルのパラメータや設定をカスタマイズできます。
    • これにより、ユーザーはモデルの挙動を細かく調整できます。
  • APIによる連携:
    • OllamaはAPIを提供しており、他のアプリケーションやツールとの連携が可能です。
    • これにより、LLMをさまざまな用途に組み込むことができます。

Ollamaの利点:

  • プライバシーの保護:
    • LLMをローカル環境で実行するため、機密性の高いデータを外部に送信する必要がありません。
  • オフラインでの利用:
    • インターネット接続がない環境でもLLMを利用できます。
  • 低遅延:
    • ローカル環境で処理を行うため、応答速度が速いです。
  • コスト削減:
    • クラウドサービスの利用料金を削減できます。

Ollamaの利用シーン:

  • 開発・研究:
    • LLMの性能評価やカスタマイズ、新しいアプリケーションの開発などに利用できます。
  • 機密性の高いデータの処理:
    • 金融、医療、法律など、機密性の高いデータを扱う場合に適しています。
  • オフライン環境での利用:
    • インターネット接続が不安定な場所や、オフラインでの作業が必要な場合に便利です。

Ollamaは、LLMの利用をより身近なものにし、新たな可能性を広げるツールとして注目されています。

Windows:

  1. Ollamaのウェブサイトにアクセス:
    • Ollamaの公式ウェブサイト(ollama.com)にアクセスします。
  2. インストーラーのダウンロード:
    • ウェブサイトからWindows用のインストーラー(.exeファイル)をダウンロードします。
  3. インストーラーの実行:
    • ダウンロードした.exeファイルを実行します。
    • インストーラーの指示に従ってインストールを進めます。
  4. インストール完了:
    • インストールが完了すると、Ollamaが利用可能になります。

インストール後の確認:

  • インストールが完了したら、ターミナルまたはコマンドプロンプトで以下のコマンドを実行して、Ollamaが正常にインストールされたことを確認できます。
    • ollama --version

インストールするLLMはOllamaのサイトで検索すると確認できます。
モデルの説明欄に「ollama run ***」(***:モデル名)のコピペ用のテキストがあるので、コピーして、コマンドプロンプトで実行するとダウンロードが始まります。

モデル qwenをダウンロード

インストールするとやり取りができるようになります。

日本語は苦手のようです。

LM Studioについて

LM Studio - Discover, download, and run local LLMs
Run Llama, Gemma 3, DeepSeek locally on your computer.

GUIベースなので、扱いやすいと思います。

LM Studioは、ローカル環境で大規模言語モデル(LLM)を簡単に実行、管理、カスタマイズできるデスクトップアプリケーションです。特に、以下の点でユーザーに利便性を提供します。

主な特徴:

  • GUIベースの操作:
    • LM Studioは、直感的なGUI(グラフィカルユーザーインターフェース)を提供しており、コマンドライン操作に不慣れなユーザーでも簡単にLLMを扱うことができます。
  • 幅広いモデルのサポート:
    • さまざまな形式のLLMモデル(GGUF、GGMLなど)に対応しており、多様なモデルを試すことができます。
  • モデルのダウンロードと管理:
    • Hugging Faceなどのプラットフォームから直接モデルをダウンロードし、管理することができます。
  • パラメータの調整:
    • モデルのパラメータ(温度、トークン数など)をGUI上で簡単に調整し、生成されるテキストの挙動を制御できます。
  • サーバー機能:
    • LM StudioはAPIサーバーとしても機能し、他のアプリケーションからLLMを利用することができます。
  • GPUアクセラレーション:
    • GPUを利用することで、LLMの推論を高速化できます。

LM Studioの利点:

  • 手軽さ:
    • GUIベースであるため、複雑な設定やコマンド操作を必要とせず、誰でも簡単にLLMを試すことができます。
  • 柔軟性:
    • 多様なモデル形式に対応し、パラメータ調整も容易なため、さまざまな用途に合わせたLLMの利用が可能です。
  • プライバシー:
    • ローカル環境でLLMを実行するため、機密性の高いデータを外部に送信する必要がありません。

LM Studioの利用シーン:

  • LLMの評価:
    • さまざまなモデルを試して、性能や特性を比較評価するのに適しています。
  • 開発・研究:
    • LLMの挙動を細かく調整しながら、アプリケーション開発や研究を行うことができます。
  • 個人的な利用:
    • 文章生成、質問応答、アイデア出しなど、個人的な用途でLLMを利用できます。

LM Studioは、ローカルLLMの利用をより身近なものにし、新たな可能性を広げるツールとして注目されています。

Windowsの場合:

  1. LM Studioのウェブサイトにアクセス:
    • LM Studioの公式ウェブサイト(lmstudio.ai)にアクセスします。
  2. インストーラーのダウンロード:
    • ウェブサイトからWindows用のインストーラー(.exeファイル)をダウンロードします。
  3. インストーラーの実行:
    • ダウンロードした.exeファイルを実行し、インストーラーの指示に従ってインストールを進めます。
  4. インストール完了:
    • インストールが完了すると、デスクトップなどにLM Studioのショートカットが作成されます。

検索してダウンロードします。(既存のものがあるので、インストールしたての状態と異なるかもしれません)

LLMの実行は下記のように選択して、Load Modelを実行します。切り替えはEjectして選択します。

タブごとに機能が分かれています。

Chat:

  • ダウンロードしたLLMと対話するためのインターフェースです。
  • プロンプト(指示文)を入力し、モデルからの応答を受け取れます。
  • モデルのパラメータ調整もこちらから可能です。

Developer:

  • LLMをローカルサーバーとして起動し、APIを通じて他のアプリケーションからアクセスするための機能を提供します。
  • ローカルLLMを活用したアプリケーション開発を支援します。

My Models:

  • ローカルにダウンロードしたLLMの一覧を表示し、管理できます。
  • モデルの削除やパスの確認などが行えます。

Discover:

  • Hugging Face Hubなどのリポジトリから、様々なLLMを検索し、ダウンロードできます。
  • モデルのサイズ、ライセンス、評価などの情報を確認できます。

VScode

VSCode拡張機能との連携:

  • VSCode拡張機能「Continue」をインストールします。
  • Continueの設定で、LLM実行ツールのAPIエンドポイント(http://localhost:1234/v1)を設定します。
  • ContinueからLLM実行ツールでダウンロードしたモデルを選択することで、VSCode内でLLMを利用できます。
拡張機能からContinueをインストールします。

Continueの設定

+Add Char modelからモデルを選択できます。また、インストールも行えそうです。(未検証)
ChatGPTなどと契約している場合にはAPIキーを使って操作できそうです。
ここで触れているOllamaとLM Studioも選択できます。
このページでは、ローカルに設定済みのLLMを参照する手順になります。

+ Add MCP Serversでconfig.jsonが開きます。

モデル名の隣にあるギアのマークをクリックするとconfig.jsonが表示されます。
頻繁にUIが変更されているのですが、実際のファイルは、
C:\Users\<それぞれのユーザー名>\.continue
のフォルダにconfig.jsonがあります。

ローカルモデルの設定

貼り付け例
providerは、ここでは使用するローカルLLM実行ツールを指定します。
modelは、使用するLLM名を入力します。apiBaseは下記ですが、LM Studioの既定に合わせた(※1)ようになっています。

    {
"title": "LM Studio Local",
"provider": "lmstudio",
"model": "Qwen2.5 7B Instruct 1M",
"apiBase": "http://localhost:1234/v1"
}
※1  Developerタブでの表示

いくつかセット

複数のモデルをセットできます。

    {
"title": "LM Studio Local",
"provider": "lmstudio",
"model": "Qwen2.5 7B Instruct 1M",
"apiBase": "http://localhost:1234/v1"
},
{
"title": "Ollama Local",
"provider": "ollama",
"model": "qwen",
"apiBase": "http://localhost:11434"
}

複数セットすると、切り替えながら作業が行えます。

ローカルLLMの実行

Continueで操作する前に、ローカルLLMを起動させておく必要があります。

LLMを起動させていない場合のエラー

チャット確認

コードの修正

対象の指定

適用

作成されたコードを元へ適用します。

Applyを実行すると、コードの上部から順に変更箇所を表示してくれます。

受け入れ

変更箇所上部のAcceptで修正されます。

Tips

操作

作業しやすいようにサイドバーを移動させます。移動するとアイコンが左の列から消ますが、戻すと再び表示されます。

モデル

・モデルサイズが大きいと実行にも時間がかかります。
・また、メモリも多く必要になります。

参照

ワークスペースや、仕様を書いたテキストなどを指定して実行できます。

LLMで画像をサポートしている場合には、画面画像のクリップボードを指定して指示が行えます。

実施

R001_2 生成AIで作業1_2
生成AIをつかって作業してみたログです。AI環境は、常に変化が起こっているのでログの意味でしかないかもしれません。作業1の内容(CadQuery)に対して、生成AIのやりとりをVScode上で行って、コードを適用させます。目的は、ローカルL...

コメント