「LM Studio」の使い方!対話型AIをローカル環境で手軽に動かせる無料ツールを紹介

LM Studioの導入方法・使い方 生成AI一般

今回は生成AIを動かすためのツールに関する話題で

対話型AIをローカル環境で手軽に動かせる「LM Studio」の使い方

を丁寧にわかりやすく解説するという内容になっております。

最近は高性能な大規模言語モデル(LLM)が無料で公開されることも多く、「試しに自分のPC(=ローカル環境)で動かしてみたいな」とお考えの方も多いかと思います。しかしLLMはそれ単体では動作しないため、ローカルで動かすためには自分で環境構築を行う必要がありハードルが高いと思っている方も多いのではないでしょうか?

そこでお勧めしたいのがLLMをローカルで簡単に動かせるツールです。そのようなツールは現在はいろいろな種類のものが出回っており、有志の方が無料で公開しているものもあります。私は複数のツールを使い分けているのですが、中でも対話型AIを動かすのに便利な無料ツールとして「LM Studio」が一番手触りがいいのでご紹介しておこうと思いました。

このような次第でここではLM Studioのインストール方法や使い方をご説明していきますね。

LM Studioとは?

公式サイト

LM Studioについて

LM Studioは大規模言語モデル(LLM)をローカル環境で手軽に動かせる無料ツールです。最新のLLMに幅広く対応している点や直感的でわかりやすいデザインが特徴で、これを使えば初心者の方でも簡単にLLMを動かして遊ぶことができます。

LM StudioでLLMを動かした際のスクリーンショット

前提知識:LLMをローカルで動かすことのメリット(&デメリット)は?

メリット

さてLM Studioの概要はこんなところですが、そもそもの話「オンラインで高性能な対話型AIを手軽に使えるのになんでわざわざローカルでAIを動かす必要があるんだろう?」と思った方もいらっしゃるかと思います。この点については下記のような明確なメリットがあるためです。

  • 個人情報や機密情報が漏洩する心配がほぼない
  • オンラインの対話型AIでは禁止されているようなやり取りが可能

まずオンラインの対話型AIはユーザーの入力を保存したり学習に使用したりするため、個人情報や機密情報は絶対に入力してはいけません。しかしローカルAIであればユーザーの入力は他人と共有されることはなくより安全性が高いと言えます。

また、オンラインの対話型AIでは例えばHな会話をするとアカウントが停止されてしまうことがあります。しかしローカルAIの場合はそのようなことはありませんし、会話が外部に漏れるといったこともないので他人に知られたり怒られたりしたくないような使い方をしたい場合はローカルのほうが便利です。ただし、モデルによっては例えば公序良俗に反する使用や反社会的な使用に対して応答しないようにできているものが多いため、ローカルだからHな会話ができるとは限らない点は注意が必要です。

デメリット

一方でローカルでLLMを動かすためには高価なPCパーツが必要だったり、ローカルで使えるLLMは性能が少し悪かったりといったデメリットもあります。もう少し具体的に言うと

  • LLMを実用的な速度で動かすためには高性能なグラフィックボード(GPU)が必須
  • モデルはファイルサイズが巨大なものが多いためメモリやストレージに十分な容量が必要
  • 性能はオンラインで提供されているモデルと比較すると一歩劣る

といった感じです。この点も考慮してローカルLLMを楽しみましょう。

LM Studioのインストール方法

ではこの辺でさっそくLM Studioをインストールしてみましょう。インストール方法は簡単で、公式サイトからインストーラーをダウンロードして実行するだけです。

LM Studioのダウンロード方法

インストールが完了したらLM Studioを起動してみましょう。すると下記のような画面になるので、「Get Started」を押します。

LM Studio 最初の画面

次の画面ではGoogleの「Gemma」というモデルを最初のモデルとしてダウンロードするかどうか聞かれます。

Gemmaのダウンロード画面

LM StudioはAIを動かすためのツールですが、まだAIモデルを導入していないのでそのままでは動かすためのAIがない状態です。なので「自分でモデルを用意していないけど、とりあえずサクッと試してみたい」という場合はダウンロードボタンを押しましょう。

ダウンロードボタンを押した後の「Continue」ボタンを押すか、スキップすると次の画面になります(※ダウンロード中でも次に進めます)。高度な設定が表示されますが、特に理由がなければそのまま「Continue」ボタンを押しましょう。

高度な設定

これでセットアップ完了です!「Continue to LM Studio」ボタンを押すと下記のような画面になります。

LM Studioの画面

LM Studioの使い方

ではここからが本題で、LM Studioの使い方を一通り解説していきます。

ローカルLLMとのチャットの始め方

新しいチャットの作成方法

新しいチャットを始めるにはサイドバー右上のアイコンをクリックします。

新しいチャットの作成方法

モデルのロード&チャットのやり方

次に、最初はモデルが何も読み込まれていない状態なので予め用意したモデルをロードする必要があります。チャットの入力欄の「Pick a model」をクリックするとモデル一覧が表示されるので好きなモデルを選びましょう。もしインストールの手順でGemmaを導入済みの場合はそれが表示されるはずです。

モデルの選択方法

すると選んだモデルの設定ウィンドウが出るので、特に理由がなければデフォルトのまま「Load Model」ボタンを押せばOKです。しばらく待つとモデルが読み込まれてチャットできるようになります。

ロードするモデルの設定画面

あとはChatGPTなどとほぼ同じ要領でLLMとやり取りすることができます。なおモデルによっては画像などのファイルをアップロードして読み取ってもらうといったことも可能です。

別のモデルの導入方法

さて、しばらくチャットで遊んでいると別のLLMを試したくなってくることでしょう。特にデフォルトの「Gemma 3 4B」は非常に高速ですが性能はあまり良くないので、もっと性能がいいモデルを使ってみたくなる方は多いと思います。

そのような場合もLM Studioなら簡単に新しいモデルを導入できます。やり方は、まずサイドバーのロボットアイコン(Model Search)をクリックし…

サイドバーの「Model Search」

好きなモデルを選んでダウンロードするだけです。

LM Studioのモデル検索画面

例えばOpenAIが提供している無料LLMの「gpt-oss」を使う場合は、検索欄に「gpt-oss」と入力して出てきたモデルをダウンロードします(※検索結果には非公式なモデルも表示されます)。

例:GPT-OSSのダウンロード画面

カスタム指示(Custom Instructions)の記入方法

最後に、LLMにカスタム指示を与える方法をご紹介しておきます。これを使えば「こういう風に返答してほしい」といったことを予め指定することが可能です。

やり方は「Ctrl+E」を押すか、画面右上の「…」ボタン→「Add instructions」を選択すると下記のような画面が出るので、そこに任意の指示を記入するだけです。

カスタム指示の記入欄

おわりに

以上、LLMをローカルで簡単に動かせるLM Studioの導入方法や使い方について解説しました。LM Studioは本当に手軽に対話型AIを動かせるのでローカルAI初心者の方にもおすすめです。ぜひ皆さんもこの機会に試してみてください。

この記事が何かしらお役に立てば幸いです。