大規模言語モデル(LLM)が登場し、多くの企業で活用されています。
その流れで「チャットボット(Chatbot)」を導入し、業務効率化を試みている企業も多いと感じます。
今回は、そんなChatbotを無料でローカルに作ってみよう、という記事になります。
ハンズオン形式で作ってみたい、概要を理解したい、という方のお役に立てば幸いです。
開発環境
- OS:Mac
- 言語:Python3.14
- ツール:Ollama
- エディタ:Visual Studio Code(VScode)
Ollamaは、オープンソースLLMを、自身のPC上で簡単かつ高速に実行できる無料のローカルAIツールです。
開発環境を作ろう
必要なツールのインストール
上記のツールをまだインストールしていない場合はインストールを済ませましょう。
Python:Download Python | Python.org
Ollama:Download Ollama on macOS
VScode:Download Visual Studio Code
Tips:ターミナルからVScodeを起動する設定
Command + Shift + Pでコマンドパレット開いて、
「Shell Command: Install ‘code’ command in PATH」を選択する。
(「shell」と打てばレコメンドされるはず)

これだけでターミナルから「code ディレクトリ名やファイル名」でVScodeを起動することができます。
作業フォルダの作成
以下のコマンドを実行して、作業フォルダを作成します。
mkdir chatbot-test
cd chatbot-testモデルの起動
実際にモデルを起動して、動作確認します。
ollama run gemma3以下のように、「success」と出ていれば起動に成功しています。
試しに何かメッセージを打ち込んでみてください。

おわり
いかがだったでしょうか。
今回はチャットボットをローカルで作るための環境構築編でした。
ローカルでLLMのモデルを起動するだけなら、こんなにも簡単にできることが分かりました。
Ollamaの開発者には感謝ですね…!
次回は「最小のchatbot」を作っていきます。
お楽しみに〜