【完全無料】ローカルでChatbotを作ってみよう1(環境構築)

大規模言語モデル(LLM)が登場し、多くの企業で活用されています。
その流れで「チャットボット(Chatbot)」を導入し、業務効率化を試みている企業も多いと感じます。

今回は、そんなChatbotを無料でローカルに作ってみよう、という記事になります。
ハンズオン形式で作ってみたい、概要を理解したい、という方のお役に立てば幸いです。

開発環境

  • OS:Mac
  • 言語:Python3.14
  • ツール:Ollama
  • エディタ:Visual Studio Code(VScode)

Ollamaは、オープンソースLLMを、自身のPC上で簡単かつ高速に実行できる無料のローカルAIツールです。

開発環境を作ろう

必要なツールのインストール

上記のツールをまだインストールしていない場合はインストールを済ませましょう。

Python:Download Python | Python.org

Ollama:Download Ollama on macOS

VScode:Download Visual Studio Code

Tips:ターミナルからVScodeを起動する設定

Command + Shift + Pでコマンドパレット開いて、
「Shell Command: Install ‘code’ command in PATH」を選択する。
(「shell」と打てばレコメンドされるはず)

これだけでターミナルから「code ディレクトリ名やファイル名」でVScodeを起動することができます。


作業フォルダの作成

以下のコマンドを実行して、作業フォルダを作成します。

mkdir chatbot-test
cd chatbot-test

モデルの起動

実際にモデルを起動して、動作確認します。

ollama run gemma3

以下のように、「success」と出ていれば起動に成功しています。
試しに何かメッセージを打ち込んでみてください。


おわり

いかがだったでしょうか。
今回はチャットボットをローカルで作るための環境構築編でした。

ローカルでLLMのモデルを起動するだけなら、こんなにも簡単にできることが分かりました。
Ollamaの開発者には感謝ですね…!

次回は「最小のchatbot」を作っていきます。

お楽しみに〜