DifyとOllamaの連携方法!プライベートAIチャットボットの作り方!

「ChatGPTのような高性能AIを自社サーバーで動かせたら…」
「プライバシーを気にせず使えるAIチャットボットが欲しい…」
「クラウドAIの月額料金が高くて困っている…」

そんな悩みをお持ちではありませんか?

このガイドでは、OllamaとDifyという2つの革新的なツールを組み合わせて、プライベートAIチャットボットを構築する方法を解説します。

目次

Ollamaとは?

Ollamaは、最新のAI技術(LLM:大規模言語モデル)を自分のパソコンで動かすためのソフトウェアです。コマンドを入力する方法と、他のソフトから呼び出す方法(API)の両方で使えます。Ollamaには、3つの大きな魅力があります。

完全なプライバシー保護 

Ollamaは、すべての処理がパソコン内で完結します。データはインターネット上に送信されず、ローカル環境だけで動作するので、機密情報や個人情報を扱う際も安心できます。企業の内部文書や個人データの分析でも、情報漏洩のリスクなく利用可能です。クラウドAIでは難しいセキュリティ要件の厳しい環境でも、安心してAIを活用できます。

コスト削減と無制限の利用

多くのクラウドAIサービスは使用量に応じた料金が発生します。しかしOllamaは完全に無料で利用できるのが特徴です。AIの利用量が増えても追加費用は一切かかりません。予算の制約を気にせず、思う存分AIを活用できます。特に大量のデータ処理や頻繁なAI利用が必要な場面では、このコスト面での利点は非常に大きな価値を持ちます。

多様なモデルとカスタマイズ性

Ollamaは様々な種類のAIモデルに対応しています。用途に合わせて最適なモデルを選べるのが魅力的です。文章生成に特化したものから、コード補完に優れたもの、多言語対応のものまで、目的に応じて使い分けられます。ダウンロードしたモデルは自分の好みや使用目的に合わせてカスタマイズも可能です。より精度の高い結果を得られます。

このように、Ollamaはプライバシー保護、コスト削減、そして多様なモデル選択という3つの核となる利点を兼ね備えています。個人利用から企業の業務まで幅広い場面で活躍します。

Ollamaのインストール方法

ここからはOllamaを使うためのインストール方法を解説します。Ollamaを使うには、次のシステム要件が必要なのであらかじめ確認しておきましょう。 

  • MacOS 11(Big Sur)以上、Linux、Windows10以上 
  • 16GB以上のメモリーが推奨されているが、最低8GBあれば動く 
  • モデルによって異なるものの、最低10GB以上の空きが必要

次にそれぞれのOSにおけるインストール方法を紹介します。

WSL(Ubuntu)にインストールする場合

はじめにWSLにインストールする方法を紹介します。WSLはWindows上でLinux環境を実行できる機能です。 DifyとOllamaを初めて連携させたいWindowsユーザーの方はこの方法をオススメします。なお結果的にLinuxにインストールするので、LinuxにOllamを導入したい方も参考にしてください。

WSL2のインストール

  1. Windowsを再起動したら、「コマンドプロンプト」または「PowerShell」を管理者権限で開きます(スタートメニューで右クリックして「管理者として実行」を選びます)。
  2. 次のコマンドを入力して実行し、終了後にPCを再起動します。
wsl --install
  1. 再起動後、powershellもしくはコマンドラインを開き、wslを実行してUbuntuを起動します。
  2. 初回起動時はUbuntuのユーザー名とパスワードの設定を求められるので、それぞれ入力します。ここで作成されるアカウントが規定のユーザーとして設定され、接続時、自動的にサインインするようになります。

Ollamaのインストール

  1. wslを実行し、Ubuntuを起動します。
  2. Ubuntuのソフトウェアを最新の状態にするために、次のコマンドを実行します。
sudo apt update && sudo apt upgrade
  1. パスワードを求められたら、先ほど設定したパスワードを入力します。
  2. 次に、Ollamaをインストールするために、以下のコマンドを実行します。
curl -fsSL https://ollama.com/install.sh | sh

Ollamaサービスの設定

  1. Ollamaを常時起動させるために、次のコマンドを実行します。
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
  1. 次に、サービス設定ファイルを作成します。以下のコマンドを実行します。
sudo nano /etc/systemd/system/ollama.service
  1. 開いたエディタに、次の内容を入力します。
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
User=ollama
Group=ollama
ExecStart=/usr/local/bin/ollama serve
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
  1. 入力が終わったら、Ctrl+O、Enterでファイルを保存し、Ctrl+Xで編集を終了します。
  2. サービスを有効にするために、次のコマンドを実行します。
sudo systemctl enable ollama.service
sudo systemctl daemon-reload
  1. Ollamaサービスを起動します。
sudo systemctl start ollama

これでWSL(Ubuntu)環境でのOllamaのインストールと設定が完了しました。少し手順は多いですが、一つずつ進めれば問題なく設定できます。

MacOSにインストールする場合

最後にMacのインストール方法を紹介します。以下の手順を参考に進めてください。

インストーラーファイルのダウンロード

  1. Ollamaの公式サイト(https://ollama.com/)にアクセスします。
  2. 「Download」ボタンをクリックします。
  3. OSの選択画面で「Mac」を選び、「Download for Mac」をクリックし、「Ollama-darwin.zip」を任意のフォルダにダウンロードします。

インストーラーの実行

  1. ダウンロードしたファイルを開封します。
  2. 「ollama.app」を実行します。
  3. セキュリティの警告が表示されたら、「開く」(Open)をクリックします
  1. 「Ollamaはアプリケーションフォルダから実行すると最も効果的に動作します」というメッセージが表示されます。
  2. 「Move to Applications」(アプリケーションに移動)をクリックし、インストールウィザードが開くまで待ちます。
  3. ウィザードの最初のページで「Next」をクリックします。
  4. 続いて「Install」をクリックします。
  1. Macのパスワードの入力を求められるので、入力して「OK」をクリックします。
  2. インストールが完了したら、「Finish」をクリックしてウィザードを閉じます。
  3. インストールが成功すると、画面上部のメニューバーにラマのアイコンが表示されます。

Windowsにインストールする場合

WindowsはWSLではなくOllamaを直接インストールする方法もあります。しかし初めてDifyとOllamaの連携をする方は、Difyの仕様からWSLにollamaをインストールをオススメします。それでは直接インストールする方法を解説します。

Ollamaのダウンロード

  1. Ollamaの公式サイト(https://ollama.com/)にアクセスします。
  2. 画面中央にある「Download」ボタンをクリックします。
  3. OSの選択画面が表示されるので、「Windows」を選びます。
  4. 「Download for Windows」をクリックしてダウンロードを始めます。
  5. ダウンロードが終わったら、ダウンロードしたファイル(OllamaSetup.exe)をダブルクリックします。

Ollamaのインストール

  1. インストーラーの画面が表示されたら、「Install」ボタンをクリックします。
  1. 自動的にインストールが進み、完了します。

Ollamaの動作確認をする 

  1. コマンドラインもしくはpowershellを開きます。
  2.  「ollama」を実行して、ollamaのUsageが表示されるか確認します。

これだけで、Windowsへのインストールは完了です。 このあとは、使いたいAIモデルをダウンロードして使い始めることができます。

Ollamaの動作確認

  1. ターミナルを開きます。
  2. 「ollama」を実行して、ollamaのUsageが表示されるか確認します。

Ollamaのモデルインストール

最後にOllamaへのAIモデルインストール手順を紹介します。

  1. Ollamaで使いたいAIモデルをダウンロードします。例えば、コマンドラインもしくはターミナルで次のように入力します。llama2の部分は、使いたいモデルの名前に置き換えてください。
ollama pull llama2
  1. モデルをダウンロードしたら、次のコマンドでモデルを起動します。こちらもllama2の部分は、使いたいモデルの名前に置き換えてください。
ollama run llama2

Ollamaで利用可能なモデルは公式ページで配布されているものだけでなく、HuggingFaceで公開されているモデルも扱えます。HuggingFaceで公開されているモデルを利用する場合は「ollama run hf.co/{ユーザー名}/{リポジトリ}」を実行すれば、モデルのダウンロードが始まり、起動します。例えば次のコマンドです。

ollama run hf.co/bartowski/Llama-3.2-1B-Instruct-GGUF:latest

DifyとOllamaの連携

ローカルDifyを構築する方法

ローカルでDifyとollamaを連携させるには、ローカルにもDifyをインストールするか、Ollamaをインターネットに公開しなければなりません。 この記事ではローカルにDifyをインストールした場合の手順を解説します。

Tom

Difyをローカルにインストールしていない方は次の記事を参考にください!

DifyとOllamaの連携方法

ローカルにもDifyをインストールしたら、いよいよDifyとOllamaを連携させていきます。

  1. ローカルDifyの管理画面にログインします。
  2. 設定メニューから「モデルプロバイダー」を選び、「Ollama」を選択します。
  3. 以下の情報を入力します:
モデル名:Ollamaで起動したモデルの名前(例:llama2)
モデルタイプ:Chat(チャット用)を選択
モデルコンテキスト長:モデルが一度に処理できる文字数の上限(モデルによって異なる)
最大トークン制限:モデルが一度に返答できる最大の文字数
Visionのサポート:画像認識ができるモデルの場合は「はい」、そうでない場合は「いいえ」
ベースURL:OllamaサービスにアクセスするためのURLを入力
OSURLポート解放
Windowshttp://(ローカルIPアドレス):11434 必要
WSL(Linux)http://host.docker.internal:11434 不要
MacOShttp://host.docker.internal:11434 不要

これらの設定が完了すると、DifyからOllamaのAIモデルを利用できるようになります。最後にDifyでチャットボットを作成する手順を紹介します。

DifyでOllamaを連携したチャットボットを作成する手順

チャットボットを作成

  1. Difyの上のメニューから「スタジオ」をクリックします。
  2. 「アプリを作成する」の「最初から作成」を選びます。
  3. アプリの種類として「チャットボット」を選びます。
  4. チャットボットの基本情報を設定します。

アイコン:チャットボットのアイコン画像を選択
名前:チャットボットの名前を入力
説明:チャットボットの説明や用途を入力

  1. 「作成する」ボタンをクリックします。
  2. 遷移した先の画面の「設定に移動」をクリックします。

チャットボットの設定

  1. モデル設定画面で、モデルプロバイダーとして「Ollama」を選び、プラグインをインストールします。
  1. インストールした後、ollamaの設定を行います。例えば次の画像の通りです。
  1. チャットボットの動作方法を指示するプロンプトを入力します。例えば次のように設定します。
  1. 必要に応じて、「設定」タブで応答の長さや創造性の度合いなどを調整します。

チャットボットの実行と公開

  1. 画面右側のプレビュー部分で、実際にチャットボットと会話をしてみます。
  2. 質問を入力し、チャットボットの応答を確認します。
  3. 応答が期待通りでない場合は、設定を見直して調整します。
  4. 問題なく動作することを確認したら、画面上部の「公開」ボタンをクリックします。
  5. 公開方法を選ぶと、チャットボットが動作します。
公開方法動作
アプリを実行リンクを知っている人だけがアクセス可能に
サイトに埋め込むローカルウェブサイトにチャットボット埋め込み可能に
”探索で開く”探索画面に遷移します。
APIリファレンスにアクセスローカルアプリケーションからチャットボットを利用可能に

DifyとOllamaを連携させれば、専門的な知識がなくても、高性能なAIチャットボットを簡単に作成・公開・管理できます。自分のパソコンで動くAIを活用すれば、プライバシーを守りながら、コストを抑えて、様々な用途に対応したチャットボットを実現できます。

まとめ

この記事では、Ollamaの説明と構築手順、Difyと連携させてプライベートなチャットボットを構築する方法を解説しました。DifyとOllamaを組み合わせれば、クラウドサービスに依存せず、完全にプライベートな環境で高性能AIチャットボットを無料で構築できます。社内FAQボット、教育支援ツール、個人の知識アシスタントなど、様々な用途に活用可能です。このガイドを参考に、AI活用を始めましょう!

このコンテンツの投稿者

学生時代は生成AIによるアノテーションの研究を行っていた。現在は、AI戦略室でAI関連の開発や事業への活用を担当。 オウンドメディアの担当者を経て、現在はAIエンジニア。

目次