n8nとOllamaを使ったローカルLLMとの対話

初級

これはAI分野の自動化ワークフローで、5個のノードを含みます。主にChainLlm, ChatTrigger, LmChatOllamaなどのノードを使用、AI技術を活用したスマート自動化を実現。 n8nとOllamaを使ってローカル版大語言モデルと会話する

前提条件
  • AIサービスAPIキー(OpenAI、Anthropicなど)

カテゴリー

ワークフロープレビュー
ノード接続関係を可視化、ズームとパンをサポート
ワークフローをエクスポート
以下のJSON設定をn8nにインポートして、このワークフローを使用できます
{
  "id": "af8RV5b2TWB2LclA",
  "meta": {
    "instanceId": "95f2ab28b3dabb8da5d47aa5145b95fe3845f47b20d6343dd5256b6a28ba8fab",
    "templateCredsSetupCompleted": true
  },
  "name": "Chat with local LLMs using n8n and Ollama",
  "tags": [],
  "nodes": [
    {
      "id": "475385fa-28f3-45c4-bd1a-10dde79f74f2",
      "name": "チャットメッセージ受信時",
      "type": "@n8n/n8n-nodes-langchain.chatTrigger",
      "position": [
        700,
        460
      ],
      "webhookId": "ebdeba3f-6b4f-49f3-ba0a-8253dd226161",
      "parameters": {
        "options": {}
      },
      "typeVersion": 1.1
    },
    {
      "id": "61133dc6-dcd9-44ff-85f2-5d8cc2ce813e",
      "name": "Ollama チャットモデル",
      "type": "@n8n/n8n-nodes-langchain.lmChatOllama",
      "position": [
        900,
        680
      ],
      "parameters": {
        "options": {}
      },
      "credentials": {
        "ollamaApi": {
          "id": "MyYvr1tcNQ4e7M6l",
          "name": "Local Ollama"
        }
      },
      "typeVersion": 1
    },
    {
      "id": "3e89571f-7c87-44c6-8cfd-4903d5e1cdc5",
      "name": "付箋",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        160,
        80
      ],
      "parameters": {
        "width": 485,
        "height": 473,
        "content": "## Chat with local LLMs using n8n and Ollama\nThis n8n workflow allows you to seamlessly interact with your self-hosted Large Language Models (LLMs) through a user-friendly chat interface. By connecting to Ollama, a powerful tool for managing local LLMs, you can send prompts and receive AI-generated responses directly within n8n.\n\n### How it works\n1. When chat message received: Captures the user's input from the chat interface.\n2. Chat LLM Chain: Sends the input to the Ollama server and receives the AI-generated response.\n3. Delivers the LLM's response back to the chat interface.\n\n### Set up steps\n* Make sure Ollama is installed and running on your machine before executing this workflow.\n* Edit the Ollama address if different from the default.\n"
      },
      "typeVersion": 1
    },
    {
      "id": "9345cadf-a72e-4d3d-b9f0-d670744065fe",
      "name": "付箋1",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        1040,
        660
      ],
      "parameters": {
        "color": 6,
        "width": 368,
        "height": 258,
        "content": "## Ollama setup\n* Connect to your local Ollama, usually on http://localhost:11434\n* If running in Docker, make sure that the n8n container has access to the host's network in order to connect to Ollama. You can do this by passing `--net=host` option when starting the n8n Docker container"
      },
      "typeVersion": 1
    },
    {
      "id": "eeffdd4e-6795-4ebc-84f7-87b5ac4167d9",
      "name": "チャットLLMチェーン",
      "type": "@n8n/n8n-nodes-langchain.chainLlm",
      "position": [
        920,
        460
      ],
      "parameters": {},
      "typeVersion": 1.4
    }
  ],
  "active": false,
  "pinData": {},
  "settings": {
    "executionOrder": "v1"
  },
  "versionId": "3af03daa-e085-4774-8676-41578a4cba2d",
  "connections": {
    "61133dc6-dcd9-44ff-85f2-5d8cc2ce813e": {
      "ai_languageModel": [
        [
          {
            "node": "eeffdd4e-6795-4ebc-84f7-87b5ac4167d9",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "475385fa-28f3-45c4-bd1a-10dde79f74f2": {
      "main": [
        [
          {
            "node": "eeffdd4e-6795-4ebc-84f7-87b5ac4167d9",
            "type": "main",
            "index": 0
          }
        ]
      ]
    }
  }
}
よくある質問

このワークフローの使い方は?

上記のJSON設定コードをコピーし、n8nインスタンスで新しいワークフローを作成して「JSONからインポート」を選択、設定を貼り付けて認証情報を必要に応じて変更してください。

このワークフローはどんな場面に適していますか?

初級 - 人工知能

有料ですか?

このワークフローは完全無料です。ただし、ワークフローで使用するサードパーティサービス(OpenAI APIなど)は別途料金が発生する場合があります。

関連ワークフロー

研究型 AI エージェント:記事をスクレイピングして要約し、Notion に保存(Gemini、Browserless)
AI スマートアシスタント:記事の取得・要約・Notionへの保存(Gemini、Browserless)
Notion Tool
Discord Tool
Agent
+
Notion Tool
Discord Tool
Agent
9 ノードMihai Farcas
その他
RAG(PineconeとOpenAI)を使ってGitHub OpenAPI仕様と会話する
GitHub APIドキュメントと対話:PineconeとOpenAIを使用したRAGベースのチャットボット
Http Request
Manual Trigger
Agent
+
Http Request
Manual Trigger
Agent
17 ノードMihai Farcas
エンジニアリング
ホスティング型LLM(Mistral NeMo)を使って個人情報を抽出
自ホスティングのLLMであるMistral NeMoを使って個人情報を抽出
Set
Chain Llm
Chat Trigger
+
Set
Chain Llm
Chat Trigger
13 ノードYulia
ビルディングブロック
DeepSeek V3 チャットと R1 推理のクイックスタート
DeepSeek V3チャットとR1リーディングのクイックスタート
Http Request
Agent
Chain Llm
+
Http Request
Agent
Chain Llm
15 ノードJoseph LePage
ビルディングブロック
株式財務報告分析のためのRAGワークフロー
株式財務報告分析のためのAI駆動RAGワークフロー
Google Docs
Google Drive
Google Sheets
+
Google Docs
Google Drive
Google Sheets
18 ノードMihai Farcas
人工知能
AI SEO可読性審査:ウェブサイトのLLM対応状況の確認
AI SEO可読性審査:ウェブサイトの大規模言語モデルに対する対応状況の確認
Code
Http Request
Chain Llm
+
Code
Http Request
Chain Llm
8 ノードLeonard
人工知能
ワークフロー情報
難易度
初級
ノード数5
カテゴリー1
ノードタイプ4
難易度説明

n8n初心者向け、1-5ノードのシンプルなワークフロー

作成者
Mihai Farcas

Mihai Farcas

@mihailtd

Full-stack developer with 5+ years streamlining healthcare processes. Proficient in NodeJS, VueJS, MongoDB, PostgreSQL, Kubernetes, and n8n. Ready to optimize your workflows – book a consult via my link.

外部リンク
n8n.ioで表示

このワークフローを共有

カテゴリー

カテゴリー: 34