GLPI-Wissensbasis-RAG-Pipeline mit Google Gemini und PostgreSQL erstellen

Fortgeschritten

Dies ist ein Internal Wiki, Multimodal AI-Bereich Automatisierungsworkflow mit 9 Nodes. Hauptsächlich werden Agent, ChatTrigger, LmChatGoogleGemini, MemoryBufferWindow, VectorStorePGVector und andere Nodes verwendet. Eine GLPI-Wissensdatenbank-RAG-Pipeline mit Google Gemini und PostgreSQL erstellen

Voraussetzungen
  • Google Gemini API Key
Workflow-Vorschau
Visualisierung der Node-Verbindungen, mit Zoom und Pan
Workflow exportieren
Kopieren Sie die folgende JSON-Konfiguration und importieren Sie sie in n8n
{
  "meta": {
    "instanceId": "98986c4dc0b4b2af9fd0666d254f8b80e6e6b2044e2f3f3eedc76242999f4b5e",
    "templateCredsSetupCompleted": true
  },
  "nodes": [
    {
      "id": "faa18c92-30d0-481f-b073-0b5efa68fbdf",
      "name": "KI-Agent",
      "type": "@n8n/n8n-nodes-langchain.agent",
      "position": [
        3824,
        992
      ],
      "parameters": {},
      "typeVersion": 1.8
    },
    {
      "id": "dd67e0b2-9986-4506-813e-d9d79b0b9f7b",
      "name": "Google Gemini Chat-Modell",
      "type": "@n8n/n8n-nodes-langchain.lmChatGoogleGemini",
      "position": [
        3392,
        1232
      ],
      "parameters": {},
      "typeVersion": 1
    },
    {
      "id": "0667b08a-42f9-4c74-9560-75f196147468",
      "name": "Bei Empfang einer Chat-Nachricht",
      "type": "@n8n/n8n-nodes-langchain.chatTrigger",
      "position": [
        3488,
        992
      ],
      "webhookId": "8850cfe1-5a35-4bc9-9c02-91ccf4b82c58",
      "parameters": {},
      "typeVersion": 1.1
    },
    {
      "id": "e828b8eb-b88f-425b-aaca-7081a0145c08",
      "name": "Einbettungen Google Gemini1",
      "type": "@n8n/n8n-nodes-langchain.embeddingsGoogleGemini",
      "position": [
        4192,
        1440
      ],
      "parameters": {},
      "typeVersion": 1
    },
    {
      "id": "6f220ede-5bbf-48b7-a5b1-48052fb1dd87",
      "name": "Haftnotiz",
      "type": "n8n-nodes-base.stickyNote",
      "position": [
        3488,
        800
      ],
      "parameters": {
        "content": ""
      },
      "typeVersion": 1
    },
    {
      "id": "761568e7-36aa-4dd2-8dc1-a037b0c27218",
      "name": "Einbettungen Google Gemini3",
      "type": "@n8n/n8n-nodes-langchain.embeddingsGoogleGemini",
      "position": [
        3904,
        1424
      ],
      "parameters": {},
      "typeVersion": 1
    },
    {
      "id": "e25c8e1e-a871-491e-ad86-fd9575700f96",
      "name": "CONHECIMENTO_TI_GLPI",
      "type": "@n8n/n8n-nodes-langchain.vectorStorePGVector",
      "position": [
        4208,
        1280
      ],
      "parameters": {},
      "typeVersion": 1.1
    },
    {
      "id": "19487e55-30d4-4570-a9e2-6ff9ce92c615",
      "name": "CONFLUENCE_TI_CONFLUENCE_SGU_GPL",
      "type": "@n8n/n8n-nodes-langchain.vectorStorePGVector",
      "position": [
        3824,
        1264
      ],
      "parameters": {},
      "typeVersion": 1.1
    },
    {
      "id": "2fe1ca70-36ee-4593-bf7d-33bc1d4ea9f9",
      "name": "Einfacher Speicher",
      "type": "@n8n/n8n-nodes-langchain.memoryBufferWindow",
      "position": [
        3648,
        1248
      ],
      "parameters": {},
      "typeVersion": 1.3
    }
  ],
  "pinData": {},
  "connections": {
    "faa18c92-30d0-481f-b073-0b5efa68fbdf": {
      "main": [
        []
      ]
    },
    "2fe1ca70-36ee-4593-bf7d-33bc1d4ea9f9": {
      "ai_memory": [
        [
          {
            "node": "faa18c92-30d0-481f-b073-0b5efa68fbdf",
            "type": "ai_memory",
            "index": 0
          }
        ]
      ]
    },
    "e25c8e1e-a871-491e-ad86-fd9575700f96": {
      "ai_tool": [
        [
          {
            "node": "faa18c92-30d0-481f-b073-0b5efa68fbdf",
            "type": "ai_tool",
            "index": 0
          }
        ]
      ]
    },
    "dd67e0b2-9986-4506-813e-d9d79b0b9f7b": {
      "ai_languageModel": [
        [
          {
            "node": "faa18c92-30d0-481f-b073-0b5efa68fbdf",
            "type": "ai_languageModel",
            "index": 0
          }
        ]
      ]
    },
    "Embeddings Google Gemini1": {
      "ai_embedding": [
        [
          {
            "node": "e25c8e1e-a871-491e-ad86-fd9575700f96",
            "type": "ai_embedding",
            "index": 0
          }
        ]
      ]
    },
    "Embeddings Google Gemini3": {
      "ai_embedding": [
        [
          {
            "node": "19487e55-30d4-4570-a9e2-6ff9ce92c615",
            "type": "ai_embedding",
            "index": 0
          }
        ]
      ]
    },
    "0667b08a-42f9-4c74-9560-75f196147468": {
      "main": [
        [
          {
            "node": "faa18c92-30d0-481f-b073-0b5efa68fbdf",
            "type": "main",
            "index": 0
          }
        ]
      ]
    },
    "19487e55-30d4-4570-a9e2-6ff9ce92c615": {
      "ai_tool": [
        []
      ]
    }
  }
}
Häufig gestellte Fragen

Wie verwende ich diesen Workflow?

Kopieren Sie den obigen JSON-Code, erstellen Sie einen neuen Workflow in Ihrer n8n-Instanz und wählen Sie "Aus JSON importieren". Fügen Sie die Konfiguration ein und passen Sie die Anmeldedaten nach Bedarf an.

Für welche Szenarien ist dieser Workflow geeignet?

Fortgeschritten - Internes Wiki, Multimodales KI

Ist es kostenpflichtig?

Dieser Workflow ist völlig kostenlos. Beachten Sie jedoch, dass Drittanbieterdienste (wie OpenAI API), die im Workflow verwendet werden, möglicherweise kostenpflichtig sind.

Workflow-Informationen
Schwierigkeitsgrad
Fortgeschritten
Anzahl der Nodes9
Kategorie2
Node-Typen7
Schwierigkeitsbeschreibung

Für erfahrene Benutzer, mittelkomplexe Workflows mit 6-15 Nodes

Autor
Thiago Vazzoler Loureiro

Thiago Vazzoler Loureiro

@thiagovazzoler

Building Custom Automations with n8n | Node.js Developer | Integration Specialist | Open Source Contributor If you need help with n8n workflows, API integrations, or custom nodes, feel free to connect on LinkedIn: http://linkedin.com/in/thiago-vazzoler-loureiro-24056227

Externe Links
Auf n8n.io ansehen

Diesen Workflow teilen

Kategorien

Kategorien: 34