Wir bei SupraTix begrüßen kontroverse Diskussionen und einen offenen Austausch von Ideen und Meinungen. Wir möchten jedoch betonen, dass wir beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge nicht tolerieren. Wir bitten dich, beim Verfassen von Kommentaren und Beiträgen darauf zu achten, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast.
Ebenso möchten wir darauf hinweisen, dass die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites nur dann zulässig ist, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird.
Wir behalten uns vor, Beiträge, die gegen diese Regeln verstoßen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Dennoch ermutigen wir dich, deine Meinung zu äußern, andere Perspektiven einzubringen und durch weiterführende Informationen zum Wissensaustausch beizutragen. Wir sind immer auf der Suche nach spannenden und interessanten Beiträgen und freuen uns darauf, mit dir in einen konstruktiven Dialog zu treten.
Das SupraTix-Team
14 Minuten
November 22, 2025
GraphRAG in SupraAgent und SupraWorx: Architektur, Benchmarks und Anwendungen
Veröffentlicht von Tobias Goecke (Göcke) , SupraTix GmbH (4 Monate, 1 Woche her aktualisiert)

GraphRAG verknüpft klassische RAG-Verfahren mit Wissensgraphen, um LLMs für große, verteilte und komplex vernetzte Wissensbestände besser nutzbar zu machen. Statt nur einzelne Textpassagen per Vektorsuche abzurufen, wird ein Wissensgraph aus den Dokumenten extrahiert, in thematische Communities geclustert und für jede Community eine verdichtete Zusammenfassung erstellt, die das LLM bei komplexen, „globalen“ Anfragen als Kontext nutzt. In SupraAgent/SupraWorx wurde dafür eine hybride Architektur umgesetzt: duale Indexierung (Vektor- + Graphdatenbank), graphbasierte Community-Detection, dynamische Pfadwahl zwischen klassischem RAG und GraphRAG sowie mehrstufige Antwortgenerierung aus Community-Summaries. Benchmarks und interne Tests zeigen eine deutlich höhere Abdeckung, Vielfalt und Faktentreue der Antworten bei gleichzeitig effizienterer Nutzung des Kontextfensters, insbesondere für bereichsübergreifende Fragestellungen (z. B. Wissensmanagement, Medizin/Finanzen, Recht, Fehlersuche). Die Arbeit schließt mit Integrationsleitlinien (schrittweiser Rollout, Fokus auf Datenqualität, Monitoring, Hybridbetrieb) und der Einschätzung, dass GraphRAG ein zentraler Baustein für robustere, vertrauenswürdige Enterprise- und kognitive KI-Systeme ist.
Graph-Enhanced Retrieval-Augmented Generation (GraphRAG - SupraGraph) ist ein neuartiger Ansatz, der Large Language Models (LLMs) mit Wissensgraphen verknüpft, um umfangreiche und heterogene Datenbestände besser nutzbar zu machen. In wissensintensiven Aufgaben hat sich das Paradigma des Retrieval-Augmented Generation (RAG) etabliert, bei dem LLMs durch externe Dokumente ergänzt werden [1]. Allerdings stößt das klassische RAG mit flachen Dokumenten-Chunks an Grenzen, wenn es um globale Anfragen geht, die ein umfassendes Verständnis eines großen Korpus erfordern. GraphRAG kombiniert LLMs mit einer Wissensgraph-Repräsentation, um genau diese Lücke zu schließen und die Stärken beider Welten auszuspielen [2]. In dieser Arbeit untersuchen wir die Integration von GraphRAG in unsere KI-Plattformen SupraAgent und SupraWorx. SupraAgent ist ein LLM-basierter, KI-gestützter Chatbot für professionelle Anwendungen, eingebettet in die Unternehmensautomatisierungs-Suite SupraWorx. Wir beschreiben das architektonische Design der Lösung – von der Graph-basierten Indexierung (Extraktion von Entitäten und Relationen) über die Community-Erkennung und -Zusammenfassung bis hin zur Einbettung in den Agenten-Workflow. Anschließend präsentieren wir Leistungsbenchmarks, die eine deutlich gesteigerte Abdeckung und Vielfalt der generierten Antworten im Vergleich zu klassischem RAG zeigen, bei gleichzeitig effizienterer Nutzung des begrenzten Kontext-Fensters. Anhand praktischer Anwendungsfälle (z. B. im Wissensmanagement, in der Entscheidungsunterstützung oder bei der Fehlersuche) illustrieren wir den Nutzen von GraphRAG in realen Automatisierungsprozessen. Schließlich diskutieren wir eine Integrationsstrategie, wie GraphRAG nahtlos in bestehende Workflows und kognitive Agenten-Ökosysteme eingebettet werden kann, und worauf bei der Einführung zu achten ist. Die Ergebnisse deuten darauf hin, dass GraphRAG ein vielversprechender Baustein für die Forschung an kognitiven KI-Systemen und für Enterprise-Automation ist, der LLM-basierten Agenten zu höherer Präzision und Resilienz verhilft.
Die rasanten Fortschritte bei LLMs haben völlig neue Möglichkeiten für wissensintensive KI-Anwendungen eröffnet. Allerdings stoßen selbst die größten vortrainierten Modelle an Grenzen, wenn Fakten abgerufen werden sollen, die nicht in ihren Parametern gespeichert sind, oder wenn über unbekannte Datensätze generelle Fragen beantwortet werden sollen [2]. Um LLMs gezielt mit externem Wissen zu versorgen, hat sich das Konzept des Retrieval-Augmented Generation etabliert [1]: Zu einer Nutzeranfrage werden relevante externe Dokumentpassagen gesucht (typischerweise per semantischer Vektorsuche) und dem Modell als Kontext beigefügt, damit die Antwort faktengestützt und aktuell ausfällt. Dieses Verfahren verbessert nachweislich die Spezifität und Faktentreue generierter Antworten gegenüber rein LLM-basierten Antworten [1]. Klassische RAG-Pipelines, die Top-n Textpassagen einblenden, stoßen jedoch an Grenzen, wenn „globale“ Fragen gestellt werden, die eine umfassende Synthese über verteilte Informationen erfordern. Es fällt dem System schwer, „die Punkte zu verbinden“, wenn wichtige Fakten über viele Dokumente verstreut sind [3]. Insbesondere reicht das bloße Auffinden von ein paar relevanten Absätzen oft nicht aus, um eine allumfassende, vernetzte Antwort zu generieren. Hier setzt GraphRAG an – ein Ansatz, der RAG durch wissensgraphbasierte Retrieval- und Summarisierungsverfahren erweitert. Die Kernidee von GraphRAG besteht darin, zunächst einen Wissensgraphen aus den Quelltexten zu erzeugen (mit Knoten für Entitäten/Begriffe und Kanten für Relationen) und diesen Graphen in thematische Communities zu unterteilen, für die vorab Zusammenfassungen erstellt werden [3]. Bei einer Benutzeranfrage werden dann nicht nur per Vektorähnlichkeit einzelne Textstellen gesucht, sondern gezielt der Graph nach relevanten Bereichen durchquert, um verknüpfte Teilinformationen abzurufen. Anschließend generiert das LLM Teilantworten pro Community und fasst diese zu einer Gesamtantwort zusammen. Ähnliche graph-augmentierte Frameworks wurden jüngst auch in anderen Kontexten vorgestellt – etwa zur subgraph-basierten Wissensvermittlung in Dialogsystemen [4] oder zum Zero-Shot-Beantworten von Wissensgraph-Fragen mittels Prompting [5]. GraphRAG zeichnet sich jedoch dadurch aus, dass es eine hierarchische Graph-Struktur des gesamten Korpus nutzt, um auch bereichsübergreifende, abstrakte Fragen beantworten zu können.
Für die Integration von GraphRAG in SupraAgent/SupraWorx wurde die klassische RAG-Pipeline um Module für Wissensgraph-Erstellung und graphbasiertes Retrieval erweitert. Dateningestion und Vorverarbeitung: Eingehende Dokumente (z. B. Berichte, Handbücher, E-Mails) werden zunächst in handhabbare Textsegmente zerlegt. Parallel dazu wird mit Hilfe eines LLM ein Wissensgraph aus dem Text extrahiert, indem wichtige Entitäten (Personen, Orte, Fachbegriffe) und ihre Beziehungen identifiziert werden. Technisch erfolgt dies durch Prompting des LLM, das die Entitäten und Relationen aus dem Text „herausliest“. Die extrahierten Graph-Strukturen werden in einer Graph-Datenbank gespeichert. Gleichzeitig werden die Textsegmente vektorisiert und in einem Embedding-Index abgelegt. Diese duale Indexierung – aus Vektor- und Graphdatenbank – bildet die Wissensbasis des Agenten. Community Detection und Summaries: Auf dem Wissensgraphen wird anschließend ein Community-Detection-Algorithmus (z. B. Leiden- oder Louvain-Modularitätsalgorithmus) ausgeführt, der die Graph-Knoten in Cluster hochgradig zusammenhängender Konzepte gruppiert. Jede solche Community repräsentiert ein thematisches Teilgebiet des Gesamtwissens. Für jede Community wird vorab mittels LLM eine Zusammenfassung generiert (eine „Community Summary“), indem die Inhalte der Knoten und ihrer Verknüpfungen verdichtet werden. Gegebenenfalls erfolgt dies hierarchisch: bei sehr großen Graphen können zunächst Sub-Communities zusammengefasst und diese Teilsummaries dann wiederum zu einer höherstufigen Zusammenfassung kombiniert werden. Durch diese mehrstufige Summarisierung liegt letztlich auch ein sehr großer Korpus in kompakter Form als mehrschichtiger Wissensindex aus Graphstruktur + Community-Zusammenfassungen vor. Wichtig ist, dass dieser Indexierungsprozess vorgelagert (offline) und rechenintensiv erfolgt, um nachfolgend schnelle Abfragen zur Laufzeit zu ermöglichen. Anfrageverarbeitung und Graph-augmented Retrieval: Geht nun eine Benutzeranfrage im SupraAgent ein (z. B. über das Chatbot-Interface), entscheidet die Architektur dynamisch, welchen Retrieval-Pfad sie einschlägt. Punktuelle Faktanfragen (etwa „Wann wurde Projekt X gestartet?“) können weiterhin effizient durch reine Vektorähnlichkeitssuche in den Dokumenten beantwortet werden – dieser klassische RAG-Weg bleibt als Fallback bestehen. Komplexere, globale Fragen, die breitere Zusammenhänge erfordern, werden dagegen dem GraphRAG-Pfad zugeleitet. In diesem Fall durchläuft die Anfrage zunächst eine semantische Suche auf dem Graphindex: Die Query wird als Vektor mit den in den Graph-Knoten hinterlegten Embeddings verglichen, um relevante Regionen im Wissensgraphen zu finden.
Anschließend erfolgt eine Graph-Traversierung: ausgehend von den bestpassenden Knoten werden die zugehörigen Teilgraphen (Communities) geladen. Auf diese Weise identifiziert das System alle thematischen Gruppen im Graph, die zur Beantwortung der Frage beitragen könnten. Antwortgenerierung: Für jede identifizierte Community ruft SupraAgent nun die gespeicherte Community Summary ab. Diese fasst die Kernaussagen der entsprechenden Community bereits zusammen und dient als fokussierter Kontext. Das LLM erhält dann die Benutzerfrage zusammen mit der Community-Zusammenfassung als Prompt und generiert daraufhin eine Teilantwort, welche die Perspektive dieser Community abdeckt. Da diese Teilantworten unabhängig und parallel erzeugt werden können, lässt sich die Konkurrenz mehrerer Instanzen nutzen, um die Latenz gering zu halten. Abschließend werden alle Teilantworten gesammelt und in einem letzten Schritt zu einer Gesamtantwort zusammengeführt. Dieses finale, query-fokussierte Summarization-Prompt fasst also die verschiedenen Aspekte zusammen; die konsolidierte Antwort wird dem Nutzer präsentiert – in der Regel angereichert mit Quellenhinweisen oder Graph-Ausschnitten zur Nachvollziehbarkeit. GraphRAG fungiert auf diese Weise als eine Art „gedächtnisgestütztes Denken“ für den Agenten: Anstatt nur auf isolierte Textschnipsel zu schauen, kann SupraAgent dank des Graph-Indexes Assoziationen herstellen und übergreifende Einsichten gewinnen. Architektonisch wurden dafür in SupraWorx neue Komponenten integriert, u. a. ein Graphdatenbank-Connector, Anpassungen in der Orchestrierungsschicht des Agenten (um dynamisch zwischen RAG- und GraphRAG-Pfaden zu verzweigen) und eine Erweiterung des Prompt-Managements für die mehrstufige Generierung. Die GraphRAG-Module sind dabei weitgehend entkoppelt implementiert, sodass sie bei Bedarf auch deaktiviert oder nur für bestimmte Agenten-Rollen aktiviert werden können. Dieses modulare Design erleichtert die schrittweise Integration in bereits bestehende kognitive Architekturen.
Um die Effizienz und Präzision von GraphRAG innerhalb von SupraAgent zu bewerten, ziehen wir sowohl Befunde aus der Literatur als auch interne Tests heran. Im Fokus steht zum einen die Antwortqualität (insbesondere Vollständigkeit und Korrektheit der Antworten), zum anderen die Ressourceneffizienz (z. B. Kontext-Fenstergröße, Rechenaufwand). Antwortqualität – Abdeckung und Diversität: GraphRAG zeigt in vergleichenden Studien eine deutlich höhere Abdeckung relevanter Aspekte bei komplexen Anfragen als herkömmliches RAG. So berichtet eine aktuelle Untersuchung, dass eine graphbasierte RAG-Variante eine um über 30 % höhere Antwortqualität erzielte als ein Prompt-Tuning-Baseline-System [6]. Ebenso erreichen GraphRAG-gestützte Antworten oft eine größere inhaltliche Vielfalt, da verschiedene Facetten der Frage abgedeckt werden, während eine rein dokumentenzentrierte Antwort wichtige Punkte eher auslässt. Xu et al. zeigen beispielsweise, dass die Einbindung eines Wissensgraphen in ein Frage-Antwort-System für Kundensupport zu höherer Antwortgenauigkeit führt als RAG ohne Graph [7]. Präzision und Halluzinationen: Ein weiterer Effekt der Graph-Struktur ist die verbesserte Nachvollziehbarkeit. Jeder Knoten und jede Kante im Wissensgraphen kann letztlich auf einen Beleg im Quelltext zurückgeführt werden, was prinzipiell ermöglicht, generierte Aussagen bis zur Ursprungstelle zu verfolgen. Durch die Verwendung von Community-Zusammenfassungen, die auf realen Textinhalten basieren, verringert sich zudem die Gefahr von freien Halluzinationen – das Graph-Gerüst wirkt als inhaltliche Leitplanke. Tatsächlich lassen Experimente darauf schließen, dass GraphRAG die Tendenz zu halluzinatorischen Antworten reduziert; beispielsweise zeigte das G-Retriever-System eine 54 % geringere Rate an halluzinierten Inhalten im Vergleich zu einem LLM-Baseline-Ansatz [6]. Unsere eigenen Tests deuten darauf hin, dass GraphRAG-Antworten zwar gelegentlich etwas ausführlicher oder kontextueller eingeleitet sind als knappe RAG-Antworten, aber hinsichtlich Faktentreue und Korrektheit nicht nachstehen. Entscheidend ist allerdings die Qualität des extrahierten Graphen: Fehlende oder fehlerhafte Relationen im Wissensgraph können Lücken in der generierten Antwort verursachen – ein Aspekt, auf den wir im Ausblick noch eingehen. Effizienz – Kontextfenster und Kosten: Ein wesentlicher Vorteil von GraphRAG ist die deutlich effizientere Nutzung des begrenzten LLM-Kontextfensters. Anstatt lange, flache Textketten in den Prompt laden zu müssen, kann GraphRAG mit vorgefertigten, verdichteten Community-Summaries operieren. Durch die Nutzung dieser Zusammenfassungen anstelle der Originaltexte lassen sich in unseren Experimenten drastische Einsparungen beim Prompt-Umfang erzielen (teilweise um ein bis zwei Größenordnungen), ohne spürbaren Verlust an Antwortqualität. Mit anderen Worten: GraphRAG kann sehr große Wissensbasen skalierbar erschließen, da das System auch bei umfangreichen Korpora iteratives Question-Answering betreiben kann, ohne ständig an die Grenzen des Kontextfensters zu stoßen. Dieser Gewinn ist natürlich nicht kostenlos: Die vorgelagerte Indexierung (Graph-Erstellung und Summarisierung) ist rechen- und zeitintensiv. Diese einmalige Investition amortisiert sich jedoch bei häufiger Nutzung der Wissensbasis, zumal Anfragen selbst parallelisiert auf Teilgraphen bearbeitet werden können. In unserer SupraWorx-Umgebung konnten wir beobachten, dass die Antwortlatenz für komplexe Analysten-Fragen trotz breiterer Abdeckung in einem akzeptablen Rahmen blieb – die Antwortzeiten stiegen nur moderat gegenüber einer einfachen Vektor-Retrieval-Suche, da viele Verarbeitungsschritte bereits vorab erledigt worden waren.
Mangels etablierter Benchmark-Datensätze für „globale“ Agenten-Fragen haben wir uns bei der Evaluation an experimentellen Setups aus der Literatur orientiert. Unter anderem lassen sich simulierte Nutzerfragen an umfangreiche Nachrichtendaten oder Transkript-Sammlungen stellen und die Antworten von einem LLM-Jurymodell (z. B. GPT-4) nach bestimmten Kriterien bewerten. Ein derartiger Ansatz wurde von Edge et al. (2024) für Query-zentrierte Summaries vorgeschlagen; wir haben ein ähnliches Verfahren in kleinerem Maßstab mit firmeninternen Wissensdokumenten (Projektberichte, Handbücher) pilotiert. Die Resultate stimmen qualitativ mit den publizierten Beobachtungen überein: GraphRAG-basierte Antworten enthalten in deutlich höherem Maße alle relevanten Punkte einer Frage und stellen Querverbindungen her, während das klassische RAG wichtige Aspekte mitunter übersieht. Diese ersten Benchmarks untermauern den Mehrwert von GraphRAG insbesondere für komplexe, bereichsübergreifende Abfragen. Sie zeigen aber auch, dass die erzielte Güte stark von der Richtigkeit und Vollständigkeit der Graph-Extraktion abhängt – ein Punkt, den wir im Rahmen der Integrationsstrategie und Grenzen diskutieren.
Die Kombination aus Wissensgraph und LLM eröffnet neue Anwendungsszenarien in unterschiedlichen Branchen. Wissensmanagement und Discovery: Große Organisationen verfügen oft über Terabytes an Dokumenten, Berichten und E-Mails. Ein GraphRAG-gestützter Agent kann diesen „Datenschatz“ interaktiv nutzbar machen. So ließen sich z. B. über GraphRAG globale Themen und Muster aus einer Sammlung von Support-Tickets oder Forschungsberichten extrahieren. Fragt ein Manager etwa „Welche übergreifenden Probleme treten in unseren Kundenbeschwerden im ersten Quartal auf?“, würde SupraAgent zunächst einen Wissensgraphen aus allen Tickets aufbauen, Hauptthemen (Communities) erkennen und zu jedem eine aggregierte Antwort generieren. Dies geht über eine einfache FAQ-Beantwortung hinaus und unterstützt strategische Entscheidungen (Wissensmanagement, Produktverbesserung), da der Agent versteckte Muster aufdeckt. Die gelieferten Antworten sind dabei kontextreich und mit Querverweisen versehen, was das Vertrauen der Anwender in die KI stärkt.
Entscheidungsunterstützung in Medizin und Finanzen: In wissensintensiven Bereichen wie dem Gesundheitswesen oder der Finanzanalyse ist oft ein 360°-Blick auf verteilte Informationen gefragt. Ein GraphRAG-Agent im Klinikbetrieb könnte z. B. Patientendaten, Forschungsartikel, Arzneimittel-Datenbanken und Behandlungsleitlinien in einem Wissensgraph integrieren. Fragt ein Arzt: „Welche Therapieempfehlungen ergeben sich für Patient X mit Symptom Y unter Medikament Z?“, so durchsucht der Agent graphbasiert Krankheitsbilder, aktuelle Studien und mögliche Wechselwirkungen. Die Antwort würde evidenzbasiert ausfallen – etwa den vorliegenden Fall mit ähnlichen publizierten Fällen verknüpfen und auf potenzielle Risiken oder bewährte Therapien hinweisen. Ähnlich im Finanzsektor: Analysten könnten fragen „Wie beeinflussen politische Ereignisse unser Investment-Portfolio?“. Der Graph verknüpft News, Marktindikatoren, Unternehmen und Ereignisse; die generierte Antwort könnte z. B. Lieferketten-Abhängigkeiten oder Risiko-Netzwerke aufzeigen, die aus der Verknüpfung der Informationen hervorgehen. In beiden Domänen liefert GraphRAG tiefere Einsichten im Vergleich zu isolierten Abfragen, weil es dispergierte Informationen vernetzt und kontextualisiert. Rechtsrecherche und Compliance: Juristische Analysen erfordern das Abwägen vielfältiger Präzedenzfälle und Normen. Ein SupraAgent für Legal Tech könnte Gerichtsurteile, Gesetzestexte und Fachkommentare als Graph repräsentieren. Auf die Frage „Welche früheren Urteile stützen Argument A in Fall B?“ traversiert GraphRAG relevante Präzedenzfälle, findet verknüpfte Urteile mit ähnlicher Argumentation und liefert eine Antwort mit Verweisen auf diese Entscheidungen. Dabei kann der Agent auch Gegenargumente oder Ausnahmen aufzeigen, indem er Beziehungen zwischen Konzepten (z. B. Gesetzesparagraphen und Auslegungen) im Graph verfolgt. Für Compliance-Fragen (etwa zu regulatorischen Änderungen) lassen sich auf einen Blick vernetzte Auswirkungen erkennen. So ermöglicht GraphRAG im Rechtswesen eine schnellere, gründlichere Recherche, indem es die komplexe Wissenslandschaft durchdringt und strukturiert aufbereitet. Produktion und Fehlersuche: In technischen Betrieben liegen Handbücher, Schaltpläne und Wartungsprotokolle oft als isolierte Dokumente vor. Ein GraphRAG-Agent kann dieses verteilte Wissen in Form eines Anlagen-Wissensgraphen modellieren. Tritt eine Störung auf, könnte ein Techniker den Agenten fragen: „Was könnten Ursachen für Fehlercode 123 sein und wie behebe ich sie?“. Der Agent traversiert den Graphen vom Fehlercode aus zu den beteiligten Komponenten, früheren Vorfällen, Problemlösungen und Ersatzteillisten und generiert daraus eine Schritt-für-Schritt-Empfehlung zur Fehlerbehebung. Wichtig ist: GraphRAG erkennt ähnlich wie ein menschlicher Experte Ursache-Wirkung-Ketten – etwa dass ein defekter Sensor X in Baugruppe Y zu Fehlercode 123 führen kann – basierend auf den relationalen Daten im Graphen. Die Antwort käme mit Belegen (Verweisen auf relevante Handbuch-Abschnitte) und ggf. einer Einschätzung der Ausfallzeit (weil der Graph z. B. Lagerbestände oder Lieferzeiten der Komponente enthält). Dieses Beispiel zeigt, wie GraphRAG implizites Expertenwissen explizit machen und so Ausfallzeiten verkürzen kann – ein konkreter Mehrwert in der operativen Automatisierung.
Zusammenfassend steigert GraphRAG in all diesen Anwendungsfällen sowohl die inhaltliche Tiefe der Antworten (durch Abdeckung mehrerer Aspekte) als auch deren Glaubwürdigkeit (durch nachvollziehbare Herleitungen mit Quellen). Besonders in Szenarien, die von verteilt vorliegendem Wissen und komplexen Abhängigkeiten geprägt sind, wird der Nutzen deutlich. Für KI-Systemforscher und Automatisierungsexperten zeigt sich hier, dass GraphRAG ein mächtiges Werkzeug ist, um kognitive Systeme robuster und „intelligenter“ zu machen.
Die Einführung von GraphRAG in eine bestehende Agentenarchitektur erfordert eine durchdachte Integrationsstrategie, um einen nahtlosen Übergang sicherzustellen. Aus unseren Erfahrungen mit SupraAgent/SupraWorx und basierend auf dem Stand der Technik lassen sich folgende Leitlinien ableiten:
Erstens: Schrittweise Einführung und Hybridbetrieb. Da GraphRAG gegenüber klassischem RAG zusätzliche Indexierung und Infrastruktur benötigt, empfehlen wir einen iterativen Integrationsansatz. In SupraWorx wurde GraphRAG zunächst als optionale Komponente implementiert, die je nach Anfragetyp zugeschaltet wird. Praktikabel ist es, den Agenten pro Anfrage eine Heuristik anwenden zu lassen: Handelt es sich um eine fokussierte Faktanfrage, nutzt er weiterhin den etablierten Vektor-Retrieval-Ansatz (geringe Latenz, ausreichende Genauigkeit). Erkennen wir jedoch eine umfassende oder relationale Frage (etwa Schlagwörter deuten auf breite Themen, Vergleiche oder Formulierungen wie „Wie hängt X mit Y zusammen?“), schwenkt der Agent auf den GraphRAG-Pfad um. Dieser Hybridbetrieb stellt sicher, dass GraphRAG dort zum Einsatz kommt, wo es nötig ist, ohne triviale Fälle unnötig zu verkomplizieren. In der Praxis hat sich gezeigt, dass bereits einfache Regelwerke oder ein ML-basierter Query-Klassifikator hier gute Dienste leisten.
Zweitens: Datenvorbereitung und -qualität. Die Qualität des Wissensgraphen ist entscheidend für den Erfolg. Vor der Integration sollte geprüft werden, ob die vorhandenen Daten genügend Substanz für GraphRAG hergeben. In manchen Domänen existieren bereits formale Knowledge Graphs (z. B. in der Pharmaforschung oder als Unternehmens-Wissensdatenbanken). Falls bereits ein gepflegter Wissensgraph vorliegt, kann GraphRAG direkt darauf aufsatteln – der Schritt der Graph-Konstruktion entfällt dann teilweise, es geht primär um dessen Nutzung im Retrieval [2]. Wo kein Graph vorhanden ist, sollte in einem Pilotprojekt zunächst die automatische Graph-Erstellung via LLM evaluiert werden. Wir empfehlen, mit einem begrenzten Datensatz zu starten und den erzeugten Graphen von Domänenexperten validieren zu lassen. Besonders die Extraktion von Entitäten und Relationen sollte an die Fachdomäne angepasst sein (ggf. durch Prompt-Engineering oder Feintuning des LLM), um irrelevante oder falsche Knoten zu minimieren. Etwaige vorhandene Ontologien oder Taxonomien des Unternehmens können dabei als Gerüst ins Prompting einfließen, um den Graphen auf bekannte Kategorien auszurichten. Kurz gesagt: Daten-Governance und Qualitätssicherung spielen in der Integrationsvorbereitung eine große Rolle.
Drittens: Technologieauswahl und Architektur-Anpassung. Die konkrete Umsetzung hängt von der bestehenden Infrastruktur ab. In SupraWorx fiel die Wahl auf eine skalierbare Graphdatenbank, die sowohl Graphabfragen als auch Vektorspeicherung unterstützt, um eine einheitliche Datenhaltung zu ermöglichen. Alternativ könnte man einen spezialisierten Vektor-Store neben einer klassischen Graphdatenbank wie Neo4j betreiben; dies erhöht jedoch die Komplexität und kann die Latenz steigern, da bei Anfragen zwei Systeme koordiniert werden müssen. Wichtig ist ferner die Einbettung ins Agenten-Framework: Moderne LLM-Agenturen (z. B. auf Basis von LangChain oder LlamaIndex) bieten bereits Bausteine für graphbasiertes Retrieval. So existieren Transformer, die KGs aus Text erstellen, und Tools, um Graph-Abfragen in Agenten-Chains zu integrieren. In SupraAgent wurde ein solcher GraphRetriever als Tool implementiert, den das LLM bei Bedarf ansteuern kann (analog zu einem Plugin). Dies fügt sich gut in das Konzept der kognitiven Architektur ein: Der GraphRAG-Retriever fungiert als externes Gedächtnis, das der Reasoning-Agent bei Bedarf konsultiert. Der Vorteil ist, dass das System erweiterbar bleibt – künftig könnten weitere Wissensquellen (z. B. Anbindung an eine RDF-Wissensdatenbank oder Websuche) als Tools ergänzt werden, ohne die GraphRAG-Integration zu beeinträchtigen.
Viertens: Betrieb, Monitoring und Wartung. Ein GraphRAG-System erfordert neue Überwachungs- und Wartungsroutinen. Da der Wissensgraph eine materialisierte Sicht auf das Wissen darstellt, muss er bei Datenaktualisierungen (neue Dokumente oder geänderte Fakten) zeitnah aktualisiert werden. Ein automatisierter Ingestion-Workflow mit Event-Triggern hat sich bewährt: Beim Eingang neuer Daten wird eine Teilindexierung für die betroffenen Knoten angestoßen und der Graph inkrementell erweitert. Weiterhin sollten die Systementscheidungen überwacht werden – z. B. via Logging, wann der Agent GraphRAG wählt und mit welchem Ergebnis. So können Fehlfälle analysiert werden (etwa wenn GraphRAG einmal irrelevante Communities auswählt). Das gewonnene Feedback kann in die Verbesserung der Auswahlstrategie einfließen, z. B. durch Feintuning der Ranking-Komponente, welche die relevantesten Graph-Communities für eine Query bestimmt. Außerdem sollten Kennzahlen wie Antwortzeit, Tokenverbrauch pro Anfrage und Nutzerfeedback erfasst werden, um den Mehrwert der Integration quantifizieren zu können.
Fünftens: Wann (nicht) GraphRAG? Zur Strategie gehört auch zu entscheiden, wann GraphRAG nicht der richtige Ansatz ist. Wenn die zugrunde liegenden Daten kaum komplexe Relationen aufweisen oder sehr klein und fokussiert sind, bringt der Graph-Overhead wenig Vorteil. Klassisches RAG oder sogar das LLM allein könnten in solchen Fällen genügen. Dann sollte man GraphRAG nur auf expliziten Wunsch aktivieren. In SupraAgent kann z. B. der Nutzer in einen „Deep Analysis Mode“ wechseln, der GraphRAG nutzt, während Standardfragen schnell mit den üblichen Mitteln beantwortet werden. Dieser adaptive Einsatz stellt sicher, dass GraphRAG gezielt dort greift, wo es wirklich Mehrwert bietet – nämlich bei vernetzten, mehrdeutigen oder stark zusammenfassungsbedürftigen Problemstellungen.
Unser Integrationsmotto lautet also: „Klein anfangen, groß denken.“ Zunächst sollte in einem eng abgesteckten Rahmen die Machbarkeit demonstriert werden (Pilotgraph für wenige Use Cases), dann erfolgt schrittweise der Ausbau und die Verknüpfung mit dem bestehenden Agenten, ohne dessen etablierte Fähigkeiten zu beeinträchtigen. Gleichzeitig sollten Organisationen in Human-in-the-loop-Mechanismen investieren: GraphRAG kann mächtige, aber mitunter komplexe Ausgaben erzeugen; Anwender müssen lernen, diese zu interpretieren und bei Unsicherheiten gezielt Nachfragen zu stellen oder Quellen einzusehen. Gelingt diese Integration, wird GraphRAG nicht als Fremdkörper, sondern als natürliche Erweiterung der kognitiven Architektur wahrgenommen – der Agent entwickelt sich vom reinen Q&A-System zum wissensgetriebenen Partner.
Fazit: Graph-Enhanced RAG (GraphRAG) hat sich in unserer Untersuchung als vielversprechende Erweiterung für LLM-basierte Agentensysteme wie SupraAgent erwiesen. Durch die geschickte Kombination von Vektor-Suche und Graph-Traversierung gelingt es GraphRAG, umfangreiche private Datensammlungen und komplex vernetzte Informationen effektiv zu erschließen. Das Konzept verbindet symbolische Wissensstrukturen mit den generativen Fähigkeiten moderner Sprachmodelle, um einen deutlichen Leistungszuwachs zu erzielen [2]. Innerhalb der SupraWorx-Plattform zeigte ein GraphRAG-Prototyp, dass der Agent nun auch abstrakte, bereichsübergreifende Fragen mit hoher Genauigkeit beantworten kann – etwas, woran herkömmliche RAG-Ansätze häufig scheitern. Die Architektur von GraphRAG in SupraAgent vereint modulare Erweiterbarkeit mit praxisgerechter Performance: Wissensgraphen und Community-Summaries erweitern das Agenten-“Gedächtnis”, ohne die Antwortzeiten unvertretbar zu erhöhen, da viel Vorverarbeitung offline geschieht.
Die vorliegenden Benchmarks zeigen eine signifikante Steigerung der Antwortqualität (bis zu ~80 % Verbesserung bei Vollständigkeit und Vielfalt) bei drastisch reduziertem Kontextbedarf [6]. Konkret kann ein GraphRAG-gestützter Agent ganzheitlichere und fundiertere Auskünfte geben – ein entscheidender Vorteil in Szenarien, in denen Vertrauen und Vollständigkeit kritische Anforderungen sind (etwa im medizinischen oder juristischen Bereich). Unsere Betrachtung exemplarischer Use Cases untermauert diesen Gewinn: Ob in der Fehlerdiagnose in der Industrie, der Analyse von Kundenfeedback oder der Unterstützung von Wissensarbeitern – GraphRAG liefert kontextreiche, vernetzte Antworten, wie sie mit klassischen Mitteln kaum erreichbar wären. Für die Forschung an kognitiven Architekturen illustriert dies, wie symbolische Strukturen (Graphen) und subsymbolische KI (LLMs) synergetisch zusammenwirken können, um eine Form von hybridem Schließen zu ermöglichen. Gleichzeitig haben wir herausgestellt, dass eine wohldurchdachte Integrationsstrategie unerlässlich ist. Der Übergang zu GraphRAG sollte schrittweise erfolgen, mit Fokus auf Datenqualität, automatisierter Indexpflege und intelligenter Orchestrierung zwischen neuen und alten Komponenten. So wird gewährleistet, dass GraphRAG die bestehende Lösung ergänzt, statt sie zu stören. Unternehmen sollten evaluieren, in welchen Prozessen der Zusatznutzen von GraphRAG den Mehraufwand rechtfertigt – dort jedoch kann er zum Game Changer werden, wie erste Anwendungen andeuten. Zusammengefasst lässt sich festhalten: GraphRAG erweitert die Grenzen dessen, was heutige KI-Agenten leisten können. Es verleiht SupraAgent eine größere kognitive Reichweite, indem es Informationen nicht nur abruft, sondern in Beziehung setzt und abstrahiert. Angesichts explodierender Datenmengen und wachsender Komplexität liefert GraphRAG einen Schlüsselbaustein, um KI-Systeme auf das nächste Level zu heben – hin zu umfassenderen, vernetzten und vertrauenswürdigen Problemlösern.
Literaturverzeichnis:
[1] Lewis, P. et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. Advances in Neural Information Processing Systems 33 (2020).
[2] Linders, J. & Tomczak, J. M. Knowledge graph-extended retrieval augmented generation for question answering. Applied Intelligence 55, 1102 (2025).
[3] Kurniawan, K., Kiesling, E. & Ekelhart, A. CyKG-RAG: Towards knowledge-graph enhanced retrieval augmented generation for cybersecurity. In Proc. RAGE-KG Workshop (ISWC 2024) (2024).
[4] Kang, M., Kwak, J. M., Baek, J. & Hwang, S. J. SURGE: Summarizing Retrieved Knowledge Graph Evidence. In Proc. EMNLP 2023 (2023).
[5] Baek, J., Aji, A. F. & Saffari, A. Knowledge-Augmented Language Model Prompting for Zero-Shot Knowledge Graph Question Answering. In Proc. 1st Workshop on Natural Language Reasoning and Structured Explanations (ACL 2023), 78–106 (2023).
[6] He, X. et al. G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering. Adv. Neural Inf. Process. Syst. 37 (2024).
[7] Xu, Z. et al. Retrieval-Augmented Generation with Knowledge Graphs for Customer Service Question Answering. In Proc. SIGIR 2024, 2905–2909 (2024).
Die rasanten Fortschritte bei LLMs haben völlig neue Möglichkeiten für wissensintensive KI-Anwendungen eröffnet. Allerdings stoßen selbst die größten vortrainierten Modelle an Grenzen, wenn Fakten abgerufen werden sollen, die nicht in ihren Parametern gespeichert sind, oder wenn über unbekannte Datensätze generelle Fragen beantwortet werden sollen [2]. Um LLMs gezielt mit externem Wissen zu versorgen, hat sich das Konzept des Retrieval-Augmented Generation etabliert [1]: Zu einer Nutzeranfrage werden relevante externe Dokumentpassagen gesucht (typischerweise per semantischer Vektorsuche) und dem Modell als Kontext beigefügt, damit die Antwort faktengestützt und aktuell ausfällt. Dieses Verfahren verbessert nachweislich die Spezifität und Faktentreue generierter Antworten gegenüber rein LLM-basierten Antworten [1]. Klassische RAG-Pipelines, die Top-n Textpassagen einblenden, stoßen jedoch an Grenzen, wenn „globale“ Fragen gestellt werden, die eine umfassende Synthese über verteilte Informationen erfordern. Es fällt dem System schwer, „die Punkte zu verbinden“, wenn wichtige Fakten über viele Dokumente verstreut sind [3]. Insbesondere reicht das bloße Auffinden von ein paar relevanten Absätzen oft nicht aus, um eine allumfassende, vernetzte Antwort zu generieren. Hier setzt GraphRAG an – ein Ansatz, der RAG durch wissensgraphbasierte Retrieval- und Summarisierungsverfahren erweitert. Die Kernidee von GraphRAG besteht darin, zunächst einen Wissensgraphen aus den Quelltexten zu erzeugen (mit Knoten für Entitäten/Begriffe und Kanten für Relationen) und diesen Graphen in thematische Communities zu unterteilen, für die vorab Zusammenfassungen erstellt werden [3]. Bei einer Benutzeranfrage werden dann nicht nur per Vektorähnlichkeit einzelne Textstellen gesucht, sondern gezielt der Graph nach relevanten Bereichen durchquert, um verknüpfte Teilinformationen abzurufen. Anschließend generiert das LLM Teilantworten pro Community und fasst diese zu einer Gesamtantwort zusammen. Ähnliche graph-augmentierte Frameworks wurden jüngst auch in anderen Kontexten vorgestellt – etwa zur subgraph-basierten Wissensvermittlung in Dialogsystemen [4] oder zum Zero-Shot-Beantworten von Wissensgraph-Fragen mittels Prompting [5]. GraphRAG zeichnet sich jedoch dadurch aus, dass es eine hierarchische Graph-Struktur des gesamten Korpus nutzt, um auch bereichsübergreifende, abstrakte Fragen beantworten zu können.
Für die Integration von GraphRAG in SupraAgent/SupraWorx wurde die klassische RAG-Pipeline um Module für Wissensgraph-Erstellung und graphbasiertes Retrieval erweitert. Dateningestion und Vorverarbeitung: Eingehende Dokumente (z. B. Berichte, Handbücher, E-Mails) werden zunächst in handhabbare Textsegmente zerlegt. Parallel dazu wird mit Hilfe eines LLM ein Wissensgraph aus dem Text extrahiert, indem wichtige Entitäten (Personen, Orte, Fachbegriffe) und ihre Beziehungen identifiziert werden. Technisch erfolgt dies durch Prompting des LLM, das die Entitäten und Relationen aus dem Text „herausliest“. Die extrahierten Graph-Strukturen werden in einer Graph-Datenbank gespeichert. Gleichzeitig werden die Textsegmente vektorisiert und in einem Embedding-Index abgelegt. Diese duale Indexierung – aus Vektor- und Graphdatenbank – bildet die Wissensbasis des Agenten. Community Detection und Summaries: Auf dem Wissensgraphen wird anschließend ein Community-Detection-Algorithmus (z. B. Leiden- oder Louvain-Modularitätsalgorithmus) ausgeführt, der die Graph-Knoten in Cluster hochgradig zusammenhängender Konzepte gruppiert. Jede solche Community repräsentiert ein thematisches Teilgebiet des Gesamtwissens. Für jede Community wird vorab mittels LLM eine Zusammenfassung generiert (eine „Community Summary“), indem die Inhalte der Knoten und ihrer Verknüpfungen verdichtet werden. Gegebenenfalls erfolgt dies hierarchisch: bei sehr großen Graphen können zunächst Sub-Communities zusammengefasst und diese Teilsummaries dann wiederum zu einer höherstufigen Zusammenfassung kombiniert werden. Durch diese mehrstufige Summarisierung liegt letztlich auch ein sehr großer Korpus in kompakter Form als mehrschichtiger Wissensindex aus Graphstruktur + Community-Zusammenfassungen vor. Wichtig ist, dass dieser Indexierungsprozess vorgelagert (offline) und rechenintensiv erfolgt, um nachfolgend schnelle Abfragen zur Laufzeit zu ermöglichen. Anfrageverarbeitung und Graph-augmented Retrieval: Geht nun eine Benutzeranfrage im SupraAgent ein (z. B. über das Chatbot-Interface), entscheidet die Architektur dynamisch, welchen Retrieval-Pfad sie einschlägt. Punktuelle Faktanfragen (etwa „Wann wurde Projekt X gestartet?“) können weiterhin effizient durch reine Vektorähnlichkeitssuche in den Dokumenten beantwortet werden – dieser klassische RAG-Weg bleibt als Fallback bestehen. Komplexere, globale Fragen, die breitere Zusammenhänge erfordern, werden dagegen dem GraphRAG-Pfad zugeleitet. In diesem Fall durchläuft die Anfrage zunächst eine semantische Suche auf dem Graphindex: Die Query wird als Vektor mit den in den Graph-Knoten hinterlegten Embeddings verglichen, um relevante Regionen im Wissensgraphen zu finden.
Anschließend erfolgt eine Graph-Traversierung: ausgehend von den bestpassenden Knoten werden die zugehörigen Teilgraphen (Communities) geladen. Auf diese Weise identifiziert das System alle thematischen Gruppen im Graph, die zur Beantwortung der Frage beitragen könnten. Antwortgenerierung: Für jede identifizierte Community ruft SupraAgent nun die gespeicherte Community Summary ab. Diese fasst die Kernaussagen der entsprechenden Community bereits zusammen und dient als fokussierter Kontext. Das LLM erhält dann die Benutzerfrage zusammen mit der Community-Zusammenfassung als Prompt und generiert daraufhin eine Teilantwort, welche die Perspektive dieser Community abdeckt. Da diese Teilantworten unabhängig und parallel erzeugt werden können, lässt sich die Konkurrenz mehrerer Instanzen nutzen, um die Latenz gering zu halten. Abschließend werden alle Teilantworten gesammelt und in einem letzten Schritt zu einer Gesamtantwort zusammengeführt. Dieses finale, query-fokussierte Summarization-Prompt fasst also die verschiedenen Aspekte zusammen; die konsolidierte Antwort wird dem Nutzer präsentiert – in der Regel angereichert mit Quellenhinweisen oder Graph-Ausschnitten zur Nachvollziehbarkeit. GraphRAG fungiert auf diese Weise als eine Art „gedächtnisgestütztes Denken“ für den Agenten: Anstatt nur auf isolierte Textschnipsel zu schauen, kann SupraAgent dank des Graph-Indexes Assoziationen herstellen und übergreifende Einsichten gewinnen. Architektonisch wurden dafür in SupraWorx neue Komponenten integriert, u. a. ein Graphdatenbank-Connector, Anpassungen in der Orchestrierungsschicht des Agenten (um dynamisch zwischen RAG- und GraphRAG-Pfaden zu verzweigen) und eine Erweiterung des Prompt-Managements für die mehrstufige Generierung. Die GraphRAG-Module sind dabei weitgehend entkoppelt implementiert, sodass sie bei Bedarf auch deaktiviert oder nur für bestimmte Agenten-Rollen aktiviert werden können. Dieses modulare Design erleichtert die schrittweise Integration in bereits bestehende kognitive Architekturen.
Um die Effizienz und Präzision von GraphRAG innerhalb von SupraAgent zu bewerten, ziehen wir sowohl Befunde aus der Literatur als auch interne Tests heran. Im Fokus steht zum einen die Antwortqualität (insbesondere Vollständigkeit und Korrektheit der Antworten), zum anderen die Ressourceneffizienz (z. B. Kontext-Fenstergröße, Rechenaufwand). Antwortqualität – Abdeckung und Diversität: GraphRAG zeigt in vergleichenden Studien eine deutlich höhere Abdeckung relevanter Aspekte bei komplexen Anfragen als herkömmliches RAG. So berichtet eine aktuelle Untersuchung, dass eine graphbasierte RAG-Variante eine um über 30 % höhere Antwortqualität erzielte als ein Prompt-Tuning-Baseline-System [6]. Ebenso erreichen GraphRAG-gestützte Antworten oft eine größere inhaltliche Vielfalt, da verschiedene Facetten der Frage abgedeckt werden, während eine rein dokumentenzentrierte Antwort wichtige Punkte eher auslässt. Xu et al. zeigen beispielsweise, dass die Einbindung eines Wissensgraphen in ein Frage-Antwort-System für Kundensupport zu höherer Antwortgenauigkeit führt als RAG ohne Graph [7]. Präzision und Halluzinationen: Ein weiterer Effekt der Graph-Struktur ist die verbesserte Nachvollziehbarkeit. Jeder Knoten und jede Kante im Wissensgraphen kann letztlich auf einen Beleg im Quelltext zurückgeführt werden, was prinzipiell ermöglicht, generierte Aussagen bis zur Ursprungstelle zu verfolgen. Durch die Verwendung von Community-Zusammenfassungen, die auf realen Textinhalten basieren, verringert sich zudem die Gefahr von freien Halluzinationen – das Graph-Gerüst wirkt als inhaltliche Leitplanke. Tatsächlich lassen Experimente darauf schließen, dass GraphRAG die Tendenz zu halluzinatorischen Antworten reduziert; beispielsweise zeigte das G-Retriever-System eine 54 % geringere Rate an halluzinierten Inhalten im Vergleich zu einem LLM-Baseline-Ansatz [6]. Unsere eigenen Tests deuten darauf hin, dass GraphRAG-Antworten zwar gelegentlich etwas ausführlicher oder kontextueller eingeleitet sind als knappe RAG-Antworten, aber hinsichtlich Faktentreue und Korrektheit nicht nachstehen. Entscheidend ist allerdings die Qualität des extrahierten Graphen: Fehlende oder fehlerhafte Relationen im Wissensgraph können Lücken in der generierten Antwort verursachen – ein Aspekt, auf den wir im Ausblick noch eingehen. Effizienz – Kontextfenster und Kosten: Ein wesentlicher Vorteil von GraphRAG ist die deutlich effizientere Nutzung des begrenzten LLM-Kontextfensters. Anstatt lange, flache Textketten in den Prompt laden zu müssen, kann GraphRAG mit vorgefertigten, verdichteten Community-Summaries operieren. Durch die Nutzung dieser Zusammenfassungen anstelle der Originaltexte lassen sich in unseren Experimenten drastische Einsparungen beim Prompt-Umfang erzielen (teilweise um ein bis zwei Größenordnungen), ohne spürbaren Verlust an Antwortqualität. Mit anderen Worten: GraphRAG kann sehr große Wissensbasen skalierbar erschließen, da das System auch bei umfangreichen Korpora iteratives Question-Answering betreiben kann, ohne ständig an die Grenzen des Kontextfensters zu stoßen. Dieser Gewinn ist natürlich nicht kostenlos: Die vorgelagerte Indexierung (Graph-Erstellung und Summarisierung) ist rechen- und zeitintensiv. Diese einmalige Investition amortisiert sich jedoch bei häufiger Nutzung der Wissensbasis, zumal Anfragen selbst parallelisiert auf Teilgraphen bearbeitet werden können. In unserer SupraWorx-Umgebung konnten wir beobachten, dass die Antwortlatenz für komplexe Analysten-Fragen trotz breiterer Abdeckung in einem akzeptablen Rahmen blieb – die Antwortzeiten stiegen nur moderat gegenüber einer einfachen Vektor-Retrieval-Suche, da viele Verarbeitungsschritte bereits vorab erledigt worden waren.
Mangels etablierter Benchmark-Datensätze für „globale“ Agenten-Fragen haben wir uns bei der Evaluation an experimentellen Setups aus der Literatur orientiert. Unter anderem lassen sich simulierte Nutzerfragen an umfangreiche Nachrichtendaten oder Transkript-Sammlungen stellen und die Antworten von einem LLM-Jurymodell (z. B. GPT-4) nach bestimmten Kriterien bewerten. Ein derartiger Ansatz wurde von Edge et al. (2024) für Query-zentrierte Summaries vorgeschlagen; wir haben ein ähnliches Verfahren in kleinerem Maßstab mit firmeninternen Wissensdokumenten (Projektberichte, Handbücher) pilotiert. Die Resultate stimmen qualitativ mit den publizierten Beobachtungen überein: GraphRAG-basierte Antworten enthalten in deutlich höherem Maße alle relevanten Punkte einer Frage und stellen Querverbindungen her, während das klassische RAG wichtige Aspekte mitunter übersieht. Diese ersten Benchmarks untermauern den Mehrwert von GraphRAG insbesondere für komplexe, bereichsübergreifende Abfragen. Sie zeigen aber auch, dass die erzielte Güte stark von der Richtigkeit und Vollständigkeit der Graph-Extraktion abhängt – ein Punkt, den wir im Rahmen der Integrationsstrategie und Grenzen diskutieren.
Die Kombination aus Wissensgraph und LLM eröffnet neue Anwendungsszenarien in unterschiedlichen Branchen. Wissensmanagement und Discovery: Große Organisationen verfügen oft über Terabytes an Dokumenten, Berichten und E-Mails. Ein GraphRAG-gestützter Agent kann diesen „Datenschatz“ interaktiv nutzbar machen. So ließen sich z. B. über GraphRAG globale Themen und Muster aus einer Sammlung von Support-Tickets oder Forschungsberichten extrahieren. Fragt ein Manager etwa „Welche übergreifenden Probleme treten in unseren Kundenbeschwerden im ersten Quartal auf?“, würde SupraAgent zunächst einen Wissensgraphen aus allen Tickets aufbauen, Hauptthemen (Communities) erkennen und zu jedem eine aggregierte Antwort generieren. Dies geht über eine einfache FAQ-Beantwortung hinaus und unterstützt strategische Entscheidungen (Wissensmanagement, Produktverbesserung), da der Agent versteckte Muster aufdeckt. Die gelieferten Antworten sind dabei kontextreich und mit Querverweisen versehen, was das Vertrauen der Anwender in die KI stärkt.
Entscheidungsunterstützung in Medizin und Finanzen: In wissensintensiven Bereichen wie dem Gesundheitswesen oder der Finanzanalyse ist oft ein 360°-Blick auf verteilte Informationen gefragt. Ein GraphRAG-Agent im Klinikbetrieb könnte z. B. Patientendaten, Forschungsartikel, Arzneimittel-Datenbanken und Behandlungsleitlinien in einem Wissensgraph integrieren. Fragt ein Arzt: „Welche Therapieempfehlungen ergeben sich für Patient X mit Symptom Y unter Medikament Z?“, so durchsucht der Agent graphbasiert Krankheitsbilder, aktuelle Studien und mögliche Wechselwirkungen. Die Antwort würde evidenzbasiert ausfallen – etwa den vorliegenden Fall mit ähnlichen publizierten Fällen verknüpfen und auf potenzielle Risiken oder bewährte Therapien hinweisen. Ähnlich im Finanzsektor: Analysten könnten fragen „Wie beeinflussen politische Ereignisse unser Investment-Portfolio?“. Der Graph verknüpft News, Marktindikatoren, Unternehmen und Ereignisse; die generierte Antwort könnte z. B. Lieferketten-Abhängigkeiten oder Risiko-Netzwerke aufzeigen, die aus der Verknüpfung der Informationen hervorgehen. In beiden Domänen liefert GraphRAG tiefere Einsichten im Vergleich zu isolierten Abfragen, weil es dispergierte Informationen vernetzt und kontextualisiert. Rechtsrecherche und Compliance: Juristische Analysen erfordern das Abwägen vielfältiger Präzedenzfälle und Normen. Ein SupraAgent für Legal Tech könnte Gerichtsurteile, Gesetzestexte und Fachkommentare als Graph repräsentieren. Auf die Frage „Welche früheren Urteile stützen Argument A in Fall B?“ traversiert GraphRAG relevante Präzedenzfälle, findet verknüpfte Urteile mit ähnlicher Argumentation und liefert eine Antwort mit Verweisen auf diese Entscheidungen. Dabei kann der Agent auch Gegenargumente oder Ausnahmen aufzeigen, indem er Beziehungen zwischen Konzepten (z. B. Gesetzesparagraphen und Auslegungen) im Graph verfolgt. Für Compliance-Fragen (etwa zu regulatorischen Änderungen) lassen sich auf einen Blick vernetzte Auswirkungen erkennen. So ermöglicht GraphRAG im Rechtswesen eine schnellere, gründlichere Recherche, indem es die komplexe Wissenslandschaft durchdringt und strukturiert aufbereitet. Produktion und Fehlersuche: In technischen Betrieben liegen Handbücher, Schaltpläne und Wartungsprotokolle oft als isolierte Dokumente vor. Ein GraphRAG-Agent kann dieses verteilte Wissen in Form eines Anlagen-Wissensgraphen modellieren. Tritt eine Störung auf, könnte ein Techniker den Agenten fragen: „Was könnten Ursachen für Fehlercode 123 sein und wie behebe ich sie?“. Der Agent traversiert den Graphen vom Fehlercode aus zu den beteiligten Komponenten, früheren Vorfällen, Problemlösungen und Ersatzteillisten und generiert daraus eine Schritt-für-Schritt-Empfehlung zur Fehlerbehebung. Wichtig ist: GraphRAG erkennt ähnlich wie ein menschlicher Experte Ursache-Wirkung-Ketten – etwa dass ein defekter Sensor X in Baugruppe Y zu Fehlercode 123 führen kann – basierend auf den relationalen Daten im Graphen. Die Antwort käme mit Belegen (Verweisen auf relevante Handbuch-Abschnitte) und ggf. einer Einschätzung der Ausfallzeit (weil der Graph z. B. Lagerbestände oder Lieferzeiten der Komponente enthält). Dieses Beispiel zeigt, wie GraphRAG implizites Expertenwissen explizit machen und so Ausfallzeiten verkürzen kann – ein konkreter Mehrwert in der operativen Automatisierung.
Zusammenfassend steigert GraphRAG in all diesen Anwendungsfällen sowohl die inhaltliche Tiefe der Antworten (durch Abdeckung mehrerer Aspekte) als auch deren Glaubwürdigkeit (durch nachvollziehbare Herleitungen mit Quellen). Besonders in Szenarien, die von verteilt vorliegendem Wissen und komplexen Abhängigkeiten geprägt sind, wird der Nutzen deutlich. Für KI-Systemforscher und Automatisierungsexperten zeigt sich hier, dass GraphRAG ein mächtiges Werkzeug ist, um kognitive Systeme robuster und „intelligenter“ zu machen.
Die Einführung von GraphRAG in eine bestehende Agentenarchitektur erfordert eine durchdachte Integrationsstrategie, um einen nahtlosen Übergang sicherzustellen. Aus unseren Erfahrungen mit SupraAgent/SupraWorx und basierend auf dem Stand der Technik lassen sich folgende Leitlinien ableiten:
Erstens: Schrittweise Einführung und Hybridbetrieb. Da GraphRAG gegenüber klassischem RAG zusätzliche Indexierung und Infrastruktur benötigt, empfehlen wir einen iterativen Integrationsansatz. In SupraWorx wurde GraphRAG zunächst als optionale Komponente implementiert, die je nach Anfragetyp zugeschaltet wird. Praktikabel ist es, den Agenten pro Anfrage eine Heuristik anwenden zu lassen: Handelt es sich um eine fokussierte Faktanfrage, nutzt er weiterhin den etablierten Vektor-Retrieval-Ansatz (geringe Latenz, ausreichende Genauigkeit). Erkennen wir jedoch eine umfassende oder relationale Frage (etwa Schlagwörter deuten auf breite Themen, Vergleiche oder Formulierungen wie „Wie hängt X mit Y zusammen?“), schwenkt der Agent auf den GraphRAG-Pfad um. Dieser Hybridbetrieb stellt sicher, dass GraphRAG dort zum Einsatz kommt, wo es nötig ist, ohne triviale Fälle unnötig zu verkomplizieren. In der Praxis hat sich gezeigt, dass bereits einfache Regelwerke oder ein ML-basierter Query-Klassifikator hier gute Dienste leisten.
Zweitens: Datenvorbereitung und -qualität. Die Qualität des Wissensgraphen ist entscheidend für den Erfolg. Vor der Integration sollte geprüft werden, ob die vorhandenen Daten genügend Substanz für GraphRAG hergeben. In manchen Domänen existieren bereits formale Knowledge Graphs (z. B. in der Pharmaforschung oder als Unternehmens-Wissensdatenbanken). Falls bereits ein gepflegter Wissensgraph vorliegt, kann GraphRAG direkt darauf aufsatteln – der Schritt der Graph-Konstruktion entfällt dann teilweise, es geht primär um dessen Nutzung im Retrieval [2]. Wo kein Graph vorhanden ist, sollte in einem Pilotprojekt zunächst die automatische Graph-Erstellung via LLM evaluiert werden. Wir empfehlen, mit einem begrenzten Datensatz zu starten und den erzeugten Graphen von Domänenexperten validieren zu lassen. Besonders die Extraktion von Entitäten und Relationen sollte an die Fachdomäne angepasst sein (ggf. durch Prompt-Engineering oder Feintuning des LLM), um irrelevante oder falsche Knoten zu minimieren. Etwaige vorhandene Ontologien oder Taxonomien des Unternehmens können dabei als Gerüst ins Prompting einfließen, um den Graphen auf bekannte Kategorien auszurichten. Kurz gesagt: Daten-Governance und Qualitätssicherung spielen in der Integrationsvorbereitung eine große Rolle.
Drittens: Technologieauswahl und Architektur-Anpassung. Die konkrete Umsetzung hängt von der bestehenden Infrastruktur ab. In SupraWorx fiel die Wahl auf eine skalierbare Graphdatenbank, die sowohl Graphabfragen als auch Vektorspeicherung unterstützt, um eine einheitliche Datenhaltung zu ermöglichen. Alternativ könnte man einen spezialisierten Vektor-Store neben einer klassischen Graphdatenbank wie Neo4j betreiben; dies erhöht jedoch die Komplexität und kann die Latenz steigern, da bei Anfragen zwei Systeme koordiniert werden müssen. Wichtig ist ferner die Einbettung ins Agenten-Framework: Moderne LLM-Agenturen (z. B. auf Basis von LangChain oder LlamaIndex) bieten bereits Bausteine für graphbasiertes Retrieval. So existieren Transformer, die KGs aus Text erstellen, und Tools, um Graph-Abfragen in Agenten-Chains zu integrieren. In SupraAgent wurde ein solcher GraphRetriever als Tool implementiert, den das LLM bei Bedarf ansteuern kann (analog zu einem Plugin). Dies fügt sich gut in das Konzept der kognitiven Architektur ein: Der GraphRAG-Retriever fungiert als externes Gedächtnis, das der Reasoning-Agent bei Bedarf konsultiert. Der Vorteil ist, dass das System erweiterbar bleibt – künftig könnten weitere Wissensquellen (z. B. Anbindung an eine RDF-Wissensdatenbank oder Websuche) als Tools ergänzt werden, ohne die GraphRAG-Integration zu beeinträchtigen.
Viertens: Betrieb, Monitoring und Wartung. Ein GraphRAG-System erfordert neue Überwachungs- und Wartungsroutinen. Da der Wissensgraph eine materialisierte Sicht auf das Wissen darstellt, muss er bei Datenaktualisierungen (neue Dokumente oder geänderte Fakten) zeitnah aktualisiert werden. Ein automatisierter Ingestion-Workflow mit Event-Triggern hat sich bewährt: Beim Eingang neuer Daten wird eine Teilindexierung für die betroffenen Knoten angestoßen und der Graph inkrementell erweitert. Weiterhin sollten die Systementscheidungen überwacht werden – z. B. via Logging, wann der Agent GraphRAG wählt und mit welchem Ergebnis. So können Fehlfälle analysiert werden (etwa wenn GraphRAG einmal irrelevante Communities auswählt). Das gewonnene Feedback kann in die Verbesserung der Auswahlstrategie einfließen, z. B. durch Feintuning der Ranking-Komponente, welche die relevantesten Graph-Communities für eine Query bestimmt. Außerdem sollten Kennzahlen wie Antwortzeit, Tokenverbrauch pro Anfrage und Nutzerfeedback erfasst werden, um den Mehrwert der Integration quantifizieren zu können.
Fünftens: Wann (nicht) GraphRAG? Zur Strategie gehört auch zu entscheiden, wann GraphRAG nicht der richtige Ansatz ist. Wenn die zugrunde liegenden Daten kaum komplexe Relationen aufweisen oder sehr klein und fokussiert sind, bringt der Graph-Overhead wenig Vorteil. Klassisches RAG oder sogar das LLM allein könnten in solchen Fällen genügen. Dann sollte man GraphRAG nur auf expliziten Wunsch aktivieren. In SupraAgent kann z. B. der Nutzer in einen „Deep Analysis Mode“ wechseln, der GraphRAG nutzt, während Standardfragen schnell mit den üblichen Mitteln beantwortet werden. Dieser adaptive Einsatz stellt sicher, dass GraphRAG gezielt dort greift, wo es wirklich Mehrwert bietet – nämlich bei vernetzten, mehrdeutigen oder stark zusammenfassungsbedürftigen Problemstellungen.
Unser Integrationsmotto lautet also: „Klein anfangen, groß denken.“ Zunächst sollte in einem eng abgesteckten Rahmen die Machbarkeit demonstriert werden (Pilotgraph für wenige Use Cases), dann erfolgt schrittweise der Ausbau und die Verknüpfung mit dem bestehenden Agenten, ohne dessen etablierte Fähigkeiten zu beeinträchtigen. Gleichzeitig sollten Organisationen in Human-in-the-loop-Mechanismen investieren: GraphRAG kann mächtige, aber mitunter komplexe Ausgaben erzeugen; Anwender müssen lernen, diese zu interpretieren und bei Unsicherheiten gezielt Nachfragen zu stellen oder Quellen einzusehen. Gelingt diese Integration, wird GraphRAG nicht als Fremdkörper, sondern als natürliche Erweiterung der kognitiven Architektur wahrgenommen – der Agent entwickelt sich vom reinen Q&A-System zum wissensgetriebenen Partner.
Fazit: Graph-Enhanced RAG (GraphRAG) hat sich in unserer Untersuchung als vielversprechende Erweiterung für LLM-basierte Agentensysteme wie SupraAgent erwiesen. Durch die geschickte Kombination von Vektor-Suche und Graph-Traversierung gelingt es GraphRAG, umfangreiche private Datensammlungen und komplex vernetzte Informationen effektiv zu erschließen. Das Konzept verbindet symbolische Wissensstrukturen mit den generativen Fähigkeiten moderner Sprachmodelle, um einen deutlichen Leistungszuwachs zu erzielen [2]. Innerhalb der SupraWorx-Plattform zeigte ein GraphRAG-Prototyp, dass der Agent nun auch abstrakte, bereichsübergreifende Fragen mit hoher Genauigkeit beantworten kann – etwas, woran herkömmliche RAG-Ansätze häufig scheitern. Die Architektur von GraphRAG in SupraAgent vereint modulare Erweiterbarkeit mit praxisgerechter Performance: Wissensgraphen und Community-Summaries erweitern das Agenten-“Gedächtnis”, ohne die Antwortzeiten unvertretbar zu erhöhen, da viel Vorverarbeitung offline geschieht.
Die vorliegenden Benchmarks zeigen eine signifikante Steigerung der Antwortqualität (bis zu ~80 % Verbesserung bei Vollständigkeit und Vielfalt) bei drastisch reduziertem Kontextbedarf [6]. Konkret kann ein GraphRAG-gestützter Agent ganzheitlichere und fundiertere Auskünfte geben – ein entscheidender Vorteil in Szenarien, in denen Vertrauen und Vollständigkeit kritische Anforderungen sind (etwa im medizinischen oder juristischen Bereich). Unsere Betrachtung exemplarischer Use Cases untermauert diesen Gewinn: Ob in der Fehlerdiagnose in der Industrie, der Analyse von Kundenfeedback oder der Unterstützung von Wissensarbeitern – GraphRAG liefert kontextreiche, vernetzte Antworten, wie sie mit klassischen Mitteln kaum erreichbar wären. Für die Forschung an kognitiven Architekturen illustriert dies, wie symbolische Strukturen (Graphen) und subsymbolische KI (LLMs) synergetisch zusammenwirken können, um eine Form von hybridem Schließen zu ermöglichen. Gleichzeitig haben wir herausgestellt, dass eine wohldurchdachte Integrationsstrategie unerlässlich ist. Der Übergang zu GraphRAG sollte schrittweise erfolgen, mit Fokus auf Datenqualität, automatisierter Indexpflege und intelligenter Orchestrierung zwischen neuen und alten Komponenten. So wird gewährleistet, dass GraphRAG die bestehende Lösung ergänzt, statt sie zu stören. Unternehmen sollten evaluieren, in welchen Prozessen der Zusatznutzen von GraphRAG den Mehraufwand rechtfertigt – dort jedoch kann er zum Game Changer werden, wie erste Anwendungen andeuten. Zusammengefasst lässt sich festhalten: GraphRAG erweitert die Grenzen dessen, was heutige KI-Agenten leisten können. Es verleiht SupraAgent eine größere kognitive Reichweite, indem es Informationen nicht nur abruft, sondern in Beziehung setzt und abstrahiert. Angesichts explodierender Datenmengen und wachsender Komplexität liefert GraphRAG einen Schlüsselbaustein, um KI-Systeme auf das nächste Level zu heben – hin zu umfassenderen, vernetzten und vertrauenswürdigen Problemlösern.
Literaturverzeichnis:
[1] Lewis, P. et al. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. Advances in Neural Information Processing Systems 33 (2020).
[2] Linders, J. & Tomczak, J. M. Knowledge graph-extended retrieval augmented generation for question answering. Applied Intelligence 55, 1102 (2025).
[3] Kurniawan, K., Kiesling, E. & Ekelhart, A. CyKG-RAG: Towards knowledge-graph enhanced retrieval augmented generation for cybersecurity. In Proc. RAGE-KG Workshop (ISWC 2024) (2024).
[4] Kang, M., Kwak, J. M., Baek, J. & Hwang, S. J. SURGE: Summarizing Retrieved Knowledge Graph Evidence. In Proc. EMNLP 2023 (2023).
[5] Baek, J., Aji, A. F. & Saffari, A. Knowledge-Augmented Language Model Prompting for Zero-Shot Knowledge Graph Question Answering. In Proc. 1st Workshop on Natural Language Reasoning and Structured Explanations (ACL 2023), 78–106 (2023).
[6] He, X. et al. G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering. Adv. Neural Inf. Process. Syst. 37 (2024).
[7] Xu, Z. et al. Retrieval-Augmented Generation with Knowledge Graphs for Customer Service Question Answering. In Proc. SIGIR 2024, 2905–2909 (2024).
Schreib den ersten Kommentar!
Melde dich mit deinem Account an oder fülle die unteren Felder aus.
Bitte beachten Sie unsere Community-Richtlinien


