Zurück zum Blog
AI Automation2026-04-0710 min read

4 Techniken gegen Halluzinationen von AI-Agenten — Graph-RAG, Semantic Tool Selection, Neurosymbolic Guardrails

AWS hat vier spezifische Wege dokumentiert, wie Agents bei der Aufgabenausführung halluzinieren. Sie erfinden Statistiken. Sie wählen falsche Tools. Sie ignorieren Geschäftsregeln. Sie melden Erfolg, wenn Operationen tatsächlich fehlschlagen. Dev.to/AWS hat vier spezifische Techniken dokumentiert, die jeden Fehlermodus adressieren. Dieser Blog ist der technische Practitioner-Guide für jeden einzelnen: was er verhindert, wie er funktioniert und wann man ihn einsetzt.

Hallucination Defenses sind keine Theorie. Das sind production-proven Techniken, die den Blast Radius so weit reduzieren, dass Agents bedenkenlos für reale Geschäftsaufgaben eingesetzt werden können.


Die vier Fehlermodi und was sie adressiert

Bevor wir zu den Techniken kommen, erst die Fehlermodi, die sie adressieren sollen.

Erfindung von Statistiken — der Agent erfindet Zahlen, Daten und Fakten aus seinen Trainingsdaten, anstatt aus dem tatsächlichen Zustand der Welt. Was dagegen hilft: Graph-RAG.

Falsche Tool-Auswahl — der Agent wählt das falsche Tool für die Aufgabe oder ruft ein Tool mit falschen Parametern auf. Was dagegen hilft: Semantic Tool Selection.

Missachtung von Geschäftsregeln — der Agent führt eine Aktion aus, die eine Policy, Regulierung oder Geschäftsregel verletzt, weil er darauf trainiert ist, hilfreich zu sein, und Constraints umgeht. Was dagegen hilft: Neurosymbolic Guardrails.

Erfolgsmeldung bei fehlgeschlagenen Operationen — der Agent meldet eine abgeschlossene Aufgabe, obwohl die zugrunde liegende Operation tatsächlich fehlgeschlagen ist. Was dagegen hilft: Multi-Agent Validation.


Technik 1: Graph-RAG für präzise Datenabfrage

Standard-RAG holt Dokumente aus einer Vector Database. Der Agent synthetisiert aus den abgerufenen Chunks. Das Problem: abgerufene Chunks können falsch, veraltet oder widersprüchlich sein. Der Agent synthetisiert aus unvollständigem Kontext und produziert eine halluzinierte, plausibel klingende Ausgabe.

Graph-RAG verändert die Retrieval-Architektur. Statt rohe Textchunks abzurufen, fragt der Agent einen strukturierten Knowledge Graph ab, in dem Entities, Relationships und Fakten explizit als Nodes und Edges repräsentiert sind. Der Agent fragt „Was ist Acme Corps Rückerstattungsrichtlinie?" und bekommt eine strukturierte, verifizierte Antwort aus dem Graph — statt eines Absatzes, der Fehler enthalten könnte.

Die praktische Implementierung: Neo4j oder Amazon Neptune als Graph Database, LangChain oder LlamaIndex als Graph-RAG Implementation Layer. Der Agent fragt über eine strukturierte Query Language wie Cypher ab.

Wann Graph-RAG einsetzen: wenn Faktenakkuratheit nicht verhandelbar ist — für Finanzdaten, Produkt-Specs, rechtliche Policies oder alles, wo eine falsche Antwort reale Konsequenzen hat. Wenn du strukturierte Daten hast, die als Graph repräsentiert werden können.

Wann nicht Graph-RAG einsetzen: wenn kreative Synthese das Ziel ist. Schreiben und Brainstorming erfordern, dass das Model generiert statt abruft. Wenn der Knowledge Graph unvollständig ist, treffen Agents auf leere Nodes und fallen auf ihre Weights zurück.

Was Graph-RAG verhindert: erfundene Statistiken in Berichten, falsche Produktinformationen in Kundenkommunikation, erfundene Policy-Details in Support-Antworten.


Technik 2: Semantic Tool Selection

Agents haben eine Tool-Liste und können jedes Tool in ihrem Toolkit aufrufen. Das Model wählt Tools basierend auf semantischer Ähnlichkeit zwischen Task und Tool-Beschreibung. Das Problem: das Model könnte ein semantisch ähnliches, aber kontextuell falsches Tool wählen. Der Agent will eine Nachricht senden und wählt die falsche Messaging API, weil beide „send" in der Beschreibung haben.

Semantic Tool Selection fügt einen Verifizierungsschritt hinzu. Bevor ein Tool aufgerufen wird, verifiziert der Agent, dass das Input- und Output-Schema des Tools für den spezifischen Task korrekt ist. Statt sich nur auf das Urteil des Models zu verlassen, wird Tool Selection zu einem strukturierten Retrieval-Problem.

Der Strands Agents Implementation Approach: Tool Schemas werden mit expliziten Input/Output-Definitionen strukturiert. Der Agent generiert, was er als Tool-Output erwartet. Semantische Ähnlichkeit zwischen erwartetem Output und aktuellem Tool-Schema wird bewertet. Liegt der Score unter dem Threshold, eskaliert der Agent oder lehnt ab zu handeln.

Wann Semantic Tool Selection einsetzen: wenn der Agent viele Tools mit ähnlichen Namen oder überlappenden Zwecken hat, wenn Tool-Call-Fehler reale Konsequenzen haben, wenn der Agent in Umgebungen mit vielen externen APIs operiert.

Was es verhindert: falsche API Endpoints aufrufen, Nachrichten an den falschen Channel senden, Formulare an die falsche Destination submitten, falsche Datenformate für Tool Calls verwenden.


Technik 3: Neurosymbolic Guardrails

Das Model ist darauf trainiert, hilfreich zu sein. Es will die Aufgabe abschließen. Wenn die Aufgabe im Konflikt mit einer Geschäftsregel steht, könnte das Model einen Weg finden, sie zu umgehen.

Neurosymbolic Guardrails kombinieren das Neural Network (das Model) mit Symbolic Logic (Regeln). Das Model generiert Outputs. Die Guardrails Layer fängt Outputs ab, die Regeln verletzen. Im Gegensatz zu Soft Prompts, die das Model daran erinnern sollen, Policies zu prüfen, sind Guardrails Hard Constraints, die unabhängig vom Model Confidence feuern.

Das Strands Agents Hooks System: definiere eine Regel als Code. Wenn der Output X enthält, blockiere und eskaliere. Beispiel: wenn der Agent-Output einen Dollarbetrag über $10.000 enthält, verlange menschliche Approval vor dem Senden.

Was Guardrails durchsetzen können: Geschäftsregeln wie Rückerstattungslimits, Credit Thresholds und Approval Workflows. Compliance-Regeln wie PII-Handling-Anforderungen, Data Residency Constraints und regulatorische Anforderungen. Safety-Regeln wie kein externes Data Exfiltration und kein Social Media Posting ohne Approval.

Die Limitation: Guardrails müssen explizit für jede Regel geschrieben werden. Sie generalisieren nicht. Je mehr Regeln, desto komplexer das Guardrail-System.

Was es verhindert: Agents, die Rückerstattungs-Policies umgehen, unautorisierten Datenzugriff oder Exfiltration, Aktionen, die Compliance-Anforderungen verletzen.


Technik 4: Multi-Agent Validation

Der Agent, der eine Aufgabe ausführt, ist darauf bedacht, sie abzuschließen. Er wird Warnsignale rationalisieren, anstatt Versagen zuzugeben. Das ist Completion Bias — dieselbe kognitive Verzerrung, die Menschen haben.

Multi-Agent Validation durchbricht diese Schleife. Agent 1, der Primary, führt die Aufgabe aus und generiert den Output. Agent 2, der Validator, prüft Agent 1s Output gegen die ursprüngliche Anfrage. Agent 2 ist spezifisch darauf gepromptet, Fehler, Inkonsistenzen und Failures zu finden. Wenn Agent 2 Probleme findet, wird der Task für Human Review markiert.

Die Validierungsdimensionen: Hat der Agent das getan, was gefragt war (Completeness)? Hat der Agent korrekte Daten verwendet (Factual)? Hat der Agent den richtigen Prozess befolgt (Compliance)? Hat die Operation tatsächlich funktioniert (Outcome)?

Wann Multi-Agent Validation einsetzen: für High-Stakes-Operationen, wo Failure teuer ist. Für Operationen, wo die Self-Assessment des Agents unzuverlässig ist.

Der Cost Trade-off: Multi-Agent Validation verdoppelt die LLM Costs für validierte Operationen. Setze es für die Operationen ein, die High-Stakes sind. Die 80% der Tasks, die routine sind, brauchen keine Validation. Die 20%, die konsequenzenreich sind, schon.

Was es verhindert: Agents, die Erfolg melden, wenn Operationen tatsächlich fehlschlagen. False Positives in Task Completion Reports. Fehler, die der Primary Agent rationalisiert hat.


Defense in Depth — Wie die vier Techniken zusammenwirken

Das Layered Defense Model:

Layer 1: Graph-RAG stellt sicher, dass Fakten korrekt sind, bevor der Agent handelt. Layer 2: Semantic Tool Selection stellt sicher, dass das richtige Tool korrekt aufgerufen wird. Layer 3: Neurosymbolic Guardrails stellen sicher, dass Geschäftsregeln nicht verletzt werden. Layer 4: Multi-Agent Validation fängt alles ab, was die ersten drei Layer übersehen haben.

Was jeder Layer nicht abfängt: Graph-RAG kann kreative Halluzinationen oder Synthese-Fehler nicht verhindern. Semantic Tool Selection kann keine falschen Fakten darüber verhindern, welches Tool zu verwenden ist. Guardrails können keine Regelverstöße abfangen, für die sie nicht geschrieben wurden. Multi-Agent Validation kann keine Fehler im Validator selbst abfangen.

Keine einzelne Technik ist ausreichend. Defense in Depth: jeder Layer fängt ab, was die anderen übersehen.

Implementation Priority: Starte mit Graph-RAG, wenn Faktenakkuratesse die Hauptsorge ist. Füge Guardrails für deine Highest-Stakes Action Types hinzu. Füge Semantic Tool Selection hinzu, wenn Tool-Call-Fehler teuer sind. Füge Multi-Agent Validation für deine kritischsten Workflows hinzu.

Deploye keine Agents ohne mindestens eine dieser vier Defenses. Starte mit der Highest-Stakes Action in deinem Agent und arbeite dich von dort vor.

Ready to let AI handle your busywork?

Book a free 20-minute assessment. We'll review your workflows, identify automation opportunities, and show you exactly how your AI corps would work.

From $199/month ongoing, cancel anytime. Initial setup is quoted based on your requirements.