#DEVELOPMENT

RAG-Systeme erklärt: Wie KI Antworten mit echtem Kontext liefert

13. Aug 2025

2 min Lesezeit

Nachhaltigkeit.png

Warum Large Language Models nicht alles wissen – und wie RAG das ändert

Large Language Models wie GPT sind beeindruckend. Sie beantworten Fragen, schreiben Texte, fassen Inhalte zusammen – aber sie haben ein Problem: Ihr Wissen ist begrenzt.

Fragen wie „Wie war das Wetter vor einem Monat?“ können sie oft nicht beantworten – außer, man gibt ihnen die Information vorher mit. Genau hier setzt RAG an: Retrieval-Augmented Generation.

Was ist RAG?

RAG-Systeme erweitern die Fähigkeiten von LLMs, indem sie relevante Informationen dynamisch aus einer externen Wissensquelle einbinden. Anstatt also auf reines Modellwissen zu setzen, wird der Kontext aus einer Vektordatenbank geladen – und zwar genau dann, wenn er gebraucht wird.

So funktioniert’s:

  1. Ein umfangreicher Inhalt (z. B. ein Handbuch oder eine Webseite) wird in kleinere Einheiten aufgeteilt.
  2. Diese Einheiten werden mithilfe sogenannter Embeddings in mehrdimensionale Vektoren übersetzt.
  3. Wenn ein Nutzer eine Frage stellt, wird auch diese vektorisiert.
  4. Das System vergleicht die Vektoren und sucht nach den semantisch ähnlichsten Inhalten.
  5. Die besten Treffer werden als Kontext ins LLM geladen – und die Antwort basiert auf genau diesen Informationen.

Die Herausforderungen klassischer RAG-Systeme

Was einfach klingt, bringt in der Praxis einige Schwierigkeiten mit sich:

  • Token-Limit: LLMs können nur eine begrenzte Anzahl an Tokens verarbeiten. Kommen zu viele Inhalte zurück, müssen einige weggelassen werden – und womöglich genau die relevanten.
  • Unpräzise Datenquellen: Viele Quellen enthalten irrelevante oder unstrukturierte Inhalte. Das bläht den Kontext auf und senkt die Qualität der Ergebnisse.
  • Unvollständige Antworten: Wenn ein gesuchter Inhalt über mehrere Subdokumente verteilt ist, wird oft nur ein Bruchteil berücksichtigt.

Wie man RAG-Systeme optimiert

Gute RAG-Systeme basieren nicht nur auf Technik, sondern auch auf Strategie. Hier sind fünf Ansätze, die wirklich helfen:

  1. Pre-Processing der Daten
  2. Zusammenfassen statt Volltext
  3. Ranking & Relevanzbewertung
  4. Index- und Registerseiten
  5. Bessere Prompts

Agentic RAG – Der nächste Schritt

In einem klassischen RAG bekommt der Nutzer eine Antwort – oder eben nicht.

Agentic RAG geht weiter: Das System stellt Rückfragen, schärft die Suchanfrage und führt den Nutzer schrittweise zu einer maßgeschneiderten Antwort.

Ein Beispiel:

  • Datenbank 1: Übersicht aller Anleitungen
  • Datenbank 2: Inhaltsverzeichnisse + Zusammenfassungen
  • Datenbank 3: Volltexte der Anleitungen

Statt sofort alle Inhalte zu durchsuchen, startet das System mit der Übersicht und fragt gezielt nach: „Meinst du Anleitung A oder B?“ → Erst dann folgt die Detailrecherche.

Das Ergebnis: Weniger Overload. Höhere Präzision.

Was bringt die Zukunft?

Die nächste Generation von RAG-Systemen wird adaptiv: Sie lernen mit jeder Interaktion dazu. Sie erkennen, welche Kontexte hilfreich sind, passen ihre Suchlogik an und verbessern so kontinuierlich die Qualität ihrer Antworten.

Noch sind das Prototypen – aber in nicht allzu ferner Zukunft werden sie Standard sein.

MORE