#DEVELOPMENT
13. Aug 2025
2 min Lesezeit
Large Language Models wie GPT sind beeindruckend. Sie beantworten Fragen, schreiben Texte, fassen Inhalte zusammen – aber sie haben ein Problem: Ihr Wissen ist begrenzt.
Fragen wie „Wie war das Wetter vor einem Monat?“ können sie oft nicht beantworten – außer, man gibt ihnen die Information vorher mit. Genau hier setzt RAG an: Retrieval-Augmented Generation.
RAG-Systeme erweitern die Fähigkeiten von LLMs, indem sie relevante Informationen dynamisch aus einer externen Wissensquelle einbinden. Anstatt also auf reines Modellwissen zu setzen, wird der Kontext aus einer Vektordatenbank geladen – und zwar genau dann, wenn er gebraucht wird.
So funktioniert’s:
Was einfach klingt, bringt in der Praxis einige Schwierigkeiten mit sich:
Gute RAG-Systeme basieren nicht nur auf Technik, sondern auch auf Strategie. Hier sind fünf Ansätze, die wirklich helfen:
In einem klassischen RAG bekommt der Nutzer eine Antwort – oder eben nicht.
Agentic RAG geht weiter: Das System stellt Rückfragen, schärft die Suchanfrage und führt den Nutzer schrittweise zu einer maßgeschneiderten Antwort.
Ein Beispiel:
Statt sofort alle Inhalte zu durchsuchen, startet das System mit der Übersicht und fragt gezielt nach: „Meinst du Anleitung A oder B?“ → Erst dann folgt die Detailrecherche.
Das Ergebnis: Weniger Overload. Höhere Präzision.
Die nächste Generation von RAG-Systemen wird adaptiv: Sie lernen mit jeder Interaktion dazu. Sie erkennen, welche Kontexte hilfreich sind, passen ihre Suchlogik an und verbessern so kontinuierlich die Qualität ihrer Antworten.
Noch sind das Prototypen – aber in nicht allzu ferner Zukunft werden sie Standard sein.