Problem: Ein LLM weiß nichts über deine Firma. ChatGPT kann dir nicht sagen, was in deinem internen Handbuch steht.
Lösung: RAG. Du indexierst deine Dokumente in einer Vektor-Datenbank. Wenn ein Nutzer fragt, sucht das System die relevantesten Textabschnitte raus und gibt sie dem LLM als Kontext mit. Das LLM antwortet dann mit deinen Daten.
Beispiel-Use-Case: Ein deutscher Mittelständler hat 200 PDFs zu Maschinen-Handbüchern. Mit RAG bauen wir einen Chatbot, der Wartungs-Fragen aus diesen PDFs beantwortet — in Sekunden, statt wochenlang Mitarbeiter neu zu schulen.
Wir bauen RAG-Stacks mit Pinecone, Weaviate oder selbst-gehostetem Qdrant.
Verwandte Begriffe