RAG EngineeringTop-10 Wirtschaftskanzlei (DE)
RAG-Wissenssystem für Wirtschaftskanzlei: 200.000 Dokumente durchsuchbar
Enterprise RAG-System mit Llama 3 und pgvector — 200.000 juristische Dokumente semantisch durchsuchbar, 70% schnellere Recherche, vollständig on-premise.
Herausforderung
Eine der größten deutschen Wirtschaftskanzleien mit 600 Anwälten hatte 200.000+ juristische Dokumente (Verträge, Urteile, Gutachten) in verschiedenen Systemen verteilt. Die Recherche dauerte durchschnittlich 45 Minuten pro Anfrage. Mandantendaten durften unter keinen Umständen an externe KI-Dienste übermittelt werden.
Lösung
(1) Document Ingestion Pipeline: PDF/Word → OCR → Chunking mit Overlap-Strategie (512 Tokens, 64 Token Overlap). (2) Embedding-Modell: multilingual-e5-large, self-hosted. (3) Vector Store: pgvector in PostgreSQL für einfache Ops. (4) LLM: Llama 3 70B für Answer Generation mit Source Attribution. (5) Evaluation Pipeline: RAGAS-Framework für Faithfulness, Answer Relevancy, Context Precision. (6) Keycloak-RBAC: Mandanten-Isolation auf Dokument-Ebene.
„Unsere Anwälte finden jetzt in Minuten, wofür sie früher Stunden brauchten. Und kein Mandantengeheimnis verlässt unsere Server — das war die absolute Voraussetzung."
— Chief Digital Officer, Wirtschaftskanzlei
Llama 3 70BpgvectorPostgreSQLvLLMKeycloakRAGASLangChainKubernetes