Zum Inhalt springen
DevOpsDataSec.ai — From code to compliance
Referenzen
Expertise
Academy
Blog
SucheBeratung
  1. Startseite/
  2. Blog/
  3. EU AI Act 2026: Was deutsche Unternehmen jetzt tun müssen
DevOpsDataSec.ai — From code to compliance

Spezialisierter Open Source Consulting Partner aus Deutschland. DevOps, Data Engineering, Security & Compliance — BSI C5, NIS2, DORA-konform.

Made in Germany · EU-Compliant
SUSERHUbuntuCNCFLFPG
Leistungen
DevOps & PlatformData EngineeringCloud & KubernetesSecurity & ComplianceOpen Source SupportAI & LLM Engineering (EU)US Cloud SupportSchulungen & EnablementManaged Services
Lösungen
Open Source StackFinanzwirtschaftGesundheitswesenKRITIS & EnergieÖffentlicher SektorNIS2 ComplianceSouveräne Cloud
Unternehmen
Über unsReferenzenTechnologie-ExpertiseAcademyBlogKarriereKontakt
Standorte
🇩🇪 Berlin (Hauptsitz)🇷🇴 Cluj-Napoca🇨🇭 Zürich🇪🇸 Barcelona
Kontakt
sales@devopsdatasec.ai
Korbmacherstraße 7
31171 Nordstemmen
Büro Berlin: Friedrichstraße 68, 10117 Berlin
Beratung anfragen
Branchen & Referenzen
Bundesbehörden · Großbanken · Versicherungen · KRITIS-Betreiber · Gesundheitswesen · Energieversorger · Öffentlicher Sektor · Finanzdienstleister
From code to compliance
© 2026 Stesan Finanzmanagement GmbH — DevOpsDataSec.ai·From code to compliance
KontaktSucheImpressumDatenschutzCookiesSitemap
✦ Blog

EU AI Act 2026: Was deutsche Unternehmen jetzt tun müssen

Risikoklassen, Dokumentationspflichten, Fristen — ein pragmatischer Leitfaden für den EU AI Act.

Kontakt Alle Artikel
AI & Compliance12 min · Feb 2026
Dr. Lisa Berger, AI Governance Lead
12 min · Feb 2026

EU AI Act: Der regulatorische Rahmen für KI in Europa

Der EU AI Act (Verordnung 2024/1689) ist seit August 2024 in Kraft und entfaltet stufenweise Wirkung. Ab Februar 2025 gelten die Verbote für inakzeptable KI-Systeme. Ab August 2025 greifen die Transparenzpflichten für General-Purpose AI (GPAI). Ab August 2026 gelten die vollständigen Anforderungen für Hochrisiko-KI-Systeme. Für deutsche Unternehmen bedeutet das: Jetzt handeln, nicht erst 2026.

Risikoklassen verstehen: Wo steht Ihr KI-System?

Der EU AI Act teilt KI-Systeme in vier Risikoklassen ein: (1) Inakzeptables Risiko: Social Scoring, manipulative KI — verboten seit Februar 2025. (2) Hohes Risiko: KI in kritischer Infrastruktur, HR-Entscheidungen, Kreditvergabe, medizinische Diagnostik — strenge Anforderungen ab August 2026. (3) Begrenztes Risiko: Chatbots, Deepfakes — Transparenzpflichten. (4) Minimales Risiko: Spam-Filter, Empfehlungssysteme — kaum reguliert. Die meisten Enterprise-KI-Anwendungen in regulierten Branchen fallen in Kategorie 2 oder 3.

Hochrisiko-KI: Konkrete Pflichten

Für Hochrisiko-KI-Systeme verlangt der EU AI Act: (1) Risikomanagement-System über den gesamten Lebenszyklus. (2) Data Governance: Dokumentation der Trainingsdaten, Bias-Prüfung, Datenqualitätskriterien. (3) Technische Dokumentation: Modellarchitektur, Trainingsparameter, Evaluierungsmetriken. (4) Logging und Audit-Trail: Jede Entscheidung nachvollziehbar. (5) Menschliche Aufsicht: Human-in-the-Loop oder Human-on-the-Loop. (6) Cybersecurity-Anforderungen: Robustheit gegen Adversarial Attacks, Prompt Injection Prevention.

GPAI und Open Source: Besondere Regeln

General-Purpose AI Models (wie Llama, Mistral, GPT) unterliegen eigenen Regeln. Anbieter müssen technische Dokumentation bereitstellen, das EU Copyright Law einhalten und eine Zusammenfassung der Trainingsdaten veröffentlichen. Für GPAI mit systemischem Risiko (>10^25 FLOPs Training) gelten zusätzlich Red-Teaming-Pflichten und Incident-Reporting. Open Source Modelle haben teilweise Ausnahmen — aber nur, wenn sie nicht als Hochrisiko eingesetzt werden. Wer Llama oder Mistral in einer Hochrisiko-Anwendung deployed, unterliegt den vollen Anforderungen.

Unser Ansatz: AI Governance auf Open Source Basis

Wir implementieren EU AI Act Compliance mit Open Source Tools: (1) MLflow für Model Lifecycle Management und Experiment Tracking. (2) RAGAS und DeepEval für systematische Modell-Evaluation. (3) Guardrails AI und NeMo Guardrails für Output Filtering und Prompt Injection Prevention. (4) Label Studio für Daten-Annotation und Bias-Audits. (5) Keycloak für Human-in-the-Loop Zugriffskontrolle. (6) OpenSearch für Audit-Trail und Logging aller KI-Entscheidungen. Alles self-hosted, alles auditierbar, alles DSGVO-konform.

Weiterführende Beratung

Dieser Artikel basiert auf unserer Praxiserfahrung aus 6+ Kundenprojekten. Haben Sie Fragen zur Umsetzung in Ihrem Unternehmen?

Erstgespräch anfragen Referenzen ansehen
Weitere Artikel
Strategie12 min · Feb 2026
Souveräne Open Source Infrastruktur für Behörden und KRITIS
Lesen
Compliance10 min · Feb 2026
Digitale Souveränität: Warum EU-Compliance ohne Open Source nicht funktioniert
Lesen
NIS214 min · Feb 2026
NIS2 Richtlinie: Was deutsche Unternehmen jetzt tun müssen
Lesen