EU AI Act: Was Entwicklungsteams jetzt umsetzen müssen
Technische Anforderungen des EU AI Act — Risikoklassifizierung, Dokumentationspflichten und Konformitätsbewertung für Entwicklungsteams.
Der EU AI Act ist keine politische Diskussion mehr — er ist eine technische Anforderung. Mit dem Verbot inakzeptabler Risikosysteme, das bereits gilt, und Hochrisiko-Pflichten, die bis 2027 stufenweise in Kraft treten, brauchen Entwicklungsteams konkrete Umsetzungspläne, keine Foliensätze.
Dieser Beitrag zeigt, was technische Teams tatsächlich bauen, dokumentieren und überwachen müssen, um Compliance zu erreichen.
Risikoklassifizierung verstehen
Der AI Act teilt KI-Systeme in vier Risikostufen ein. Die erste Aufgabe: Bestimmen Sie, wo Ihre Systeme einzuordnen sind.
Inakzeptables Risiko (verboten seit Februar 2025)
- Social Scoring durch Behörden
- Biometrische Echtzeit-Identifizierung im öffentlichen Raum (mit engen Ausnahmen)
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
- KI, die Schwächen bestimmter Gruppen ausnutzt
Handlungsbedarf: Portfolio auditieren. Wenn etwas diese Kategorien berührt, muss es abgeschaltet oder grundlegend umgestaltet werden.
Hohes Risiko (Pflichten gelten ab August 2026)
Hier landen die meisten KI-Systeme im Unternehmenskontext. Ein System ist hochriskant, wenn es unter die Kategorien in Anhang III fällt:
- Beschäftigung: CV-Screening, Bewerbungsgespräch-Scoring, Beförderungsentscheidungen
- Kreditwürdigkeitsprüfung und Versicherung: Automatisierte Risikobewertung natürlicher Personen
- Kritische Infrastruktur: Energie-, Wasser-, Transportmanagementsysteme
- Bildung: Automatisierte Benotung, Zulassungsentscheidungen
- Strafverfolgung und Grenzkontrolle: Risikobewertungstools
Zusätzlich gelten KI-Systeme, die als Sicherheitskomponenten von Produkten unter bestehender EU-Gesetzgebung eingesetzt werden (Medizinprodukte, Fahrzeuge, Maschinen), automatisch als hochriskant.
Achtung: Ein internes Tool, das Bewerber nach CV-Match-Score rankt, ist ein Hochrisiko-System — auch wenn ein Mensch die finale Entscheidung trifft. Der AI Act stuft Systeme, die menschliche Entscheidungen in diesen Domänen „unterstützen", als hochriskant ein.
Begrenztes Risiko (Transparenzpflichten)
- Chatbots müssen offenlegen, dass sie KI sind
- KI-generierte Inhalte (Deepfakes, synthetische Texte) müssen gekennzeichnet werden
- Emotionserkennungssysteme müssen Nutzer informieren
Minimales Risiko (keine besonderen Pflichten)
Spam-Filter, KI-gestützte Suche, Empfehlungssysteme für unkritische Bereiche.
Anforderungen an Hochrisiko-Systeme: Die technische Checkliste
Wenn Ihr System als hochriskant eingestuft wird, müssen Sie Folgendes umsetzen:
1. Risikomanagementsystem (Artikel 9)
Keine einmalige Bewertung — ein fortlaufender, dokumentierter Prozess:
- Bekannte und vorhersehbare Risiken identifizieren und analysieren für jedes KI-System
- Risiken bewerten, die während der Nutzung entstehen
- Risikominderungsmaßnahmen umsetzen und deren Wirksamkeit dokumentieren
- Testen, ob das Restrisiko akzeptabel ist, mit geeigneten Metriken
Umsetzung: Risikobewertung in die CI/CD-Pipeline integrieren. Jedes Modell-Update sollte eine Risikoprüfung mit dokumentierter Freigabe auslösen.
2. Daten-Governance (Artikel 10)
Trainings-, Validierungs- und Testdatensätze müssen spezifische Qualitätskriterien erfüllen:
- Relevanz und Repräsentativität — dokumentierte Analyse der Datensatzzusammensetzung
- Bias-Untersuchung — proaktive Identifikation potenzieller Verzerrungen, insbesondere bei geschützten Merkmalen
- Lückenanalyse — dokumentierte Bewertung von Datenlimitierungen
- Statistische Eigenschaften — erfasst und versioniert zusammen mit dem Modell
Umsetzung: Nutzen Sie einen Datenkatalog (z. B. Microsoft Purview, DataHub) mit Lineage-Tracking. Jeder Trainingslauf muss auf einen spezifischen, versionierten Datensatz mit dokumentierten Eigenschaften verweisen.
3. Technische Dokumentation (Artikel 11)
Vor dem Inverkehrbringen eines Hochrisiko-Systems benötigen Sie umfassende Dokumentation zu:
- Allgemeine Systembeschreibung und Zweckbestimmung
- Entwicklungsprozess, einschließlich Designentscheidungen und Trade-offs
- Überwachungs-, Funktions- und Kontrollmechanismen
- Details des Risikomanagementprozesses
- Beschreibung der Änderungen über den gesamten Lebenszyklus
Umsetzung: Behandeln Sie das wie Architecture Decision Records (ADRs) — nur gesetzlich vorgeschrieben. Automatisieren Sie die Dokumentationserstellung aus Ihren ML-Pipeline-Metadaten, wo immer möglich.
4. Aufzeichnung und Protokollierung (Artikel 12)
Hochrisiko-Systeme müssen automatische Protokollierung bieten:
- Ereignisse über den gesamten Lebenszyklus des Systems protokollieren
- Nachvollziehbarkeit des Systembetriebs ermöglichen
- Protokolle müssen mindestens umfassen: Nutzungszeiträume, Eigenschaften der Eingabedaten, verwendete Referenzdatenbanken und die an der Verifikation beteiligten natürlichen Personen
Umsetzung: Das ist kein gewöhnliches Application-Logging. Sie benötigen ML-spezifische Observability — jede Inferenz mit Input-Features, Modellversion, Output, Konfidenzwert und Zeitstempel protokollieren. Tools wie Azure MLs Model Monitoring oder MLflow Tracking decken die meisten dieser Anforderungen ab.
5. Menschliche Aufsicht (Artikel 14)
Hochrisiko-Systeme müssen so konzipiert sein, dass wirksame menschliche Aufsicht möglich ist:
- Menschen müssen die Fähigkeiten und Grenzen des Systems verstehen können
- Betreiber müssen KI-Entscheidungen übersteuern oder rückgängig machen können
- Das System muss einen Stopp-Mechanismus enthalten
Umsetzung: Admin-Dashboards bauen, die Modell-Konfidenzverteilungen zeigen, Entscheidungen mit niedriger Konfidenz zur Prüfung markieren und One-Click-Override ermöglichen.
6. Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)
- Genauigkeit muss deklariert und anhand definierter Metriken messbar sein
- Robustheit gegenüber adversarialen Inputs und Data Drift
- Cybersicherheitsmaßnahmen angemessen zur Risikostufe
Umsetzung: Adversarial Testing, automatisierte Drift-Erkennung und Security Hardening von Modell-Endpunkten sind jetzt gesetzliche Anforderungen — keine optionalen Verbesserungen.
Konformitätsbewertung: Selbst- oder Drittprüfung?
Die meisten Hochrisiko-KI-Systeme nach Anhang III können eine Selbstbewertung auf Basis harmonisierter Standards durchlaufen. Ausnahmen, die eine Drittprüfung erfordern:
- Biometrische Identifizierungs- und Kategorisierungssysteme
- Sicherheitskomponenten kritischer Infrastruktur
- Systeme unter sektorspezifischer Gesetzgebung, die bereits Drittprüfung vorschreibt
Für die Selbstbewertung: Implementieren Sie ein internes Qualitätsmanagementsystem (Artikel 17), das alle oben genannten Anforderungen abdeckt, und pflegen Sie eine technische Akte (Anhang IV), die Marktüberwachungsbehörden auf Anfrage vorgelegt werden kann.
Zeitplan: Was ist wann fällig?
| Meilenstein | Datum | Handlungsbedarf |
|---|---|---|
| Verbote inakzeptabler Risiken | Februar 2025 | Bereits in Kraft. Sicherstellen, dass keine verbotenen Systeme im Betrieb sind. |
| GPAI-Pflichten | August 2025 | Anbieter von General-Purpose-AI müssen Transparenz- und Dokumentationsregeln einhalten. |
| Hochrisiko-Pflichten | August 2026 | Vollständige Compliance für Hochrisiko-Systeme nach Anhang III erforderlich. |
| Bestandssysteme | August 2027 | Bereits im Markt befindliche Systeme müssen bei wesentlichen Änderungen compliant sein. |
Praktische Schritte für Engineering-Verantwortliche
- KI-Systeme inventarisieren. Ein Register aller Modelle in Produktion mit Klassifizierung nach AI Act erstellen. Dieses Register ist selbst eine Anforderung (Artikel 49).
- Mit Logging anfangen. Observability nachzurüsten ist die zeitaufwendigste Anforderung. Jetzt beginnen.
- Dokumentation standardisieren. Vorlagen für technische Dokumentation erstellen, die mit Anhang IV übereinstimmen. Befüllung aus Pipeline-Metadaten automatisieren.
- Risikobewertung in den SDLC einbetten. Teil der Code-Review-Prozesse für Modelländerungen machen, nicht als vierteljährliche Compliance-Übung behandeln.
- Verantwortlichkeit zuweisen. Jemand in der Engineering-Organisation muss AI-Act-Compliance verantworten. Das ist keine Aufgabe allein für die Rechtsabteilung.
Fazit: Der EU AI Act ist im Kern eine technische Regulierung. Juristen können ihn interpretieren, aber nur Engineering-Teams können ihn umsetzen. Beginnen Sie mit Logging und Dokumentation — das lässt sich am schwersten nachrüsten und wird am ehesten geprüft.
Weiterführende Ressourcen
- Enterprise RAG-Pipelines: Architektur, Fallstricke und Best Practices — Wenn Ihr KI-System Retrieval-Augmented Generation nutzt, deckt dieser Leitfaden produktionstaugliche Architekturentscheidungen ab.
- LLMs im Unternehmen: Sicherheit, Kosten und Governance — Ergänzender Leitfaden zu Sicherheits- und Kostengovernance bei Enterprise-LLM-Deployments.
- ISO 27001 in der Cloud: Ein praktischer Implementierungsleitfaden — Das Informationssicherheitsmanagementsystem, das die AI-Act-Compliance unterstützt.
Haftungsausschluss: Dieser Artikel bietet allgemeine technische Orientierung zu regulatorischen Anforderungen und stellt keine Rechtsberatung dar. Vorschriften können Aktualisierungen, nationale Umsetzungsunterschiede und sich entwickelnde Durchsetzungsinterpretationen unterliegen. Konsultieren Sie stets qualifizierte Rechtsberatung für Compliance-Entscheidungen, die spezifisch für Ihre Organisation sind.
Fragen zur Klassifizierung Ihrer KI-Systeme oder zum Aufbau konformer ML-Pipelines? Kontaktieren Sie uns — wir helfen Engineering-Teams, regulatorische Anforderungen in technische Spezifikationen zu übersetzen.