Zum Hauptinhalt springen
Alle Beiträge
KI & Daten5 Min. Lesezeit

EU AI Act: Was Entwicklungsteams jetzt umsetzen müssen

Technische Anforderungen des EU AI Act — Risikoklassifizierung, Dokumentationspflichten und Konformitätsbewertung für Entwicklungsteams.

Aktualisiert: 8. April 2026

Der EU AI Act ist keine politische Diskussion mehr — er ist eine technische Anforderung. Mit dem Verbot inakzeptabler Risikosysteme, das bereits gilt, und Hochrisiko-Pflichten, die bis 2027 stufenweise in Kraft treten, brauchen Entwicklungsteams konkrete Umsetzungspläne, keine Foliensätze.

Dieser Beitrag zeigt, was technische Teams tatsächlich bauen, dokumentieren und überwachen müssen, um Compliance zu erreichen.

Risikoklassifizierung verstehen

Der AI Act teilt KI-Systeme in vier Risikostufen ein. Die erste Aufgabe: Bestimmen Sie, wo Ihre Systeme einzuordnen sind.

Inakzeptables Risiko (verboten seit Februar 2025)

  • Social Scoring durch Behörden
  • Biometrische Echtzeit-Identifizierung im öffentlichen Raum (mit engen Ausnahmen)
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
  • KI, die Schwächen bestimmter Gruppen ausnutzt

Handlungsbedarf: Portfolio auditieren. Wenn etwas diese Kategorien berührt, muss es abgeschaltet oder grundlegend umgestaltet werden.

Hohes Risiko (Pflichten gelten ab August 2026)

Hier landen die meisten KI-Systeme im Unternehmenskontext. Ein System ist hochriskant, wenn es unter die Kategorien in Anhang III fällt:

  • Beschäftigung: CV-Screening, Bewerbungsgespräch-Scoring, Beförderungsentscheidungen
  • Kreditwürdigkeitsprüfung und Versicherung: Automatisierte Risikobewertung natürlicher Personen
  • Kritische Infrastruktur: Energie-, Wasser-, Transportmanagementsysteme
  • Bildung: Automatisierte Benotung, Zulassungsentscheidungen
  • Strafverfolgung und Grenzkontrolle: Risikobewertungstools

Zusätzlich gelten KI-Systeme, die als Sicherheitskomponenten von Produkten unter bestehender EU-Gesetzgebung eingesetzt werden (Medizinprodukte, Fahrzeuge, Maschinen), automatisch als hochriskant.

Achtung: Ein internes Tool, das Bewerber nach CV-Match-Score rankt, ist ein Hochrisiko-System — auch wenn ein Mensch die finale Entscheidung trifft. Der AI Act stuft Systeme, die menschliche Entscheidungen in diesen Domänen „unterstützen", als hochriskant ein.

Begrenztes Risiko (Transparenzpflichten)

  • Chatbots müssen offenlegen, dass sie KI sind
  • KI-generierte Inhalte (Deepfakes, synthetische Texte) müssen gekennzeichnet werden
  • Emotionserkennungssysteme müssen Nutzer informieren

Minimales Risiko (keine besonderen Pflichten)

Spam-Filter, KI-gestützte Suche, Empfehlungssysteme für unkritische Bereiche.

Anforderungen an Hochrisiko-Systeme: Die technische Checkliste

Wenn Ihr System als hochriskant eingestuft wird, müssen Sie Folgendes umsetzen:

1. Risikomanagementsystem (Artikel 9)

Keine einmalige Bewertung — ein fortlaufender, dokumentierter Prozess:

  • Bekannte und vorhersehbare Risiken identifizieren und analysieren für jedes KI-System
  • Risiken bewerten, die während der Nutzung entstehen
  • Risikominderungsmaßnahmen umsetzen und deren Wirksamkeit dokumentieren
  • Testen, ob das Restrisiko akzeptabel ist, mit geeigneten Metriken

Umsetzung: Risikobewertung in die CI/CD-Pipeline integrieren. Jedes Modell-Update sollte eine Risikoprüfung mit dokumentierter Freigabe auslösen.

2. Daten-Governance (Artikel 10)

Trainings-, Validierungs- und Testdatensätze müssen spezifische Qualitätskriterien erfüllen:

  • Relevanz und Repräsentativität — dokumentierte Analyse der Datensatzzusammensetzung
  • Bias-Untersuchung — proaktive Identifikation potenzieller Verzerrungen, insbesondere bei geschützten Merkmalen
  • Lückenanalyse — dokumentierte Bewertung von Datenlimitierungen
  • Statistische Eigenschaften — erfasst und versioniert zusammen mit dem Modell

Umsetzung: Nutzen Sie einen Datenkatalog (z. B. Microsoft Purview, DataHub) mit Lineage-Tracking. Jeder Trainingslauf muss auf einen spezifischen, versionierten Datensatz mit dokumentierten Eigenschaften verweisen.

3. Technische Dokumentation (Artikel 11)

Vor dem Inverkehrbringen eines Hochrisiko-Systems benötigen Sie umfassende Dokumentation zu:

  • Allgemeine Systembeschreibung und Zweckbestimmung
  • Entwicklungsprozess, einschließlich Designentscheidungen und Trade-offs
  • Überwachungs-, Funktions- und Kontrollmechanismen
  • Details des Risikomanagementprozesses
  • Beschreibung der Änderungen über den gesamten Lebenszyklus

Umsetzung: Behandeln Sie das wie Architecture Decision Records (ADRs) — nur gesetzlich vorgeschrieben. Automatisieren Sie die Dokumentationserstellung aus Ihren ML-Pipeline-Metadaten, wo immer möglich.

4. Aufzeichnung und Protokollierung (Artikel 12)

Hochrisiko-Systeme müssen automatische Protokollierung bieten:

  • Ereignisse über den gesamten Lebenszyklus des Systems protokollieren
  • Nachvollziehbarkeit des Systembetriebs ermöglichen
  • Protokolle müssen mindestens umfassen: Nutzungszeiträume, Eigenschaften der Eingabedaten, verwendete Referenzdatenbanken und die an der Verifikation beteiligten natürlichen Personen

Umsetzung: Das ist kein gewöhnliches Application-Logging. Sie benötigen ML-spezifische Observability — jede Inferenz mit Input-Features, Modellversion, Output, Konfidenzwert und Zeitstempel protokollieren. Tools wie Azure MLs Model Monitoring oder MLflow Tracking decken die meisten dieser Anforderungen ab.

5. Menschliche Aufsicht (Artikel 14)

Hochrisiko-Systeme müssen so konzipiert sein, dass wirksame menschliche Aufsicht möglich ist:

  • Menschen müssen die Fähigkeiten und Grenzen des Systems verstehen können
  • Betreiber müssen KI-Entscheidungen übersteuern oder rückgängig machen können
  • Das System muss einen Stopp-Mechanismus enthalten

Umsetzung: Admin-Dashboards bauen, die Modell-Konfidenzverteilungen zeigen, Entscheidungen mit niedriger Konfidenz zur Prüfung markieren und One-Click-Override ermöglichen.

6. Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)

  • Genauigkeit muss deklariert und anhand definierter Metriken messbar sein
  • Robustheit gegenüber adversarialen Inputs und Data Drift
  • Cybersicherheitsmaßnahmen angemessen zur Risikostufe

Umsetzung: Adversarial Testing, automatisierte Drift-Erkennung und Security Hardening von Modell-Endpunkten sind jetzt gesetzliche Anforderungen — keine optionalen Verbesserungen.

Konformitätsbewertung: Selbst- oder Drittprüfung?

Die meisten Hochrisiko-KI-Systeme nach Anhang III können eine Selbstbewertung auf Basis harmonisierter Standards durchlaufen. Ausnahmen, die eine Drittprüfung erfordern:

  • Biometrische Identifizierungs- und Kategorisierungssysteme
  • Sicherheitskomponenten kritischer Infrastruktur
  • Systeme unter sektorspezifischer Gesetzgebung, die bereits Drittprüfung vorschreibt

Für die Selbstbewertung: Implementieren Sie ein internes Qualitätsmanagementsystem (Artikel 17), das alle oben genannten Anforderungen abdeckt, und pflegen Sie eine technische Akte (Anhang IV), die Marktüberwachungsbehörden auf Anfrage vorgelegt werden kann.

Zeitplan: Was ist wann fällig?

MeilensteinDatumHandlungsbedarf
Verbote inakzeptabler RisikenFebruar 2025Bereits in Kraft. Sicherstellen, dass keine verbotenen Systeme im Betrieb sind.
GPAI-PflichtenAugust 2025Anbieter von General-Purpose-AI müssen Transparenz- und Dokumentationsregeln einhalten.
Hochrisiko-PflichtenAugust 2026Vollständige Compliance für Hochrisiko-Systeme nach Anhang III erforderlich.
BestandssystemeAugust 2027Bereits im Markt befindliche Systeme müssen bei wesentlichen Änderungen compliant sein.

Praktische Schritte für Engineering-Verantwortliche

  1. KI-Systeme inventarisieren. Ein Register aller Modelle in Produktion mit Klassifizierung nach AI Act erstellen. Dieses Register ist selbst eine Anforderung (Artikel 49).
  2. Mit Logging anfangen. Observability nachzurüsten ist die zeitaufwendigste Anforderung. Jetzt beginnen.
  3. Dokumentation standardisieren. Vorlagen für technische Dokumentation erstellen, die mit Anhang IV übereinstimmen. Befüllung aus Pipeline-Metadaten automatisieren.
  4. Risikobewertung in den SDLC einbetten. Teil der Code-Review-Prozesse für Modelländerungen machen, nicht als vierteljährliche Compliance-Übung behandeln.
  5. Verantwortlichkeit zuweisen. Jemand in der Engineering-Organisation muss AI-Act-Compliance verantworten. Das ist keine Aufgabe allein für die Rechtsabteilung.

Fazit: Der EU AI Act ist im Kern eine technische Regulierung. Juristen können ihn interpretieren, aber nur Engineering-Teams können ihn umsetzen. Beginnen Sie mit Logging und Dokumentation — das lässt sich am schwersten nachrüsten und wird am ehesten geprüft.

Weiterführende Ressourcen

Haftungsausschluss: Dieser Artikel bietet allgemeine technische Orientierung zu regulatorischen Anforderungen und stellt keine Rechtsberatung dar. Vorschriften können Aktualisierungen, nationale Umsetzungsunterschiede und sich entwickelnde Durchsetzungsinterpretationen unterliegen. Konsultieren Sie stets qualifizierte Rechtsberatung für Compliance-Entscheidungen, die spezifisch für Ihre Organisation sind.

Fragen zur Klassifizierung Ihrer KI-Systeme oder zum Aufbau konformer ML-Pipelines? Kontaktieren Sie uns — wir helfen Engineering-Teams, regulatorische Anforderungen in technische Spezifikationen zu übersetzen.

EU AI Act UmsetzungKI-RisikoklassifizierungHochrisiko-KI-SystemeAI Act technische AnforderungenKI-Konformitätsbewertung

Häufig gestellte Fragen

Ab wann gilt der EU AI Act für Hochrisiko-KI-Systeme?
Die Pflichten für Hochrisiko-KI-Systeme nach dem EU AI Act greifen ab August 2026. Bereits auf dem Markt befindliche Systeme müssen bis August 2027 konform sein, wenn sie wesentlich verändert werden.
Was gilt als Hochrisiko-KI-System unter dem EU AI Act?
KI-Systeme in den Bereichen Beschäftigung (Lebenslauf-Screening, Bewertung von Vorstellungsgesprächen), Kreditbewertung, kritische Infrastruktur, Bildung (automatische Benotung) und Strafverfolgung werden gemäß Anhang III als hochriskant eingestuft.
Können Unternehmen ihre KI-Systeme selbst bewerten?
Die meisten Hochrisiko-KI-Systeme nach Anhang III können mittels harmonisierter Standards selbst bewertet werden. Ausnahmen, die eine Drittbewertung erfordern, umfassen biometrische Identifikationssysteme und Sicherheitskomponenten kritischer Infrastrukturen.
Welche Strafen drohen bei Nichteinhaltung des EU AI Act?
Strafen können bis zu 35 Millionen EUR oder 7% des weltweiten Jahresumsatzes für verbotene KI-Praktiken betragen, und bis zu 15 Millionen EUR oder 3% des Umsatzes für andere Verstöße.
Welche technische Dokumentation ist für Hochrisiko-KI-Systeme erforderlich?
Vor der Markteinführung eines Hochrisiko-Systems benötigen Sie Dokumentation über: allgemeine Systembeschreibung, Entwicklungsprozess einschließlich Designentscheidungen, Überwachungs- und Kontrollmechanismen, Risikomanagementprozess und Beschreibung der Änderungen über den Lebenszyklus.

Brauchen Sie Expertenberatung?

Unser Team ist spezialisiert auf Cloud-Architektur, Security, KI-Plattformen und DevSecOps. Lassen Sie uns besprechen, wie wir Ihrem Unternehmen helfen können.

Verwandte Artikel