EU-Pflichten für KI-Governance: Was Unternehmen jetzt tun müssen

KI-Governance, Cyber-Regeln – Compliance-Verantwortliche prüft EU-KI-Governance-Dokumente in einem Behördenkonferenzraum
EU-Fristen laufen: Unternehmen müssen ihre KI-Governance jetzt strukturell verankern. (Symbolbild)

Zwei Fristen sind bereits verstrichen. Die nächste naht. Und doch zeigen interne Compliance-Audits in deutschen Unternehmen immer wieder dasselbe Bild: KI-Governance ist zwar auf der Agenda, aber in der Praxis fehlen Risikoregister, Schulungsnachweise und klare Zuständigkeiten. Wer das EU-KI-Gesetz noch als abstraktes Brüsseler Dokument behandelt, wird in wenigen Monaten teuer zahlen.

Inhalt

Was seit Februar 2025 bereits Pflicht ist – und kaum einer weiß

Der AI Act (Verordnung (EU) 2024/1689) ist seit dem 1. August 2024 in Kraft. Das ist kein Neuigkeitswert mehr. Was viele Unternehmen beim AI-Act-Zeitdruck für Governance aber noch nicht verinnerlicht haben: Seit dem 2. Februar 2025 gelten bereits verbindliche Verbote für sogenannte unannehmbare KI-Praktiken. Darunter fallen Social Scoring durch Behörden, subliminal manipulative Systeme und bestimmte Formen biometrischer Echtzeit-Überwachung. Wer solche Systeme betreibt oder einsetzt, handelt seit über einem Jahr rechtswidrig.

Ebenfalls seit Februar 2025 gilt die Kompetenzpflicht: Arbeitgeber müssen sicherstellen, dass ihre Mitarbeiterinnen und Mitarbeiter ausreichend KI-Literacy besitzen – proportional zum jeweiligen Einsatzkontext. Das ist keine Empfehlung, das ist eine Arbeitgeberpflicht nach Art. 4 AI Act. Schulungsnachweise fehlen jedoch in zahlreichen Unternehmen komplett.

Meine Einschätzung: Die häufigste Fehlannahme lautet, der AI Act sei primär ein Problem für Tech-Konzerne und KI-Entwickler. Das stimmt nicht. Er gilt ausdrücklich auch für Deployer – also jedes Unternehmen, das KI-Systeme im eigenen Kontext betreibt. Der Mittelständler, der ein KI-gestütztes Bewerbermanagementsystem einkauft und intern nutzt, ist Deployer im Sinne des Gesetzes. Damit ist er regulierungspflichtig.

Besonders kritisch ist die Situation bei eingekaufter Software: Viele Unternehmen gehen davon aus, dass der Softwareanbieter sämtliche Compliance-Pflichten trägt. Das ist ein Irrtum. Die Deployer-Verantwortung kann vertraglich zwar teilweise aufgeteilt werden, grundsätzlich bleibt das einsetzende Unternehmen aber für den Betriebskontext und die sachgerechte Nutzung verantwortlich. Wer also ein HR-Tool mit KI-Komponente lizenziert und darin Bewerberdaten auswertet, muss eigenständig prüfen, ob das System unter Hochrisiko-Kategorien fällt und welche Pflichten daraus folgen.

August 2025: Bußgelder werden real – die Zahlen sind schmerzhaft

Seit dem 2. August 2025 sind auch die Sanktionsregeln des AI Act vollständig anwendbar. Verstöße gegen die Verbote unannehmbarer KI-Praktiken können mit Bußgeldern von bis zu 35 Millionen Euro oder 7 Prozent des globalen Jahresumsatzes bestraft werden – je nachdem, welcher Betrag höher ausfällt. Für Verstöße bei Hochrisiko-KI sind bis zu 15 Millionen Euro oder 3 Prozent des Umsatzes vorgesehen. Falsche oder irreführende Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro.

Diese Zahlen sind nicht theoretisch. Nationale Aufsichtsbehörden wurden bereits in mehreren EU-Mitgliedstaaten benannt. Die EU-Kommission hat das Europäische Amt für KI eingerichtet, das vor allem bei GPAI-Modellen (General Purpose AI) direkte Aufsichtskompetenz hat. Wer jetzt noch in der Wartehaltung verharrt, setzt sich einem konkreten Haftungsrisiko aus.

Hinzu kommt: Seit August 2025 greifen auch die Pflichten für Anbieter sogenannter GPAI-Modelle – also großer Sprachmodelle und ähnlicher Systeme mit weitreichenden Einsatzmöglichkeiten. Technische Dokumentation, Einhaltung von Urheberrechtsvorschriften und Transparenzpflichten sind Pflichtprogramm. Wer ein solches Modell im Kontext von Europas souveräner KI-Infrastruktur anbietet, ohne diese Grundlagen erfüllt zu haben, riskiert unmittelbar behördliches Einschreiten.

August 2026: Die Hochrisiko-Uhr tickt jetzt ernsthaft

Die nächste große Frist ist August 2026. Dann greifen die vollständigen Pflichten für Hochrisiko-KI-Systeme gemäß Anhang III des AI Act. Betroffen sind Systeme in Bereichen wie Biometrie, kritische Infrastruktur, Bildung und Berufsausbildung, Beschäftigung, grundlegende Dienstleistungen, Strafverfolgung, Migration und Justiz. Die vollständigen Verpflichtungen für alle Hochrisiko-Systeme, die in bestehende Produkte integriert sind, folgen dann bis August 2027.

Was diese Pflichten konkret bedeuten, ist umfangreicher als viele erwarten: Risikomanagement-System aufbauen und dokumentieren, Datenqualitätsprüfungen einführen, technische Dokumentation erstellen, Protokollierungsfunktionen aktivieren, Transparenz gegenüber Nutzenden gewährleisten, menschliche Aufsicht sicherstellen und – besonders relevant für diesen Artikel – Cybersicherheitsanforderungen erfüllen.

Letzteres ist kein Zusatz, sondern zentrales Merkmal: Hochrisiko-KI muss laut AI Act ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit aufweisen. Manipulierte Trainingsdaten, sogenannte Adversarial Attacks oder Modell-Poisoning können direkt zu Kontrollverlust führen – und damit zur Haftung. Wer bis August 2026 kein funktionsfähiges Sicherheitskonzept für seine KI-Systeme vorlegen kann, hat ein ernstes Problem.

KI-Governance und Cyber-Regeln: Wo sich AI Act und NIS-2 überschneiden

Eine Frage, die Compliance-Teams zunehmend beschäftigt: Wie verhält sich der AI Act zu NIS-2? Die kurze Antwort lautet – beide Regelwerke überlappen sich und verstärken sich gegenseitig. Wer Cloud-Dienste betreibt oder kritische Infrastruktur mit KI-Systemen absichert, unterliegt sowohl den Cyber-Regeln der NIS-2-Richtlinie als auch den Anforderungen des AI Act an Robustheit und Sicherheit.

Konkret: Ein Energieversorger, der ein KI-gestütztes System zur Angriffserkennung im Netz betreibt, muss sowohl die NIS-2-Meldepflichten einhalten als auch – sobald das System als Hochrisiko-KI einzustufen ist – die Anforderungen des AI Act an Dokumentation, Audit-Trails und Cybersicherheit erfüllen. Wer die Governance-Strukturen für NIS-2 bereits aufgebaut hat, hat einen Vorsprung. Wer beides noch nicht angegangen ist, hat ein doppeltes Problem.

Praktisch bedeutet das: IT-Sicherheitsteams und KI-Governance-Verantwortliche müssen enger zusammenarbeiten als bisher. Das klingt trivial, ist es aber nicht. In vielen Organisationen sind beide Bereiche noch siloartig getrennt. KI-Governance wird dem Datenschutzbeauftragten oder der Rechtsabteilung zugeschoben, während IT-Security bei der IT-Abteilung verbleibt. Diese Trennung ist teuer und gefährlich.

Ein weiterer Überschneidungspunkt betrifft das Incident-Management: NIS-2 schreibt vor, sicherheitsrelevante Vorfälle innerhalb enger Fristen zu melden. Der AI Act verlangt seinerseits, dass schwerwiegende Vorfälle im Zusammenhang mit Hochrisiko-KI den zuständigen Marktüberwachungsbehörden gemeldet werden. Beide Meldepflichten können denselben Vorfall betreffen – etwa wenn ein KI-System zur Infrastruktursteuerung durch einen Angriff kompromittiert wird. Unternehmen sollten deshalb ihre Incident-Response-Prozesse so gestalten, dass beide Meldestränge gleichzeitig bedient werden können, ohne interne Zuständigkeiten zu duplizieren oder zu verzögern.

IT-Sicherheitsexperte prüft KI-Cybersicherheits-Auditliste im Serverraum
Cybersicherheit für KI ist keine Option – für Hochrisiko-Systeme ist sie ab August 2026 gesetzlich vorgeschrieben. (Symbolbild)

Was KI-Governance in der Praxis bedeutet – und was sie nicht ist

KI-Governance ist kein einmaliges Dokument, das man erstellt und ablegt. Es ist ein kontinuierlicher Prozess, der Risikoklassifizierung, Kontrolle, Dokumentation und Monitoring umfasst. Der erste Schritt – und er ist nicht optional – ist ein vollständiges Inventar aller eingesetzten KI-Systeme. Wo wird KI genutzt? In welchem Kontext? Von wem? Mit welchen Daten?

Aus diesem Inventar ergibt sich dann die Risikoklassifizierung. Fällt ein System unter Anhang III des AI Act? Ist es GPAI? Oder fällt es in die Kategorie minimales Risiko, für die der AI Act keine spezifischen Pflichten vorsieht? Rund 99 Prozent der weltweit eingesetzten KI-Systeme – darunter Spamfilter, Empfehlungsalgorithmen und Videospiel-KI – sind nach aktuellem Stand minimal risikoreich und unterliegen keinen besonderen Pflichten. Aber: Diese Einschätzung muss dokumentiert und begründbar sein.

Die Analyse von CASIS zeigt, dass Unternehmen, die jetzt in geprüfte KI-Governance investieren, nicht nur Compliance-Risiken reduzieren, sondern auch Wettbewerbsvorteile durch einheitliche EU-Standards gewinnen können. Das ist kein Greenwashing-Argument, sondern eine strukturell nachvollziehbare These: Wer Governance früh aufbaut, muss sie später nicht unter Druck nachrüsten.

Ein häufiger Einwand lautet, KI-Governance sei zu ressourcenintensiv für mittelständische Unternehmen. Dieser Einwand ist verständlich, aber in seiner Absolutheit falsch. Für Systeme mit minimalem Risiko genügt eine dokumentierte Selbsteinschätzung. Aufwändig wird Governance erst dort, wo Hochrisiko-Systeme tatsächlich eingesetzt werden. Der eigentliche Fehler besteht darin, den Aufwand nicht zu skalieren – also entweder alles als unkritisch abzutun oder überall maximale Bürokratie aufzubauen. Der AI Act ist risikobasiert konzipiert: Wer diesen Gedanken ernst nimmt, kann den Aufwand gezielt auf die wirklich kritischen Systeme konzentrieren.

Das Omnibus-Paket: Erleichterung für KMU – aber noch kein geltendes Recht

Im November 2025 hat die EU-Kommission das sogenannte Digitale Omnibus-Paket vorgeschlagen. Es enthält unter anderem den Vorschlag, die Übergangsfrist für bestimmte Hochrisiko-KI auf 16 Monate zu kürzen sowie die Anforderungen an technische Dokumentation für KMU zu vereinfachen. Außerdem soll das Europäische Amt für KI gestärkt werden.

Wichtig für Unternehmen: Dieser Vorschlag ist Stand Mai 2026 noch nicht final verabschiedet. Er befindet sich im Gesetzgebungsverfahren. Das bedeutet: Auf die Erleichterungen des Omnibus-Pakets zu warten, ist keine Compliance-Strategie. Die aktuell geltenden Fristen und Pflichten des AI Act bleiben verbindlich, bis eine Änderung offiziell in Kraft tritt.

Auch die Vereinfachungen ändern nichts an den grundlegenden Anforderungen: Risikoklassifizierung, Kompetenzaufbau und Cybersicherheitsmaßnahmen für Hochrisiko-KI bleiben auch nach einer möglichen Omnibus-Reform Pflicht. Wer also mit dem Aufbau von KI-Governance wartet, bis das Paket beschlossen ist, verliert kostbare Zeit.

Sechs Handlungsschritte, die jetzt zählen

Governance-Strukturen bauen sich nicht über Nacht auf. Wer bis August 2026 compliance-fähig sein will, muss jetzt starten. Nicht in drei Monaten, nicht nach der nächsten Vorstandsklausur – jetzt.

  • KI-Inventar erstellen: Alle eingesetzten KI-Systeme dokumentieren, intern wie extern eingekaufte. Wer betreibt was, in welchem Kontext, mit welchen Daten?
  • Risikoklassifizierung durchführen: Ist ein System Hochrisiko nach Anhang III? GPAI? Oder minimal risikoreich? Diese Einstufung muss begründet dokumentiert werden.
  • Schulungen nachweisen: Die KI-Kompetenzpflicht gilt seit Februar 2025. Schulungskonzepte erstellen, Nachweise sichern. Das gilt besonders für Bereiche, in denen KI-Systeme Entscheidungen vorbereiten oder treffen.
  • Cybersicherheitscheck für KI-Systeme: Gibt es Maßnahmen gegen Adversarial Attacks, Datenvergiftung und Modell-Manipulation? Für Hochrisiko-KI ist das keine Option, sondern Pflicht.
  • NIS-2- und AI-Act-Zuständigkeiten verknüpfen: IT-Security und KI-Governance-Verantwortliche müssen gemeinsame Prozesse und Eskalationswege etablieren.
  • Dokumentationspflichten aufsetzen: Technische Dokumentation, Audit-Logs und Risikomanagement-Systeme müssen vor August 2026 funktionsfähig sein. Das braucht Vorlauf.

Ich halte diesen letzten Punkt für den unterschätztesten: Dokumentation klingt bürokratisch, ist aber der entscheidende Nachweis im Behördenverfahren. Wer bei einer Kontrolle keine lückenlose Dokumentation vorlegen kann, verliert – unabhängig davon, wie gut das System technisch gebaut ist.

Typische Stolperfallen auf dem Weg zur KI-Governance

Neben den strukturellen Versäumnissen gibt es in der Praxis einige wiederkehrende Muster, die den Aufbau funktionsfähiger KI-Governance verzögern oder sabotieren. Das Bewusstsein dafür ist ein erster Schritt, sie zu vermeiden.

Fehlende Ownership im Unternehmen: KI-Governance ist keine reine Rechtsaufgabe, keine reine IT-Aufgabe und keine reine Datenschutzaufgabe. Sie erfordert eine übergreifende Verantwortlichkeit, die typischerweise auf Führungsebene verankert sein muss. Ohne klare Ownership – wer trägt am Ende die Verantwortung für das KI-Inventar, die Risikoklassifizierung, die Schulungsnachweise? – versanden Governance-Initiativen regelmäßig in Zuständigkeitsdebatten.

Zu späte Einbindung der Fachabteilungen: KI-Systeme werden häufig von Fachabteilungen beschafft oder in Auftrag gegeben, ohne dass Compliance oder IT-Security frühzeitig eingebunden sind. Das Ergebnis: Systeme sind im Einsatz, bevor eine Risikoeinschätzung stattgefunden hat. Eine wirksame KI-Governance muss deshalb bereits im Beschaffungs- und Einführungsprozess verankert sein – nicht erst, wenn das System produktiv läuft.

Unterschätzung des Zeitaufwands für Dokumentation: Technische Dokumentation nach AI-Act-Standard ist kein Formular, das man in einer Nachmittagssitzung ausfüllt. Sie erfordert eine systematische Beschreibung des Systems, seiner Trainingsdaten, seiner Leistungsgrenzen, der eingesetzten Tests und der Maßnahmen zur menschlichen Aufsicht. Wer diesen Aufwand im Projektplan nicht einplant, scheitert typischerweise an der Umsetzung – nicht am Willen.

Vertrauen auf Anbieterangaben ohne eigene Prüfung: KI-Anbieter stellen zunehmend Compliance-Dokumentation bereit und bewerben ihre Systeme als „AI-Act-konform“. Das ist ein nützlicher Ausgangspunkt, ersetzt aber keine eigene Prüfung. Die Konformität eines Systems hängt nicht nur von seiner technischen Ausgestaltung ab, sondern vom konkreten Einsatzkontext. Ein System, das für Produktempfehlungen konzipiert wurde, kann im Einsatz für Personalentscheidungen plötzlich unter Hochrisiko-Kategorien fallen – unabhängig davon, was der Anbieter dokumentiert hat.

Wer jetzt handelt, hat einen Vorteil. Wer wartet, zahlt doppelt.

Die Frage, die viele Compliance-Verantwortliche umtreibt, lautet nicht: „Müssen wir das wirklich?“ Die Antwort steht seit August 2024 fest. Die eigentliche Frage lautet: „Wie kriegen wir das in unsere Struktur?“

Dafür gibt es keine universelle Blaupause. Aber es gibt klare Eckpunkte: Governance muss vor dem Einsatz von KI beginnen, nicht danach. Sie muss verankert sein – nicht als PDF auf dem SharePoint, sondern als gelebter Prozess mit klaren Verantwortlichkeiten. Und sie muss die Schnittstelle zwischen IT-Sicherheit und KI-Betrieb ernst nehmen, nicht als organisatorisches Randproblem behandeln.

Die nächste Frist – August 2026 für Hochrisiko-KI – ist keine abstrakte Zukunft mehr. Es sind weniger als fünfzehn Monate. Wer seinen Governance-Reifegrad noch nicht bewertet hat, sollte sich eine unbequeme Frage stellen: Warum eigentlich nicht?

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel