
Zwei Fristen sind bereits verstrichen. Die nächste naht. Und doch zeigen interne Compliance-Audits in deutschen Unternehmen immer wieder dasselbe Bild: KI-Governance ist zwar auf der Agenda, aber in der Praxis fehlen Risikoregister, Schulungsnachweise und klare Zuständigkeiten. Wer das EU-KI-Gesetz noch als abstraktes Brüsseler Dokument behandelt, wird in wenigen Monaten teuer zahlen.
Der AI Act (Verordnung (EU) 2024/1689) ist seit dem 1. August 2024 in Kraft. Das ist kein Neuigkeitswert mehr. Was viele Unternehmen beim AI-Act-Zeitdruck für Governance aber noch nicht verinnerlicht haben: Seit dem 2. Februar 2025 gelten bereits verbindliche Verbote für sogenannte unannehmbare KI-Praktiken. Darunter fallen Social Scoring durch Behörden, subliminal manipulative Systeme und bestimmte Formen biometrischer Echtzeit-Überwachung. Wer solche Systeme betreibt oder einsetzt, handelt seit über einem Jahr rechtswidrig.
Ebenfalls seit Februar 2025 gilt die Kompetenzpflicht: Arbeitgeber müssen sicherstellen, dass ihre Mitarbeiterinnen und Mitarbeiter ausreichend KI-Literacy besitzen – proportional zum jeweiligen Einsatzkontext. Das ist keine Empfehlung, das ist eine Arbeitgeberpflicht nach Art. 4 AI Act. Schulungsnachweise fehlen jedoch in zahlreichen Unternehmen komplett.
Meine Einschätzung: Die häufigste Fehlannahme lautet, der AI Act sei primär ein Problem für Tech-Konzerne und KI-Entwickler. Das stimmt nicht. Er gilt ausdrücklich auch für Deployer – also jedes Unternehmen, das KI-Systeme im eigenen Kontext betreibt. Der Mittelständler, der ein KI-gestütztes Bewerbermanagementsystem einkauft und intern nutzt, ist Deployer im Sinne des Gesetzes. Damit ist er regulierungspflichtig.
Besonders kritisch ist die Situation bei eingekaufter Software: Viele Unternehmen gehen davon aus, dass der Softwareanbieter sämtliche Compliance-Pflichten trägt. Das ist ein Irrtum. Die Deployer-Verantwortung kann vertraglich zwar teilweise aufgeteilt werden, grundsätzlich bleibt das einsetzende Unternehmen aber für den Betriebskontext und die sachgerechte Nutzung verantwortlich. Wer also ein HR-Tool mit KI-Komponente lizenziert und darin Bewerberdaten auswertet, muss eigenständig prüfen, ob das System unter Hochrisiko-Kategorien fällt und welche Pflichten daraus folgen.
Seit dem 2. August 2025 sind auch die Sanktionsregeln des AI Act vollständig anwendbar. Verstöße gegen die Verbote unannehmbarer KI-Praktiken können mit Bußgeldern von bis zu 35 Millionen Euro oder 7 Prozent des globalen Jahresumsatzes bestraft werden – je nachdem, welcher Betrag höher ausfällt. Für Verstöße bei Hochrisiko-KI sind bis zu 15 Millionen Euro oder 3 Prozent des Umsatzes vorgesehen. Falsche oder irreführende Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro.
Diese Zahlen sind nicht theoretisch. Nationale Aufsichtsbehörden wurden bereits in mehreren EU-Mitgliedstaaten benannt. Die EU-Kommission hat das Europäische Amt für KI eingerichtet, das vor allem bei GPAI-Modellen (General Purpose AI) direkte Aufsichtskompetenz hat. Wer jetzt noch in der Wartehaltung verharrt, setzt sich einem konkreten Haftungsrisiko aus.
Hinzu kommt: Seit August 2025 greifen auch die Pflichten für Anbieter sogenannter GPAI-Modelle – also großer Sprachmodelle und ähnlicher Systeme mit weitreichenden Einsatzmöglichkeiten. Technische Dokumentation, Einhaltung von Urheberrechtsvorschriften und Transparenzpflichten sind Pflichtprogramm. Wer ein solches Modell im Kontext von Europas souveräner KI-Infrastruktur anbietet, ohne diese Grundlagen erfüllt zu haben, riskiert unmittelbar behördliches Einschreiten.
Die nächste große Frist ist August 2026. Dann greifen die vollständigen Pflichten für Hochrisiko-KI-Systeme gemäß Anhang III des AI Act. Betroffen sind Systeme in Bereichen wie Biometrie, kritische Infrastruktur, Bildung und Berufsausbildung, Beschäftigung, grundlegende Dienstleistungen, Strafverfolgung, Migration und Justiz. Die vollständigen Verpflichtungen für alle Hochrisiko-Systeme, die in bestehende Produkte integriert sind, folgen dann bis August 2027.
Was diese Pflichten konkret bedeuten, ist umfangreicher als viele erwarten: Risikomanagement-System aufbauen und dokumentieren, Datenqualitätsprüfungen einführen, technische Dokumentation erstellen, Protokollierungsfunktionen aktivieren, Transparenz gegenüber Nutzenden gewährleisten, menschliche Aufsicht sicherstellen und – besonders relevant für diesen Artikel – Cybersicherheitsanforderungen erfüllen.
Letzteres ist kein Zusatz, sondern zentrales Merkmal: Hochrisiko-KI muss laut AI Act ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit aufweisen. Manipulierte Trainingsdaten, sogenannte Adversarial Attacks oder Modell-Poisoning können direkt zu Kontrollverlust führen – und damit zur Haftung. Wer bis August 2026 kein funktionsfähiges Sicherheitskonzept für seine KI-Systeme vorlegen kann, hat ein ernstes Problem.
Eine Frage, die Compliance-Teams zunehmend beschäftigt: Wie verhält sich der AI Act zu NIS-2? Die kurze Antwort lautet – beide Regelwerke überlappen sich und verstärken sich gegenseitig. Wer Cloud-Dienste betreibt oder kritische Infrastruktur mit KI-Systemen absichert, unterliegt sowohl den Cyber-Regeln der NIS-2-Richtlinie als auch den Anforderungen des AI Act an Robustheit und Sicherheit.
Konkret: Ein Energieversorger, der ein KI-gestütztes System zur Angriffserkennung im Netz betreibt, muss sowohl die NIS-2-Meldepflichten einhalten als auch – sobald das System als Hochrisiko-KI einzustufen ist – die Anforderungen des AI Act an Dokumentation, Audit-Trails und Cybersicherheit erfüllen. Wer die Governance-Strukturen für NIS-2 bereits aufgebaut hat, hat einen Vorsprung. Wer beides noch nicht angegangen ist, hat ein doppeltes Problem.
Praktisch bedeutet das: IT-Sicherheitsteams und KI-Governance-Verantwortliche müssen enger zusammenarbeiten als bisher. Das klingt trivial, ist es aber nicht. In vielen Organisationen sind beide Bereiche noch siloartig getrennt. KI-Governance wird dem Datenschutzbeauftragten oder der Rechtsabteilung zugeschoben, während IT-Security bei der IT-Abteilung verbleibt. Diese Trennung ist teuer und gefährlich.
Ein weiterer Überschneidungspunkt betrifft das Incident-Management: NIS-2 schreibt vor, sicherheitsrelevante Vorfälle innerhalb enger Fristen zu melden. Der AI Act verlangt seinerseits, dass schwerwiegende Vorfälle im Zusammenhang mit Hochrisiko-KI den zuständigen Marktüberwachungsbehörden gemeldet werden. Beide Meldepflichten können denselben Vorfall betreffen – etwa wenn ein KI-System zur Infrastruktursteuerung durch einen Angriff kompromittiert wird. Unternehmen sollten deshalb ihre Incident-Response-Prozesse so gestalten, dass beide Meldestränge gleichzeitig bedient werden können, ohne interne Zuständigkeiten zu duplizieren oder zu verzögern.

KI-Governance ist kein einmaliges Dokument, das man erstellt und ablegt. Es ist ein kontinuierlicher Prozess, der Risikoklassifizierung, Kontrolle, Dokumentation und Monitoring umfasst. Der erste Schritt – und er ist nicht optional – ist ein vollständiges Inventar aller eingesetzten KI-Systeme. Wo wird KI genutzt? In welchem Kontext? Von wem? Mit welchen Daten?
Aus diesem Inventar ergibt sich dann die Risikoklassifizierung. Fällt ein System unter Anhang III des AI Act? Ist es GPAI? Oder fällt es in die Kategorie minimales Risiko, für die der AI Act keine spezifischen Pflichten vorsieht? Rund 99 Prozent der weltweit eingesetzten KI-Systeme – darunter Spamfilter, Empfehlungsalgorithmen und Videospiel-KI – sind nach aktuellem Stand minimal risikoreich und unterliegen keinen besonderen Pflichten. Aber: Diese Einschätzung muss dokumentiert und begründbar sein.
Die Analyse von CASIS zeigt, dass Unternehmen, die jetzt in geprüfte KI-Governance investieren, nicht nur Compliance-Risiken reduzieren, sondern auch Wettbewerbsvorteile durch einheitliche EU-Standards gewinnen können. Das ist kein Greenwashing-Argument, sondern eine strukturell nachvollziehbare These: Wer Governance früh aufbaut, muss sie später nicht unter Druck nachrüsten.
Ein häufiger Einwand lautet, KI-Governance sei zu ressourcenintensiv für mittelständische Unternehmen. Dieser Einwand ist verständlich, aber in seiner Absolutheit falsch. Für Systeme mit minimalem Risiko genügt eine dokumentierte Selbsteinschätzung. Aufwändig wird Governance erst dort, wo Hochrisiko-Systeme tatsächlich eingesetzt werden. Der eigentliche Fehler besteht darin, den Aufwand nicht zu skalieren – also entweder alles als unkritisch abzutun oder überall maximale Bürokratie aufzubauen. Der AI Act ist risikobasiert konzipiert: Wer diesen Gedanken ernst nimmt, kann den Aufwand gezielt auf die wirklich kritischen Systeme konzentrieren.
Im November 2025 hat die EU-Kommission das sogenannte Digitale Omnibus-Paket vorgeschlagen. Es enthält unter anderem den Vorschlag, die Übergangsfrist für bestimmte Hochrisiko-KI auf 16 Monate zu kürzen sowie die Anforderungen an technische Dokumentation für KMU zu vereinfachen. Außerdem soll das Europäische Amt für KI gestärkt werden.
Wichtig für Unternehmen: Dieser Vorschlag ist Stand Mai 2026 noch nicht final verabschiedet. Er befindet sich im Gesetzgebungsverfahren. Das bedeutet: Auf die Erleichterungen des Omnibus-Pakets zu warten, ist keine Compliance-Strategie. Die aktuell geltenden Fristen und Pflichten des AI Act bleiben verbindlich, bis eine Änderung offiziell in Kraft tritt.
Auch die Vereinfachungen ändern nichts an den grundlegenden Anforderungen: Risikoklassifizierung, Kompetenzaufbau und Cybersicherheitsmaßnahmen für Hochrisiko-KI bleiben auch nach einer möglichen Omnibus-Reform Pflicht. Wer also mit dem Aufbau von KI-Governance wartet, bis das Paket beschlossen ist, verliert kostbare Zeit.
Governance-Strukturen bauen sich nicht über Nacht auf. Wer bis August 2026 compliance-fähig sein will, muss jetzt starten. Nicht in drei Monaten, nicht nach der nächsten Vorstandsklausur – jetzt.
Ich halte diesen letzten Punkt für den unterschätztesten: Dokumentation klingt bürokratisch, ist aber der entscheidende Nachweis im Behördenverfahren. Wer bei einer Kontrolle keine lückenlose Dokumentation vorlegen kann, verliert – unabhängig davon, wie gut das System technisch gebaut ist.
Neben den strukturellen Versäumnissen gibt es in der Praxis einige wiederkehrende Muster, die den Aufbau funktionsfähiger KI-Governance verzögern oder sabotieren. Das Bewusstsein dafür ist ein erster Schritt, sie zu vermeiden.
Fehlende Ownership im Unternehmen: KI-Governance ist keine reine Rechtsaufgabe, keine reine IT-Aufgabe und keine reine Datenschutzaufgabe. Sie erfordert eine übergreifende Verantwortlichkeit, die typischerweise auf Führungsebene verankert sein muss. Ohne klare Ownership – wer trägt am Ende die Verantwortung für das KI-Inventar, die Risikoklassifizierung, die Schulungsnachweise? – versanden Governance-Initiativen regelmäßig in Zuständigkeitsdebatten.
Zu späte Einbindung der Fachabteilungen: KI-Systeme werden häufig von Fachabteilungen beschafft oder in Auftrag gegeben, ohne dass Compliance oder IT-Security frühzeitig eingebunden sind. Das Ergebnis: Systeme sind im Einsatz, bevor eine Risikoeinschätzung stattgefunden hat. Eine wirksame KI-Governance muss deshalb bereits im Beschaffungs- und Einführungsprozess verankert sein – nicht erst, wenn das System produktiv läuft.
Unterschätzung des Zeitaufwands für Dokumentation: Technische Dokumentation nach AI-Act-Standard ist kein Formular, das man in einer Nachmittagssitzung ausfüllt. Sie erfordert eine systematische Beschreibung des Systems, seiner Trainingsdaten, seiner Leistungsgrenzen, der eingesetzten Tests und der Maßnahmen zur menschlichen Aufsicht. Wer diesen Aufwand im Projektplan nicht einplant, scheitert typischerweise an der Umsetzung – nicht am Willen.
Vertrauen auf Anbieterangaben ohne eigene Prüfung: KI-Anbieter stellen zunehmend Compliance-Dokumentation bereit und bewerben ihre Systeme als „AI-Act-konform“. Das ist ein nützlicher Ausgangspunkt, ersetzt aber keine eigene Prüfung. Die Konformität eines Systems hängt nicht nur von seiner technischen Ausgestaltung ab, sondern vom konkreten Einsatzkontext. Ein System, das für Produktempfehlungen konzipiert wurde, kann im Einsatz für Personalentscheidungen plötzlich unter Hochrisiko-Kategorien fallen – unabhängig davon, was der Anbieter dokumentiert hat.
Die Frage, die viele Compliance-Verantwortliche umtreibt, lautet nicht: „Müssen wir das wirklich?“ Die Antwort steht seit August 2024 fest. Die eigentliche Frage lautet: „Wie kriegen wir das in unsere Struktur?“
Dafür gibt es keine universelle Blaupause. Aber es gibt klare Eckpunkte: Governance muss vor dem Einsatz von KI beginnen, nicht danach. Sie muss verankert sein – nicht als PDF auf dem SharePoint, sondern als gelebter Prozess mit klaren Verantwortlichkeiten. Und sie muss die Schnittstelle zwischen IT-Sicherheit und KI-Betrieb ernst nehmen, nicht als organisatorisches Randproblem behandeln.
Die nächste Frist – August 2026 für Hochrisiko-KI – ist keine abstrakte Zukunft mehr. Es sind weniger als fünfzehn Monate. Wer seinen Governance-Reifegrad noch nicht bewertet hat, sollte sich eine unbequeme Frage stellen: Warum eigentlich nicht?
Um Ihnen ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie Ihr Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder widerrufen, können bestimmte Merkmale und Funktionen beeinträchtigt werden.