EU AI Act: Unternehmen geraten jetzt unter echten Zeitdruck bei Governance

AI Act, Datenschutz – Compliance-Beauftragte prüft AI Act Governance-Dokumente in einem Behördenkonferenzraum
Der 2. August 2026 als harte Frist: Für Hochrisiko-KI gilt Governance-Pflicht. (Symbolbild)

Der 2. August 2026 rückt näher – und viele Unternehmen haben ihre Hausaufgaben beim AI Act noch nicht gemacht. Die Fristverlängerung durch den „Digital Omnibus“ ist gescheitert. Was jetzt auf dem Spiel steht, ist kein abstraktes Compliance-Problem, sondern bares Geld: bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.

Inhalt

Kein Aufschub mehr: Warum der gescheiterte Digital Omnibus die Lage verschärft

Ende April 2026 war kurz so etwas wie Erleichterung im Umlauf. Die „Digital Omnibus“-Initiative der EU-Kommission hätte Unternehmen mehr Zeit gegeben – konkret: Die Pflichten für Hochrisiko-KI-Systeme nach Anhang III hätten bis Dezember 2027 gelten sollen, Anhang I sogar bis August 2028. Nach zwölf Stunden Verhandlungen zwischen EU-Parlament und Rat war die Hoffnung vorbei. Keine Einigung, kein Aufschub.

Das ist kein technischer Verfahrensstreit. Das ist ein Weckruf. Unternehmen, die auf die Fristverlängerung spekuliert haben, stehen jetzt mit deutlich weniger Vorlaufzeit da als gedacht. Die Analyse von BornCity vom 6. Mai 2026 bringt es direkt auf den Punkt: Wer Governance nicht bis Sommer 2026 aufgebaut hat, riskiert Millionenstrafen – und Verzögerungen, die sich auf den gesamten Betrieb auswirken.

Was genau gilt bis wann? Verbotene KI-Praktiken – darunter Social Scoring und manipulative Techniken – sind bereits seit Februar 2025 untersagt. Für Hochrisiko-KI-Systeme, also etwa Systeme zur Personalauswahl, Kreditvergabe oder in kritischer Infrastruktur, läuft die Hauptfrist am 2. August 2026 ab. Transparenzpflichten für bestimmte KI-Systeme greifen ab demselben Datum. Das sind keine fernen Zukunftsszenarien. Das ist in drei Monaten.

Besonders kritisch ist die Lage für jene Unternehmen, die im vergangenen Jahr bewusst auf Zeit gespielt haben. In Gesprächen mit Compliance-Verantwortlichen aus dem Mittelstand zeigt sich immer wieder dasselbe Muster: Man hatte den Digital Omnibus als wahrscheinlichen Puffer eingeplant, interne Ressourcen wurden entsprechend zurückgehalten, und jetzt fehlt schlicht die Zeit, um Governance-Strukturen ordnungsgemäß aufzubauen. Das ist kein Einzelfall – es ist ein strukturelles Problem, das viele Branchen gleichzeitig trifft.

Was „Hochrisiko“ wirklich bedeutet – und wen es trifft

Der AI Act (Verordnung (EU) 2024/1689) klassifiziert KI-Systeme nach vier Risikostufen: minimal, begrenzt, hoch und verboten. Entscheidend für den praktischen Governance-Aufwand ist die Hochrisiko-Kategorie. Und hier unterschätzen viele Unternehmen schlicht, wie breit diese Kategorie gefasst ist.

Hochrisiko-KI umfasst Systeme in der Personalauswahl und -bewertung, in der Vergabe von Krediten und Versicherungen, in medizinischen Diagnosetools, in Systemen zur Bewertung von Schülerleistungen sowie in der kritischen Infrastruktur – Energie, Wasser, Verkehr. Wer glaubt, sein Unternehmen betreibe nur „einfache Chatbots“, sollte genau hinschauen: Sobald ein KI-System Entscheidungen vorbereitet oder trifft, die das Leben oder die wirtschaftliche Situation von Menschen wesentlich beeinflussen, ist Hochrisiko-Einordnung wahrscheinlich.

Für diese Systeme schreibt der AI Act vor: technische Dokumentation, Risikomanagement-System, hochwertige Trainingsdaten, menschliche Aufsicht, Transparenz gegenüber Behörden und Nutzern, und – besonders relevant für internationale Unternehmen – Registrierung in der EU-Datenbank. Das ist kein Papierkram am Rand. Das ist eine vollständige Governance-Infrastruktur.

Ein konkretes Beispiel zur Veranschaulichung: Ein mittelständisches Logistikunternehmen setzt ein KI-System ein, das Bewerberinnen und Bewerber für Fahrerpositionen automatisch vorselektiert, indem es Lebensläufe analysiert und eine Ranking-Liste erstellt. Das Ergebnis dieser Vorauswahl fließt direkt in die Entscheidung der HR-Abteilung ein. Genau dieses Szenario fällt unter Anhang III des AI Acts – Hochrisiko, ohne Wenn und Aber. Ähnliches gilt für ein Finanzdienstleistungsunternehmen, das einen KI-gestützten Scoring-Algorithmus nutzt, um Kreditanträge vorzufiltern. Beide Beispiele zeigen: Hochrisiko-KI ist keine Seltenheit großer Tech-Konzerne. Sie ist in ganz normalen Geschäftsprozessen eingebettet.

Meine Einschätzung: Viele mittelständische Unternehmen haben KI in den letzten zwei Jahren produktiv eingesetzt, ohne sich die Frage zu stellen, ob ihre Systeme nach AI Act als hochriskant einzustufen sind. Das war ein fataler blinder Fleck. Wer tiefer einsteigen möchte, findet in Überblick: Technologien der Künstlichen Intelligenz weiteren Hintergrund.

KI-Inventar: Der erste Schritt, den die meisten überspringen

Bevor Governance funktioniert, muss man wissen, was überhaupt zu regulieren ist. Das klingt banal, ist es aber nicht. In der Praxis haben viele Unternehmen keinen vollständigen Überblick darüber, welche KI-Systeme sie einsetzen – oft weil verschiedene Abteilungen eigenständig Tools beschafft haben, SaaS-Dienste mit eingebetteter KI genutzt werden oder Drittanbieter-APIs still und leise Entscheidungen vorbereiten.

Der erste konkrete Governance-Schritt ist deshalb die Erstellung eines KI-Inventars. Dieses sollte für jedes System festhalten: Welche Funktion übernimmt es? Welche Daten verarbeitet es? Wer ist für den Betrieb verantwortlich? Und – entscheidend für die Risikoklassifikation – welche Entscheidungen beeinflusst oder trifft es?

Erst mit diesem Inventar lässt sich sauber prüfen, welche Systeme in welche Risikokategorie fallen. Ohne diese Grundlage ist jede Datenschutz-Folgenabschätzung Stückwerk, und jeder Governance-Aufbau läuft ins Leere. Die IHK München empfiehlt als ersten Schritt genau diese Bestandsaufnahme – und stellt fest, dass der Mismatch zwischen AI Act und bestehenden DSGVO-Strukturen vertragliche Regelungen über gemeinsame Verantwortlichkeiten erfordert, die in den meisten Unternehmen noch fehlen.

In der Praxis hat sich bewährt, das KI-Inventar nicht als einmaliges Dokument zu verstehen, sondern als lebendiges Register, das bei jeder Neuanschaffung oder Systemänderung aktualisiert wird. Unternehmen, die das bereits so handhaben, berichten, dass sie dabei oft auf KI-Einsatz stoßen, der intern gar nicht als KI wahrgenommen wurde – etwa automatisierte Priorisierungs-Algorithmen in CRM-Systemen oder vorausschauende Wartungsmodelle in der Produktion. Genau diese versteckten Einsatzszenarien sind das eigentliche Risiko.

Datenschutz-Folgenabschätzung: Pflicht, nicht Kür

Wer KI mit personenbezogenen Daten betreibt, hat mit dem AI Act noch ein zweites Regelwerk im Nacken: die DSGVO. Und hier gibt es eine wichtige Klarstellung, die in der öffentlichen Debatte oft verwischt wird – der AI Act ersetzt die DSGVO nicht. Er ergänzt sie. Beide Regelwerke gelten parallel, und sie interagieren auf eine Weise, die erheblichen Mehraufwand bedeutet.

Konkret: Für KI-Systeme, die personenbezogene Daten verarbeiten und Interaktionen oder Bewertungen von Menschen betreffen, ist eine Datenschutz-Folgenabschätzung (DSIA/DSFA) nach Art. 35 DSGVO obligatorisch. Die Datenschutzkonferenz (DSK) hat diese Anforderung in ihrer Blacklist (Nr. 11) explizit für Systeme festgehalten, die das Verhalten oder den Status von Personen bewerten. Das trifft auf einen erheblichen Teil der Hochrisiko-KI-Systeme zu.

Was bedeutet das praktisch? Eine DSFA muss die Art der Verarbeitung beschreiben, die Notwendigkeit und Verhältnismäßigkeit prüfen, Risiken für Betroffene bewerten und Maßnahmen zur Abhilfe definieren. Das ist nicht in einem Nachmittag erledigt. Gleichzeitig verlangt der AI Act für Hochrisiko-Systeme eine eigenständige Risikobewertung. Beide Dokumente müssen konsistent sein – was Abstimmung zwischen Datenschutzbeauftragten und KI-Governance-Verantwortlichen erfordert, die oft noch nicht einmal klar definiert sind.

Seit 2018 haben Datenschutzbehörden in der EU DSGVO-Bußgelder von insgesamt mehr als 4,5 Milliarden Euro verhängt (Stand: April 2026). KI-Systeme, die ohne korrekte DSFA betrieben werden, sind dabei ein wachsender Schwerpunkt der Behördenprüfungen.

Ein praktischer Hinweis für Unternehmen, die jetzt die Parallelität beider Regelwerke meistern müssen: Versuchen Sie nicht, DSFA und AI-Act-Risikoanalyse als zwei vollständig getrennte Dokumente zu erstellen. In vielen Fällen lassen sich Synergien nutzen, indem ein gemeinsames Basisdokument erstellt wird, das beide Anforderungsrahmen adressiert und von Datenschutzbeauftragtem und KI-Verantwortlichem gemeinsam gezeichnet wird. Das spart Zeit – ohne rechtliche Abstriche zu machen, sofern alle Pflichtinhalte beider Regelwerke vollständig abgedeckt sind.

Datenschutzbeauftragter erstellt KI-Inventar an Whiteboard im Büro
Erster Schritt vor jeder AI-Act-Compliance: das vollständige KI-Inventar. (Symbolbild)

Verantwortlichkeiten klären: Wer haftet für die KI?

Eine der praktisch schwierigsten Fragen in der AI Act-Umsetzung ist nicht technischer, sondern organisatorischer Natur: Wer ist intern für ein KI-System verantwortlich? Der AI Act unterscheidet zwischen Anbietern (die das System entwickeln) und Betreibern (die es einsetzen). Für die meisten Unternehmen, die KI von Drittanbietern einkaufen und produktiv einsetzen, gilt: Sie sind Betreiber – und tragen damit eigenständige Pflichten.

Diese Pflichten umfassen die Kontrolle, dass das System so eingesetzt wird, wie im Konformitätsdokument des Anbieters beschrieben, die Sicherstellung menschlicher Aufsicht, die Meldung schwerwiegender Vorfälle und die Schulung des Personals, das mit dem System arbeitet. Das erfordert klare interne Rollenverteilung. Wer ist der KI-Beauftragte? Gibt es ein Gremium, das Risikoentscheidungen trifft? Wie läuft die Eskalation bei Vorfällen?

In der Praxis hat sich gezeigt, dass diese Fragen in vielen Unternehmen ungeklärt sind. Die Technik läuft, die Verantwortung ist diffus. Das ist genau das Szenario, das Regulatoren im Blick haben, wenn sie Sanktionen verhängen. Bußgelder nach AI Act können bis zu 35 Millionen Euro oder 7 Prozent des globalen Jahresumsatzes betragen – je nachdem, was höher ist.

Ein oft übersehenes Gegenargument lautet: „Wir kaufen die KI nur ein, der Anbieter ist verantwortlich.“ Das ist rechtlich falsch und strategisch gefährlich. Selbst wenn ein Anbieter ein CE-zertifiziertes Hochrisiko-System liefert, bleibt der Betreiber dafür verantwortlich, dass der Einsatz im eigenen Unternehmen den Vorgaben entspricht. Wird das System anders genutzt als vom Anbieter dokumentiert – etwa in einem anderen Anwendungskontext oder mit anderen Nutzerdaten – kann die Betreiberhaftung greifen, unabhängig von der Zertifizierung des Anbieters. Verträge mit Drittanbietern müssen diese Abgrenzung klar regeln.

DSGVO und AI Act verzahnen: Was Datenschutzprozesse leisten müssen

Die gute Nachricht für Unternehmen mit funktionierendem Datenschutz-Management: Bestehende DSGVO-Prozesse sind keine Sackgasse, sondern ein Ausgangspunkt. Die Frage ist, wie sie um AI-Act-Anforderungen erweitert werden müssen.

Laut Telekom MMS liegt die zentrale Herausforderung darin, bewährte Datenschutzprozesse um die AI-Act-spezifischen Anforderungen zu ergänzen – insbesondere Fairness, Transparenz und Erklärbarkeit von KI-Systemen. Ein Datenschutz-Management-System, das bislang auf Einwilligung, Zweckbindung und Datensparsamkeit ausgerichtet war, muss nun auch Trainingsdaten-Qualität, Bias-Prüfungen und Logging-Anforderungen abdecken.

Konkret bedeutet das: Verarbeitungsverzeichnisse müssen um KI-spezifische Felder erweitert werden. Datenschutzfolgenabschätzungen für Hochrisiko-Systeme müssen die AI-Act-Risikoanalyse integrieren. Und Drittanbieter-Verträge – also Auftragsverarbeitungsverträge oder Joint-Controller-Agreements – müssen AI-Act-Pflichten explizit regeln, inklusive Auskunftsrechte für Behörden und Pflichten bei Datenvorfällen.

Privacy-Enhancing Technologies (PETs) wie Pseudonymisierung oder synthetische Daten können helfen, den Datenschutz beim KI-Training zu verbessern. Aber eine wichtige Klarstellung: Pseudonymisierte Daten sind keine personenbezogenen Daten im Sinne der DSGVO nur dann nicht mehr, wenn eine Re-Identifikation ausgeschlossen ist. Das ist in der Praxis selten der Fall. Eine Ausnahmeregelung in diesem Punkt, die im Rahmen des Digital Omnibus diskutiert wurde, ist gescheitert.

Für Unternehmen, die bereits ein reifes Datenschutz-Management betreiben, empfiehlt sich ein Gap-Assessment: Welche bestehenden Prozesse decken AI-Act-Anforderungen bereits ab – auch wenn sie nicht explizit dafür konzipiert wurden? Und wo entstehen echte neue Pflichten, die bislang nicht adressiert sind? Diese strukturierte Bestandsaufnahme verhindert, dass das Rad komplett neu erfunden wird, und ermöglicht einen zielgerichteten Ressourceneinsatz in den verbleibenden Wochen.

Regulatorische Sandbox als Option – und ihre Grenzen

Der AI Act enthält einen wenig bekannten, aber interessanten Mechanismus für Unternehmen, die KI neu entwickeln: regulatorische Sandboxes nach Artikel 59 des AI Acts. Diese erlauben es, KI-Systeme unter kontrollierten Bedingungen zu testen – auch mit Daten, die unter normalen Umständen nicht für KI-Training genutzt werden dürften.

Der Haken: Sandboxes sind kein Freifahrtschein. Sie sind zeitlich begrenzt, erfordern die Zustimmung der zuständigen nationalen Aufsichtsbehörde und gelten ausschließlich für die Entwicklungsphase. Wer ein KI-System produktiv einsetzt, ist out of scope für die Sandbox-Regelung. Für die meisten Unternehmen, die bereits laufende KI-Systeme regulieren müssen, ist dieser Mechanismus daher nur begrenzt relevant.

Was bleibt, ist der Hinweis: Wer neue KI-Projekte plant, sollte die Sandbox-Option frühzeitig prüfen – nicht als Ausweg aus der Regulierung, sondern als legalen Weg, Regulierungsanforderungen besser zu verstehen, bevor das System in den Produktivbetrieb geht.

In Deutschland ist die Bundesnetzagentur eine der relevanten Anlaufstellen für Sandbox-Anträge, auch wenn die genauen Zuständigkeiten je nach Anwendungsbereich variieren. Für Unternehmen, die sich für diesen Weg interessieren, gilt: Der bürokratische Aufwand ist nicht trivial, und die Vorlaufzeit für eine Sandbox-Genehmigung beträgt erfahrungsgemäß mehrere Monate. Wer bis August 2026 in den Produktivbetrieb gehen möchte, hat dieses Fenster bereits verpasst. Der Mechanismus bleibt aber für Folgeprojekte und neue KI-Initiativen nach dem Stichdatum eine sinnvolle Option.

Drei Monate bis zur Frist: Was jetzt konkret zu tun ist

Drei Monate sind wenig. Aber sie reichen, wenn die richtigen Prioritäten gesetzt werden. Wer jetzt noch nicht begonnen hat, sollte sich auf die folgenden Schritte konzentrieren:

  • KI-Inventar erstellen: Alle genutzten KI-Systeme erfassen, Anbieter und Betriebsmodus dokumentieren, Risikoklassifikation vornehmen.
  • Hochrisiko-Systeme priorisieren: Für jeden Hochrisiko-Kandidaten sofort prüfen, welche Konformitätsdokumentationen der Anbieter liefert – und was das Unternehmen als Betreiber selbst leisten muss.
  • Datenschutz-Folgenabschätzung anstoßen: Für alle KI-Systeme mit personenbezogenen Daten und Bewertungs- oder Interaktionsfunktionen eine DSFA beauftragen oder aktualisieren.
  • Verantwortlichkeiten definieren: Einen KI-Verantwortlichen benennen, Gremienstrukturen für Risikoentscheidungen schaffen, Eskalationswege dokumentieren.
  • Drittanbieter-Verträge prüfen: Bestehende Verträge auf AI-Act-Pflichten durchleuchten – Auskunftsrechte, Vorfallsmeldungen, menschliche Aufsicht.
  • Personal schulen: Mitarbeitende, die KI-Systeme bedienen, müssen die Grenzen und Risiken dieser Systeme kennen. Das ist keine optionale Maßnahme.

Für Unternehmen, die mit begrenzten Ressourcen arbeiten, empfiehlt sich ein risikobasierter Ansatz: Nicht alle Schritte müssen gleichzeitig und gleich tiefgehend umgesetzt werden. Stattdessen sollte der Fokus zunächst auf den Systemen liegen, die mit größter Wahrscheinlichkeit als Hochrisiko einzuordnen sind und bei denen im Falle einer Behördenprüfung der größte Schaden droht. Ein solches Triage-Vorgehen ist kein Freifahrtschein für Nachlässigkeit – aber es ist realistischer als der Versuch, alles auf einmal perfekt zu machen.

Ich sage das ohne Beschönigung: Wer diese Schritte jetzt nicht in Angriff nimmt, handelt fahrlässig. Nicht weil der AI Act in jeder Konstellation gleich scharf durchgesetzt wird, sondern weil er Unternehmen in eine nachweisbare Haftungsposition bringt – und die Behörden in Deutschland und Europa signalisiert haben, dass sie durchsetzen wollen.

Was bleibt – und was die eigentliche Frage ist

Der AI Act ist kein Hindernis für KI-Innovation. Er ist eine Aufforderung, KI so einzusetzen, dass man dazu stehen kann. Unternehmen, die jetzt Governance aufbauen, schaffen nicht nur Compliance-Sicherheit, sondern auch Vertrauen – bei Kunden, bei Behörden, bei Geschäftspartnern. Geprüfte KI-Governance ist, richtig verstanden, ein Wettbewerbsvorteil.

Es gibt durchaus ein legitimes Gegenargument: Kleinere Unternehmen und Start-ups stehen vor der realen Gefahr, durch den Compliance-Aufwand des AI Acts in ihrer Innovationsfähigkeit gebremst zu werden, während große Konzerne die notwendigen Ressourcen problemlos mobilisieren können. Dieses strukturelle Ungleichgewicht ist ein valider Kritikpunkt an der Regulierung – und er erklärt, warum viele mittelständische Akteure auf den Digital Omnibus gehofft haben. Dennoch ändert das nichts an der rechtlichen Realität: Die Frist gilt, unabhängig von Unternehmensgröße oder Ressourcenlage. Wer heute in den Dialog mit zuständigen Behörden geht und aktiv Compliance-Bemühungen dokumentiert, steht im Ernstfall deutlich besser da als jemand, der gar nicht reagiert hat.

Die eigentliche Frage ist aber: Warum hat es so lange gedauert? Der AI Act ist kein Überraschungsgesetz. Er wurde jahrelang verhandelt, ist seit Juni 2024 in Kraft, und die August-Frist war von Beginn an bekannt. Dass viele Unternehmen jetzt unter Zeitdruck geraten, liegt nicht an der Regulierung – sondern daran, dass Governance intern zu lange als nachrangige Aufgabe behandelt wurde. KI-Compliance wurde als IT-Thema abgestempelt, statt als strategische Unternehmenspflicht behandelt zu werden, die Rechtsabteilung, Datenschutz, HR und Geschäftsführung gleichermaßen betrifft.

Unternehmen, die den August 2026 als Startpunkt und nicht als Endpunkt verstehen – als Beginn einer kontinuierlichen Governance-Praxis, nicht als einmalige Compliance-Übung – werden langfristig die bessere Position haben. Die Regulierung wird sich weiterentwickeln, neue KI-Systeme werden hinzukommen, und Aufsichtsbehörden werden ihre Prüfpraxis schärfen. Wer jetzt die organisatorischen Grundlagen legt, muss in zwei Jahren nicht wieder bei null anfangen.

Was ist Ihr nächster konkreter Schritt – und wer in Ihrem Unternehmen ist dafür verantwortlich?

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel