
Es war ein Abend, der in Brüsseler Journalistenzirkeln bereits als historisch eingestuft wurde – allerdings im negativen Sinne. Nach mehr als zwölf Stunden Verhandlungsmarathon zwischen Vertretern des Europäischen Parlaments und des Rats der Europäischen Union stand fest: Die Verhandlungen zur sogenannten Omnibus-Reform des EU AI Act sind gescheitert. Keine Einigung. Kein Kompromiss. Kein Ausweg aus der regulatorischen Sackgasse.
Was war passiert? Bereits im März 2026 hatten sowohl das Europäische Parlament als auch der Rat der EU ihre jeweiligen Positionen zum Omnibus-Vorschlag verabschiedet. Auf dem Papier schien die Welt einfach: Der Vorschlag sah vor, die Fristen für Hochrisiko-KI-Systeme von August 2025 auf August 2026 zu verschieben. Unternehmen sollten mehr Zeit bekommen, sich auf die neuen Anforderungen einzustellen. Praxistauglichkeit statt Bürokratie.
In der Theorie klang das vernünftig. In der Praxis zerbrachen die Verhandler an derselben Frage, an der EU-Gesetzgebung seit jeher zerbricht: Wer definiert, was „Hochrisiko“ bedeutet – und wer haftet, wenn etwas schiefgeht?
Der EU AI Act klassifiziert KI-Systeme nach Risikostufen. Am unteren Ende stehen minimalriskante Anwendungen wie Empfehlungssysteme in Streaming-Diensten. Am oberen Ende befinden sich Hochrisiko-Systeme – und genau hier liegt das Problem.
Zur Hochrisiko-Kategorie gehören laut Anhang III des Gesetzes unter anderem KI-Systeme, die in Bereichen wie Bildung, Beschäftigung, Strafverfolgung oder kritische Infrastruktur eingesetzt werden. Konkret: Ein Algorithmus, der Studierende bewertet, eine Software, die Bewerber für eine Stelle vorsortiert, oder ein System, das in der Sozialverwaltung Entscheidungen über Hilfsleistungen trifft.
Die Omnibus-Reform wollte genau für diese Kategorie mehr Zeit einräumen. Doch der Teufel steckt im Detail. Während das Parlament eine klare, enge Definition von „verschiebbar“ durchsetzen wollte – damit nicht jedes beliebige Hochrisiko-System in den Genuss einer Fristverlängerung kommt –, pochte der Rat auf maximale Flexibilität für seine Mitgliedstaaten. Man wolle, so die Argumentation einiger Länder, selbst entscheiden können, welche Systeme als kritisch gelten und welche nicht.
Das Ergebnis: Zwei unvereinbare Positionen, serviert auf einem Verhandlungstisch, umgeben von müden Beamten und dem Gefühl, dass die Uhr längst weiter tickt als gedacht.
Für Unternehmen, die seit Inkrafttreten des EU AI Act im Jahr 2024 auf klare Regeln warten, ist die Situation frustrierend. Zwar gilt der Großteil der Transparenz- und Dokumentationspflichten bereits seit August 2025. Doch die wirklich belastenden Anforderungen – Risikomanagement-Systeme, Konformitätsbewertungen, post-market Monitoring – sollten erst jetzt, im August 2026, vollständig greifen.
Und genau hier kommt die Omnibus-Reform ins Spiel. Sie sollte diese Frist ein zweites Mal verschieben. Nicht weil die Politik Pficht, sondern weil die Realität zeigt: Die meisten Unternehmen sind schlicht nicht vorbereitet.
Eine branchenübergreifende Umfrage des Bitkom aus dem Frühjahr 2026 ergab, dass mehr als 60 Prozent der befragten Unternehmen angaben, noch nicht einmal mit der grundlegenden Risikoklassifizierung ihrer KI-Systeme begonnen zu haben. Die Gründe sind vielfältig: fehlende Fachkräfte, unklare Leitlinien des EU AI Office, und eine regulatorische Landschaft, die sich quasi monatlich ändert.
„Wir brauchen Klarheit, nicht noch mehr Zeit“, fasste ein Sprecher des Bundesverbands der Deutschen Industrie (BDI) die Stimmung zusammen. Und genau das ist das Problem: Die Politik bietet Zeit, aber keine Klarheit.
Einer der kritischsten Aspekte der aktuellen Situation ist das Schweigen der zuständigen Aufsichtsbehörde. Das EU AI Office, angesiedelt bei der Europäischen Kommission, sollte längst konkrete Leitlinien zur Auslegung des Gesetzes veröffentlicht haben. Passiert ist: wenig bis nichts.
Die Behörde, die als zentrale Anlaufstelle für Unternehmen und nationale Aufsichtsbehörden fungieren soll, hat bislang nur allgemeineInterpretationshilfen herausgegeben. Konkrete Fragen – etwa wie ein Hochrisiko-System in der Bildungspraxis aussehen muss, welche Dokumentationspflichten für Chatbot-Anwendungen gelten, oder ab wann informelle KI-Nutzung durch Lehrende als relevant gilt – bleiben unbeantwortet.
Das Fatale daran: Gerade im Bildungssektor entsteht dadurch eine paradoxe Situation. Akademiker, die ChatGPT oder andere generative KI-Tools informell zum Bewerten von Studentenarbeiten nutzen, bewegen sich in einer regulatorischen Grauzone. Denn streng genommen kann das Bewerten von Leistungen durch KI als Hochrisiko-Anwendung gelten – und damit den vollen Compliance-Anforderungen des Gesetzes unterliegen.
Ohne Leitlinien des AI Office gibt es keine Rechtssicherheit. Universitäten und Hochschulen wissen nicht, ob ihre KI-gestützten Bewertungssysteme compliant sind oder ob sie gerade eine Compliance-Lawine lostreten. Und solange das EU AI Office schweigt, wird sich daran nichts ändern.
Der gescheiterte Verhandlungsversuch in Brüssel fällt in eine Zeit, in der die regulatorische Landschaft für KI international komplexer wird denn je. In den Vereinigten Staaten hat die US-Regierung mit dem sogenannten Executive Order for AI Clarity Act einen Gegenentwurf zur europäischen Regulierung positioniert. Weitere Informationen zur US-Strategie. Während der EU AI Act auf Ex-ante-Kontrolle und Transparenzpflichten setzt, setzen die USA auf einen marktfreundlicheren Ansatz mit weniger direkter staatlicher Intervention.
Für europäische Unternehmen entsteht dadurch ein doppelter Nachteil: Einerseits binden sie Ressourcen für eine Compliance, deren Ausgestaltung unklar ist. Andererseits konkurrieren sie mit internationalen Playern, die unter wesentlich weniger strengen Auflagen operieren können.
Die Omnibus-Reform war in diesem Kontext auch als strategischer Move gedacht – quasi als Signal an die Wirtschaft: Seht her, wir hören euch, wir geben euch mehr Zeit. Doch ein Gesetz, das nicht verabschiedet wird, sendet das genaue Gegenteil: Unsicherheit, Bürokratie, und das Gefühl, dass Europa beim Thema KI wieder einmal hinterherhinkt.
Nach dem gescheiterten Verhandlungsmarathon stehen die Zeichen auf Verzögerung – nicht auf Lösung. Mehrere Szenarien sind derzeit in der Diskussion:
Erstens: Eine Rückkehr an den Verhandlungstisch mit neuem Mandat für die Trilog-Verhandler. Das wäre der optimistische Fall, realistisch aber mit weiteren Wochen oder Monaten Verzögerung verbunden.
Zweitens: Eine einseitige Fristverlängerung durch die Europäische Kommission via delegierter Rechtsakte. Rechtlich möglich, politisch aber heikel, weil es die Gewaltenteilung zwischen Kommission, Parlament und Rat verschiebt.
Drittens: Das Inkrafttreten der bestehenden Fristen trotz fehlender Leitlinien. Das Worst-Case-Szenario für Unternehmen, weil es Compliance-Pficht ohne klare Regeln bedeutet – und damit de facto auf eine Mischung aus собствен risk und behördlicher Einzelfallprüfung hinausläuft.
Experten halten Szenario drei für die wahrscheinlichste Entwicklung, sollte der Trilog nicht zeitnah wieder aufgenommen werden. „Die Kommission wird den Druck nicht dauerhaft aushalten“, prognostizierte ein Brüsseler Regulierungsexperte gegenüber dem Digital Magazin. „Irgendwann wird jemand entscheiden müssen, auch wenn die Leitlinien nicht fertig sind.“
So ernüchternd die politische Lage ist: Unternehmen, die jetzt proaktiv handeln, verschaffen sich einen Vorsprung. Denn eines ist sicher – die Anforderungen des EU AI Act verschwinden nicht. Sie werden höchstens verzögert, und irgendwann treffen sie mit voller Wucht.
Konkrete Schritte, die jetzt Sinn ergeben — von der Risikoinventur bis zur Rechtsberatung:
1. Risikoinventur durchführen: Verschaffen Sie sich einen Überblick, welche KI-Systeme in Ihrem Unternehmen eingesetzt werden und wie diese klassifiziert sind. Auch wenn die Hochrisiko-Definition noch nicht 100-prozentig klar ist – eine intern dokumentierte Einschätzung ist besser als nichts.
2. Dokumentation beginnen: Die Anforderungen an Transparenz und Nachvollziehbarkeit gelten bereits. Beginnen Sie jetzt, Prozesse zu dokumentieren, auch wenn die finalen Leitlinien des AI Office noch ausstehen. Dokumentation ist kein Einmalgang, sondern ein Prozess.
3. Lieferketten prüfen: Der EU AI Act adressiert nicht nur direkt eingesetzte KI, sondern auch KI in der Lieferkette. Wenn Sie Cloud-Dienste oder externe Software nutzen, prüfen Sie, ob dort KI im Spiel ist und wie deren Compliance dokumentiert ist.
4. Kontakt zu Aufsichtsbehörden: In Deutschland ist die zuständige Behörde noch nicht abschließend definiert. Bleiben Sie mit den relevanten Stellen im Austausch, um frühzeitig über Änderungen informiert zu sein.
5. Rechtsberatung einholen: Für Unternehmen, die tatsächlich Hochrisiko-Systeme betreiben, ist externe Expertise keine Optionalität. Die Komplexität des Gesetzes und die ausstehende Konkretisierung durch Leitlinien machen spezialisierte Beratung essenziell.
Lassen Sie mich an dieser Stelle deutlich werden: Die Situation beim EU AI Act ist nicht nur ein regulatorisches Problem – sie ist ein Symptom dafür, wie die EU Gesetzgebung macht.
Man einigt sich auf ein Gesetz, dessen Auswirkungen man nicht vollständig durchdacht hat. Dann schiebt man Fristen, um Zeit zu gewinnen – aber diese Zeit wird nicht genutzt, um Leitlinien zu schreiben, sondern um weitere Verhandlungsrunden zu absolvieren. Das Ergebnis ist ein Zustand der regulatorischen Unsicherheit, der Innovation hemmt und Unternehmen in eine Abwarteposition zwingt.
Der Clarity Act der USA ist in diesem Licht kein Feind des europäischen Ansatzes – er ist ein Wettbewerber. Und Wettbewerber reagieren schneller. Während die EU noch über die genaue Definition von „Hochrisiko“ diskutiert, setzen amerikanische Unternehmen längst produktiv KI ein und generieren Wettbewerbsvorteile.
Die Omnibus-Reform hätte ein Signal sein können: Wir verstehen die Bedenken der Wirtschaft, wir nehmen sie ernst, und wir liefern. Stattdessen wurde sie zum Symbol dafür, wie Brüsseler Bürokratie selbst die besten Absichten erstickt.
Was die EU jetzt braucht, ist nicht mehr Zeit, sondern mehr Fokus. Leitlinien jetzt. Konkret statt abstrakt. Und ein klares Bekenntnis dazu, dass die Balance zwischen Innovation und Regulierung nicht auf Kosten der Innovation geht.
Der gescheiterte Trilog zur Omnibus-Reform ist kein technisches Problem. Es ist ein politisches. Die Fristen sind nicht gescheitert, weil die Materie zu komplex wäre – sondern weil Parlament und Rat ihre jeweiligen Machtpositionen nicht aufgeben wollen.
Unternehmen, die sich auf den EU AI Act vorbereiten, stehen vor einer besonderen Herausforderung: Sie müssen Compliance vorbereiten, ohne zu wissen, was genau compliance bedeutet. Das EU AI Office schweigt, die Leitlinien bleiben aus, und die Zeit rennt.
Mein Rat: Handeln Sie so, als ob die Fristen gelten. Denn sie werden irgendwann gelten – und die Unternehmen, die dann vorbereitet dastehen, werden die sein, die jetzt nicht gewartet haben.
Die Omnibus-Reform mag noch kommen. Vielleicht mit Verzögerung, vielleicht mit Kompromissen, die niemanden vollständig zufriedenstellen. Aber die eigentliche Frage – wie Europa mit künstlicher Intelligenz umgehen will – wird sie nicht beantworten. Diese Frage erfordert einen grundlegenden strategischen Konsens, der weit über technische Details und Fristverschiebungen hinausgeht.
Solange dieser Konsens fehlt, wird jede Reform nur ein Pflaster auf einer Wunde sein, die tiefer reicht.
Um Ihnen ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie Ihr Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder widerrufen, können bestimmte Merkmale und Funktionen beeinträchtigt werden.