Nudifier-Verbote im EU AI Act: Wie weit die neuen KI-Verbotsregelungen zu Deepfakes wirklich reichen

KI-Verbotsregelungen, Deepfakes – EU-Compliance-Beamtin mit AI Act Dokument in Brüssel – KI-Verbotsregelungen Durchsetzung
Der EU AI Act verbietet Nudifier-Tools ab Dezember 2026 – aber Enforcement bleibt die offene Flanke. (Symbolbild)

Am 7. Mai 2025 hat der sogenannte Omnibus-Deal im Rahmen des EU AI Acts erstmals Nudifier-Apps und KI-Tools zur Generierung von Kindesmissbrauchsmaterial ausdrücklich in die Liste verbotener KI-Praktiken aufgenommen – mit Geltung ab dem 2. Dezember 2026. Das ist eine Premiere: Nicht nur die Verbreitung solcher Inhalte ist nun reguliert, sondern die Herstellung selbst. Was das konkret bedeutet, wo die Regelung greift – und wo sie versagt.

Inhalt

Was der Omnibus-Deal tatsächlich neu regelt

Der EU AI Act ist seit August 2024 in Kraft. Was viele übersehen: Er gilt nicht sofort vollständig. Die Verbotsregelungen nach Artikel 5 – die härteste Kategorie, „inakzeptables Risiko“ – sind seit Februar 2025 anwendbar. Der Omnibus-Deal vom 7. Mai 2025 präzisiert und erweitert diese Liste. Neu explizit aufgenommen: KI-Systeme, die dazu dienen, sexualisierte Deepfakes non-konsensuell zu erzeugen, also sogenannte Nudifier-Apps, sowie Systeme zur Generierung von Kindesmissbrauchsmaterial (CSAM). Diese Verbote werden ab dem 2. Dezember 2026 vollständig durchgesetzt.

Das ist eine qualitative Verschiebung. Bisher konzentrierten sich Deepfake-Regelungen fast ausschließlich auf Transparenzpflichten: Wer synthetische Inhalte verbreitet, muss sie kennzeichnen. Das trifft legitime Anbieter von Bildgeneratoren, Videoplattformen und kreative Anwendungen. Es trifft aber kaum jemanden, der gezielt Missbrauchs-KI entwickelt und diese eben nicht kennzeichnet. Die neue Regel setzt früher an – bei der Herstellung und dem Angebot solcher Systeme.

Laut Artikel 5 des EU AI Acts gilt das Verbot für das Inverkehrbringen, die Inbetriebnahme oder die Nutzung solcher Systeme innerhalb der Union. Das ist breiter als ein reines Produktionsverbot: Wer ein Nudifier-Tool anbietet, betreibt oder in der EU verfügbar macht, verstößt gegen das Gesetz – unabhängig davon, wo der Server steht.

Warum das Verbot trotzdem nicht automatisch wirkt

Wer glaubt, mit einer EU-Verordnung seien Nudifier-Tools aus der Welt, unterschätzt das Enforcement-Problem. Es ist das Kernproblem des gesamten AI Acts – und bei dieser Kategorie von Missbrauchs-KI besonders akut.

Der erste Schwachpunkt ist die Zuständigkeitsstruktur. Der AI Act weist den Mitgliedstaaten die Aufgabe zu, nationale Marktaufsichtsbehörden zu benennen. Diese Behörden sollen Verstöße verfolgen, Bußgelder verhängen und Systeme vom Markt nehmen. Für Verstöße gegen Artikel 5 sieht der AI Act Sanktionen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes vor – je nachdem, welcher Betrag höher ist. Das klingt abschreckend. Aber: Eine Behörde in Köln oder Wien hat begrenzte Mittel, um gegen eine App-Schmiede mit Serverinfrastruktur außerhalb der EU vorzugehen.

Deepfakes, die non-konsensuelle sexualisierte Darstellungen erzeugen, sind ein globales Phänomen. Viele Nudifier-Dienste operieren aus Jurisdiktionen, die mit der EU keine kooperativen Enforcement-Abkommen haben. Das Verbot gilt zwar für das Angebot in der EU, aber ein Nutzer in München, der über einen nicht-europäischen Dienst auf ein solches Tool zugreift, bewegt sich in einer regulatorischen Grauzone, die technisch schwer zu schließen ist.

Open-Source-Modelle: Die systematische Lücke

Es gibt einen zweiten, strukturell noch schwieriger zu schließenden Kanal: Open-Source-Modelle. Bildgenerierungsmodelle wie Stable Diffusion stehen in ihrer Basisarchitektur frei verfügbar. Jede Person mit ausreichend technischem Wissen kann ein solches Modell lokal betreiben, mit eigenen Daten finetunen und so effektiv ein Nudifier-Tool bauen – ohne je mit einem kommerziellen Anbieter zu interagieren.

Der AI Act sieht für Open-Source-Modelle grundsätzlich Ausnahmen vor, sofern die Parameter öffentlich zugänglich sind und keine kommerzielle Verwertung stattfindet. Das ist politisch verständlich: Man wollte die Open-Source-Entwicklercommunity nicht pauschal unter Generalverdacht stellen. Das Ergebnis ist aber eine klaffende Lücke im Verbotsregime. Ein Akteur, der lokal ein Nudifier-System betreibt und keine Dienste vermarktet, ist regulatorisch kaum greifbar – selbst wenn die erzeugten Inhalte eindeutig illegal sind.

Meine Einschätzung dazu: Diese Lücke ist kein Versehen, sondern eine bewusste politische Entscheidung. Sie zeigt, wie schwer es ist, Missbrauchs-Szenarien zu adressieren, ohne gleichzeitig legitime Forschung und Open-Source-Innovation zu bremsen. Aber sie macht das Verbot für technikaffine Täter praktisch wirkungslos.

Technische Durchsetzung: Wasserzeichen und ihre Grenzen

Ein zentrales Instrument, das der AI Act für synthetische Inhalte vorsieht, ist die Kennzeichnungspflicht – konkret: digitale Wasserzeichen oder Metadaten-Tags, die maschinenlesbaren Aufschluss über den KI-Ursprung eines Bildes geben. Für legitime Anbieter ist das umsetzbar. Für Missbrauchs-KI ist es irrelevant.

Wer ein System betreibt, das explizit gegen das Gesetz verstößt, wird keine Wasserzeichen einbetten. Und selbst dort, wo legitime Systeme Wasserzeichen verwenden, sind diese technisch nicht unumgehbar. Bildkompression, Screenshot, erneutes Encoding – die gängigen Umgehungsmethoden sind seit Jahren bekannt. Freshfields hat in seiner Analyse zum AI Act diesen Punkt explizit als systemische Schwäche der Transparenzstrategie bezeichnet.

Das bedeutet nicht, dass Wasserzeichen nutzlos sind. Für den Massenmarkt, für Plattformmoderation und für forensische Nachverfolgung sind sie ein sinnvolles Werkzeug. Für das gezielte Enforcement gegen Nudifier-Tools oder CSAM-Generierungssysteme sind sie allein nicht ausreichend. Sie adressieren den legalen Markt, nicht den illegalen.

Entwickler mit lokalem KI-Modell auf mehreren Monitoren – Open-Source-Enforcement-Lücke
Lokale Open-Source-Modelle bleiben eine kaum greifbare Lücke in den neuen EU-Verbotsregelungen. (Symbolbild)

Das Zusammenspiel mit DSA und nationalem Strafrecht

Realistische Enforcement-Strategien müssen den AI Act deshalb als ein Element in einem Regelungsmix verstehen. Der Digital Services Act verpflichtet sehr große Online-Plattformen zu proaktiven Risikominderungsmaßnahmen – darunter auch das Entfernen illegaler Inhalte, Hash-Matching gegen bekannte CSAM-Datenbanken und schnellere Takedown-Prozesse. Das ist keine direkte Regulierung von Nudifier-Tools, aber eine Plattformverantwortung, die deren Verbreitung erschwert.

Dazu kommt nationales Strafrecht. In Deutschland sind die Verbreitung von Kindesmissbrauchsmaterial und das non-konsensuelle Teilen intimer Bildaufnahmen bereits strafbar. Einige Länder haben zusätzliche Regelungen zu Deepfakes und sexueller Belästigung eingeführt oder planen diese. Das Europaparlament hat im Januar 2026 eine Debatte zur Bekämpfung von Deepfakes und sexueller Ausbeutung auf sozialen Medien geführt, was zeigt: Das Thema ist politisch noch längst nicht abgeschlossen.

Die Herausforderung ist die Koordination. AI Act, DSA und nationales Strafrecht greifen theoretisch ineinander. In der Praxis bedeutet das aber: verschiedene Behörden, verschiedene Zuständigkeiten, verschiedene Zeitpläne. Wer zwischen diesen Zuständigkeiten fällt, fällt durch das Raster. Und genau das wissen Akteure, die solche Systeme betreiben.

Cross-Border-Szenarien: Wer setzt was durch?

Das gravierendste strukturelle Problem beim Enforcement ist das Cross-Border-Szenario. Ein Nudifier-Dienst, betrieben von einem Unternehmen auf den Cayman Islands, gehostet auf Servern in Singapur, genutzt von Personen in der EU über einen VPN-Zugang – wer verfolgt das? Der AI Act formuliert einen extraterritorialen Anspruch: Er gilt für Anbieter, die ihre Systeme im EU-Markt platzieren, unabhängig vom Sitz. Aber Anspruch und Realität klaffen auseinander.

Die EU-Kommission hat keine eigene Strafverfolgungsbehörde. Sie ist auf nationale Behörden angewiesen, die wiederum auf internationale Rechtshilfe angewiesen sind. Bei CSAM gibt es mit dem National Center for Missing & Exploited Children (NCMEC) und Europol etablierte Strukturen zur Koordination. Für kommerzielle Nudifier-Tools ohne explizites CSAM ist die Zusammenarbeit deutlich weniger strukturiert.

Das ist keine Kritik an der Intention des AI Acts, sondern an einem realen Kapazitätsproblem. Digitale Souveränität – also die Fähigkeit, eigene Regeln tatsächlich durchzusetzen – ist nicht nur eine Frage der Gesetzgebung, sondern eine Frage von Ressourcen, Technik und internationaler Kooperation. Beides ist derzeit noch im Aufbau.

Was Betroffene und Zivilgesellschaft konkret fordern

Aus Betroffenenperspektive ist die aktuelle Regelungslage unbefriedigend. Wer von einem Nudifier-Tool zum Opfer wird, steht vor einem Rechtewahrnehmungsproblem: Wer ist Ansprechpartner? Welche Behörde ist zuständig? Wie schnell werden Inhalte entfernt? Der AI Act gibt darauf keine direkten Antworten – er regelt Hersteller und Anbieter, nicht primär den Rechtsbehelf für Betroffene.

Zivilgesellschaftliche Organisationen und Rechtswissenschaftler fordern deshalb ergänzende Instrumente: schnellere Takedown-Mechanismen mit klaren Fristen, ein Betroffenenregister für Deepfake-Opfer, proaktive Plattformpflichten auch für mittlere Dienste – nicht nur für „sehr große Online-Plattformen“ nach DSA-Definition – sowie bessere Koordinationsmechanismen zwischen nationalen Behörden.

Das ist nicht unrealistisch, aber es erfordert politischen Willen und Ressourcen, die über den Text des AI Acts hinausgehen. Die Verbotsregelung ab Dezember 2026 ist ein wichtiger Schritt. Sie ist aber kein Abschluss – sie ist ein Anfang, der weitere Arbeit verlangt.

Gegenargumente: Was Befürworter breiter Verbote übersehen

Es gibt eine ernsthafte Gegenposition zur Forderung nach noch schärferen KI-Verbotsregelungen bei Deepfakes, die in der öffentlichen Debatte zu wenig Raum bekommt. Sie lautet: Zu weit gefasste Verbote schaden legitimen Anwendungen, ohne den Missbrauch wirksam zu stoppen. Wer ein Verbot für alle Bildgenerierungsmodelle fordert, die theoretisch für Nudifier-Zwecke missbraucht werden könnten, trifft damit auch medizinische Bildverarbeitung, künstlerische KI-Projekte, forensische Analysewerkzeuge und Forschungsanwendungen.

Dieses Argument verdient Respekt – und zeigt, warum der Ansatz des AI Acts grundsätzlich richtig ist: nicht das Werkzeug pauschal verbieten, sondern die spezifisch missbräuchliche Anwendung. Die Schwäche liegt nicht im Ansatz, sondern in der Durchsetzung. Ein scharf gezieltes Verbot, das nicht vollzogen werden kann, ist am Ende weniger effektiv als ein breiteres Verbot mit echter Enforcement-Kapazität. Das ist die eigentliche Abwägung, die Gesetzgeber und Aufsichtsbehörden bis 2026 treffen müssen.

Hinzu kommt ein weiteres oft übersehenes Argument: Verbote können den Markt für legitime Anbieter konsolidieren, während illegale Akteure ohnehin ausweichen. Das ist kein Grund, auf Verbote zu verzichten. Es ist aber ein Grund, Verbote nicht als Hauptinstrument zu betrachten, sondern als Teil eines breiteren Maßnahmenpakets, das Plattformverantwortung, internationale Kooperation und technische Gegenmittel einschließt.

Praxis-Szenarien: Wer ist konkret betroffen?

Um die Regelung greifbar zu machen, lohnt ein Blick auf konkrete Konstellationen, die ab Dezember 2026 rechtlich relevant werden.

Szenario 1 – Kommerzieller EU-Anbieter: Ein deutsches Startup entwickelt eine App, die auf Basis von Nutzerfotografien synthetische Ganzkörperbilder ohne Kleidung generiert. Dieser Dienst fällt klar unter das Verbot nach Artikel 5. Die zuständige nationale Marktaufsichtsbehörde kann die App untersagen, Bußgelder verhängen und Inhalte vom Markt nehmen lassen. Dieser Fall ist rechtlich am einfachsten.

Szenario 2 – Nicht-EU-Dienst mit EU-Nutzern: Eine App aus einem Drittland bietet dieselbe Funktion an und richtet sich aktiv an europäische Nutzer, etwa durch deutschsprachige Benutzeroberfläche und Euro-Preisgestaltung. Der AI Act beansprucht auch hier Geltung. Tatsächliche Durchsetzung erfordert jedoch internationale Kooperation oder – als Notlösung – Sperrungen auf Netzwerkebene, die ihrerseits rechtlich und technisch umstritten sind.

Szenario 3 – Privatperson mit lokalem Modell: Eine Einzelperson betreibt ein lokal installiertes Open-Source-Bildgenerierungsmodell, das sie für Nudifier-Zwecke nutzt, ohne einen Dienst anzubieten. Hier greift das AI-Act-Verbot in seiner aktuellen Form kaum. Strafrecht – etwa wegen Herstellung bildlicher Darstellungen des sexuellen Missbrauchs oder wegen Belästigung – kann greifen, setzt aber zusätzliche Tatbestandsmerkmale voraus. Regulatorisch ist dieser Fall die härteste Nuss.

Szenario 4 – API-Anbieter: Ein Unternehmen stellt eine generische Bildgenerierungs-API bereit, die Dritte für Nudifier-Anwendungen nutzen. Je nach Ausgestaltung der Nutzungsbedingungen und technischer Schutzmaßnahmen könnte dieses Unternehmen als „Deployer“ im Sinne des AI Acts haften – selbst wenn es von der konkreten Nutzung keine Kenntnis hatte. Diese Grauzone wird die Rechtspraxis in den nächsten Jahren beschäftigen.

Härtere Verbote, schwache Infrastruktur: Was bis Dezember 2026 zu tun bleibt

Wer denkt, mit dem Stichtag 2. Dezember 2026 sei das Problem gelöst, liegt falsch. Bis dahin müssen Mitgliedstaaten ihre nationalen Marktaufsichtsbehörden vollständig aufgestellt haben – mit ausreichend Personal, technischer Expertise und klaren Verfahren für Verdachtsmeldungen. Das ist ambitioniert, gemessen an dem, was viele Mitgliedstaaten bisher konkret vorbereitet haben.

Unternehmen, die KI-Systeme entwickeln oder betreiben, sollten bereits jetzt prüfen, ob ihre Produkte in die Verbotskategorie fallen könnten – auch wenn die vollständige Anwendbarkeit noch aussteht. Die Sanktionshöhe macht das zu einem ernsthaften Haftungsthema, nicht zu einem fernen regulatorischen Datum.

Für die Tech-Branche bedeutet das konkret: Compliance-Checks für bestehende Bildgenerierungs- und Videotools, klare Nutzungsbedingungen, die Nudifier-Funktionalität ausschließen, und technische Schutzmaßnahmen gegen Missbrauch der eigenen Infrastruktur. Wer ein Modell oder eine API bereitstellt, die für Nudifier-Zwecke missbraucht werden kann, könnte als „Deployer“ im Sinne des AI Acts in Haftung geraten – auch ohne direkten Vorsatz.

Und schließlich: Der Enforcement-Aufbau braucht ressourcierte Behörden, die mit technischer Kompetenz ausgestattet sind. Ein klassisches Verwaltungsamt, das noch nie ein Bildgenerierungsmodell analysiert hat, wird kaum in der Lage sein, Verstöße gegen Artikel 5 effektiv aufzudecken. Hier ist die politische Entscheidung fällig: Wie viel Geld und Expertise investieren EU-Mitgliedstaaten tatsächlich in die Durchsetzung ihrer eigenen Regeln?

Was bleibt

Der Omnibus-Deal zum AI Act markiert einen echten Fortschritt: Erstmals reguliert EU-Recht nicht nur die Verbreitung von Missbrauchs-KI, sondern deren Herstellung und Angebot. Das ist eine andere Qualität als Transparenzpflichten. Die Lücken sind trotzdem real – Open-Source-Modelle, Cross-Border-Dienste, fehlende Behördenkapazitäten und technisch umgehbare Kennzeichnungsstandards. Meine Einschätzung: Das Gesetz ist besser als sein Ruf, aber schlechter als seine Ankündigung.

Die eigentliche Frage ist keine juristische. Sie ist eine politische: Wie viel Enforcement ist die EU bereit, tatsächlich zu finanzieren und zu priorisieren? Ein Verbot ohne wirksame Durchsetzung ist nicht Schutz – es ist Symbolpolitik. Was passiert, wenn im Dezember 2026 die erste Meldestelle eines EU-Mitgliedstaats öffentlich einräumt, sie sei technisch und personell nicht in der Lage, Verstöße gegen Nudifier-Verbote zu verfolgen?

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel