
Am 7. Mai 2026 einigten sich EU-Parlament und Rat auf einen Kompromiss, der ab dem 2. Dezember 2026 nicht-einvernehmliche intime Deepfakes verbietet und gleichzeitig eine Wasserzeichen-Pflicht für alle KI-generierten Inhalte einführt. Klingt vernünftig. Ist es auch. Aber die Umsetzung wird ein Kraftakt – und wer glaubt, dass ein Gesetz allein Nudifier-Apps aus dem Netz drängt, unterschätzt das Problem erheblich.
Der sogenannte AI Omnibus-Kompromiss ist kein kleiner Schritt. Er legt fest, dass KI-Systeme, die zur Erstellung sexualisierter Deepfakes oder von Material zum sexuellen Kindesmissbrauch eingesetzt werden, ab dem 2. Dezember 2026 in der EU verboten sind. Das ist das erste explizite Verbot dieser Art im europäischen KI-Rahmen – und es ist überfällig.
Gerade für diesen Aspekt ist auch unser Beitrag EU AI Act: Was der KI-Regulierungsrahmen für Verbraucher bedeutet relevant, weil er zusätzliche Hintergründe und Praxisfolgen beleuchtet.
Parallel dazu greift ab demselben Datum die Wasserzeichen-Pflicht. Anbieter von KI-Diensten müssen generierte Bilder, Videos und Audioinhalte mit erkennbaren digitalen Markierungen versehen. Drei Monate Übergangsfrist. Das klingt knapp, weil es knapp ist.
Gerade für diesen Aspekt ist auch unser Beitrag Erste AI Act Regulierungsbehörde: Was Unternehmen 2026 tun müssen relevant, weil er zusätzliche Hintergründe und Praxisfolgen beleuchtet.
Zum Vergleich: Hochrisiko-KI-Systeme in anderen Bereichen bekommen bis Dezember 2027 Zeit, KI in sicherheitskritischen Komponenten wie Medizingeräten sogar bis August 2028. Die EU hat hier bewusst priorisiert: Missbrauchsschutz zuerst, Industrieinteressen danach. Das ist eine klare politische Entscheidung – und eine richtige.
Die formelle Verabschiedung durch Parlament und Rat gilt nach Informationen vom Mai 2026 als Formsache und wird noch vor dem Sommer 2026 erwartet. Überwacht wird die Einhaltung vom neu gegründeten EU-KI-Amt, das bei Verstößen Bußgelder bis zu 6 Prozent des globalen Jahresumsatzes verhängen kann.
Hier lohnt sich Präzision, denn dieser Punkt wird in der öffentlichen Debatte regelmäßig falsch dargestellt. Das Deepfake-Verbot erfasst nicht generell synthetische Medien. Es richtet sich spezifisch gegen KI-Systeme, die zur Erstellung nicht-einvernehmlicher sexualisierter Inhalte oder zur Generierung von CSAM – also Material zum sexuellen Kindesmissbrauch – eingesetzt werden.
Deepfakes in der Satire, im Journalismus oder in der Filmproduktion sind damit nicht per se verboten. Das schafft eine Grauzone, die noch ausgelotet werden muss. Denn die genaue Definition dessen, was als „sexualisiert“ gilt, liegt nach dem Kompromiss vom Mai 2026 in der abschließenden Ausformulierung durch Rat und Parlament – die finalen Wortlaute stehen noch aus.
Praktisch relevant sind vor allem sogenannte Nudifier-Apps. Diese KI-Werkzeuge entkleiden per Algorithmus Bilder realer Personen ohne deren Zustimmung. Sie sind das Paradebeispiel für den Missbrauch, gegen den das Deepfake-Verbot gerichtet ist. Solche Anwendungen sind zwar im Gesetzestext nicht namentlich erwähnt, fallen aber eindeutig unter das Verbot nicht-einvernehmlicher sexualisierter KI-Inhalte. Wer ab Dezember 2026 noch eine solche App in der EU betreibt oder anbietet, verstößt gegen den AI Act.
Besonders gefährdet sind dabei Gruppen, die online besonders sichtbar sind: queere Personen, junge Frauen, Minderjährige. Seit 2024 wird eine Zunahme entsprechender Fälle auf Plattformen wie X dokumentiert. Zahlen, die das exakt quantifizieren, liegen aus den verfügbaren Quellen nicht vor – aber die Richtung ist eindeutig.
Ein zentrales Abgrenzungsproblem betrifft die kreative Nutzung synthetischer Medien. Satire und politische Kommentierung bedienen sich seit Langem übertriebener Darstellungen öffentlicher Personen – ob als Karikatur, Persiflage oder dramatische Inszenierung. Diese Tradition soll durch das Deepfake-Verbot ausdrücklich nicht angetastet werden. Entscheidend ist das Merkmal der Einvernehmlichkeit beziehungsweise der eindeutig satírischen Intention, die für das Publikum erkennbar ist.
Schwieriger wird es bei sogenannten Faceswap-Videos im Unterhaltungsbereich, bei denen das Gesicht einer Prominenten oder eines Prominenten in eine harmlose, aber nicht autorisierte Szene eingefügt wird. Solche Inhalte sind nicht sexualisiert, können aber trotzdem rufschädigend sein. Der AI Act greift hier nicht direkt – andere Rechtsgebiete wie Persönlichkeitsrecht und Datenschutz bleiben jedoch anwendbar. Die Abgrenzung zwischen erlaubter Kreativität und verbotenem Missbrauch wird in der Praxis Gerichte und Aufsichtsbehörden über Jahre beschäftigen.
Die Wasserzeichen-Pflicht ist konzeptionell smart. Sie verschiebt die Verantwortung auf die Anbieterseite: Wer KI-Inhalte erzeugt, muss diese als solche kenntlich machen. Der Nutzer soll erkennen können, was synthetisch ist und was nicht. Das ist eine der wenigen Regeln, die wirklich präventiv wirkt, statt nur auf Strafverfolgung zu setzen.
Technisch setzt sich zunehmend der C2PA-Standard durch – eine Koalition aus Adobe, Microsoft, Google und anderen, die maschinenlesbare Metadaten in Mediendateien einbetten. Anbieter wie OpenAI haben eigene Watermarking-Ansätze bereits angekündigt. Die EU-Pflicht ab Dezember 2026 beschleunigt diese Entwicklung.
Das Problem: Wasserzeichen lassen sich entfernen. Wer ein Bild komprimiert, screenshottet oder durch einfache Filter jagt, kann digitale Markierungen oft kappen. Die Pflicht trifft also zuverlässig seriöse Anbieter, aber nur bedingt kriminelle Akteure. Das ist kein Argument gegen die Regelung – aber ein Argument dafür, sie nicht als Allheilmittel zu verklären.
Für Content-Creator und Plattformen bedeutet das: Sie müssen die technische Infrastruktur aufbauen, bevor die Frist läuft. Drei Monate Übergangszeit für die Wasserzeichen-Pflicht sind aus meiner Sicht realistisch nur für große Anbieter zu stemmen, die schon heute an Kennzeichnungslösungen arbeiten. Kleine KI-Startups dürften in Zugzwang geraten.
Die technische Umsetzung der Wasserzeichen-Pflicht ist mehrstufig. Auf der Ebene der Metadaten bedeutet das, dass KI-generierte Inhalte beim Export automatisch mit standardisierten Angaben versehen werden müssen – wann, mit welchem System und unter welchen Bedingungen der Inhalt entstanden ist. Sichtbare Kennzeichnungen, etwa Logos oder Hinweistext, sind eine mögliche Ergänzung, aber nach aktuellem Stand des Kompromisses nicht zwingend vorgeschrieben.
Für Plattformen, die KI-generierte Inhalte Dritter hosten, entsteht eine zusätzliche Prüfpflicht: Sie müssen sicherstellen, dass hochgeladene Inhalte die vorgeschriebenen Markierungen tragen – oder zumindest Mechanismen bereitstellen, durch die Nutzer KI-generierten Content kennzeichnen können. Social-Media-Plattformen, die bereits mit KI-Labeln experimentieren, sind hier strukturell im Vorteil. Kleinere Hosting-Dienste und Community-Plattformen hingegen müssen möglicherweise erheblich in Moderationssysteme investieren, um die Anforderungen ab Dezember 2026 zu erfüllen. Wer diese Investition aufschiebt, riskiert nicht nur Bußgelder, sondern auch Reputationsschäden durch öffentlich dokumentierte Verstöße.
Der AI Act adressiert primär die Anbieter von KI-Systemen, nicht Endnutzerinnen und -nutzer direkt. Aber die Kaskade der Verpflichtungen trifft auch Plattformen, die KI-generierte Inhalte hosten oder verbreiten.
Plattformen müssen sicherstellen, dass Inhalte, die das Deepfake-Verbot verletzen, gemeldet und entfernt werden können. Bestehende Deepfakes werden nicht rückwirkend gelöscht – das Gesetz wirkt ab Dezember 2026 nach vorne. Wer also heute bereits Opfer eines nicht-einvernehmlichen Deepfakes ist, kann sich nicht auf den AI Act berufen, sondern muss bestehende rechtliche Wege nutzen, etwa die EU-Richtlinie gegen unbefugte KI-sexuelle Inhalte aus dem Jahr 2024, die Deutschland bis Sommer 2025 in nationales Recht umsetzen musste.
Für professionelle Content-Creator bedeutet die Wasserzeichen-Pflicht vor allem eines: Transparenz erzwingen, wo sie bisher freiwillig war. Wer KI-generierte Videos, Bilder oder Audioclips veröffentlicht, muss das kenntlich machen. Das betrifft Werbeagenturen genauso wie Influencer, die KI-Tools zur Bildbearbeitung nutzen. Die genaue Abgrenzung – ab wann ist ein KI-bearbeitetes Bild „KI-generiert“ im Sinne des Gesetzes? – wird Stoff für Regulierungsdiskussionen liefern, die über den Dezember 2026 hinausgehen.

Für Unternehmen, die KI-Inhalte erzeugen, anbieten oder verbreiten, ist der Handlungsdruck real. Die wichtigsten Schritte bis Dezember 2026:
Bußgelder bis zu 6 Prozent des globalen Umsatzes sind keine theoretische Größe. Für ein mittelständisches Unternehmen mit 50 Millionen Euro Jahresumsatz wären das bis zu 3 Millionen Euro – eine existenzbedrohende Summe, wenn die technische Umsetzung verschlafen wird.
Um den abstrakten Regelungsrahmen greifbarer zu machen, lohnt ein Blick auf typische Konstellationen. Eine mittelgroße Marketingagentur, die KI-generierte Produktbilder für Onlineshops erstellt, muss ab Dezember 2026 sicherstellen, dass jede ausgelieferte Bilddatei mit den vorgeschriebenen Metadaten versehen ist. Nutzt die Agentur externe KI-Dienste, liegt die primäre Kennzeichnungspflicht beim Dienstleister – die Agentur trägt aber Mitverantwortung, wenn sie wissentlich unkennzeichnete Inhalte weitergibt.
Ein Podcaster, der seine Stimme durch KI klonen und für automatisierte Episoden nutzen lässt, muss das in der Audiodatei und gegebenenfalls in der Beschreibung transparent machen. Ein Spieleentwickler, der KI-generierte Charakterporträts in sein Spiel integriert, ist ebenfalls kennzeichnungspflichtig – auch wenn die Inhalte nicht öffentlich auf einer Plattform erscheinen, sondern direkt im Produkt eingebettet sind. Wie die genauen Schwellenwerte und Ausnahmen für solche eingebetteten Anwendungsfälle aussehen, wird die finale Gesetzesformulierung und nachgelagerte Leitlinien des EU-KI-Amts klären müssen.
Das Deepfake-Verbot und die Wasserzeichen-Pflicht sind richtige Schritte. Aber sie stoßen an strukturelle Grenzen, die kein Gesetz allein überwinden kann.
Nudifier-Apps und ähnliche Missbrauchswerkzeuge werden nicht verschwinden, weil die EU sie verbietet. Sie werden in andere Jurisdiktionen ausweichen – Anbieter aus Drittstaaten ohne vergleichbare Regulierung werden weiterhin erreichbar sein, solange Plattformen und App-Stores sie nicht konsequent sperren. Die Frage, wie weit die Pflichten der Plattformen reichen, bleibt eine der schwierigsten im digitalen Regulierungsrecht.
Dazu kommt: Die Einigung zwischen Parlament und Rat markiert politisch einen Wendepunkt, aber die technische und rechtliche Durchsetzung ist eine andere Geschichte. Das EU-KI-Amt ist neu, personell noch im Aufbau, und wird in den ersten Jahren kaum alle Fälle systematisch verfolgen können.
Was wirklich hilft, ist das Zusammenspiel aus Verbot, technischer Kennzeichnungspflicht und gesellschaftlichem Druck auf Plattformen. Wenn Apple, Google und Meta Nudifier-Apps nicht mehr in ihren Stores zulassen – was sie unter dem Druck des AI Acts und nationaler Regulierung tun werden –, schrumpft die Erreichbarkeit erheblich. Das ist keine vollständige Lösung, aber eine wirksame Einschränkung.
Es ist kein Zufall, dass das Deepfake-Verbot gerade jetzt kommt. Die Zahl dokumentierter Fälle, in denen Frauen, Minderjährige und queere Personen Opfer nicht-einvernehmlicher KI-Bilder wurden, hat seit 2024 spürbar zugenommen. Deepfakes sind kein abstraktes Regulierungsproblem – sie sind digitale Gewalt.
Besonders junge Menschen, die online präsent sind, sind exponiert. Ein öffentlich zugängliches Profilbild reicht aus, um mit heutigen KI-Tools Material zu erzeugen, das die betroffene Person kompromittiert, erpressbar macht oder sozial isoliert. Das ist der Kontext, in dem das Deepfake-Verbot zu verstehen ist – nicht als abstrakte Technologiepolitik, sondern als Schutzrecht.
Die ergänzende EU-Datenschutzwende mit schärferen Regeln und neuen Fristen ab 2026 fügt dem noch eine weitere Schutzschicht hinzu: Wer personenbezogene Daten für KI-Training ohne valide Rechtsgrundlage verwendet, riskiert parallele DSGVO-Verstöße. Das Zusammenspiel beider Regelwerke macht Missbrauch teurer – juristisch und finanziell.
Für Menschen, die bereits Opfer nicht-einvernehmlicher Deepfakes wurden oder konkret befürchten, Ziel entsprechender Angriffe zu werden, ist der Dezember 2026 noch weit entfernt. Bereits jetzt stehen verschiedene rechtliche Wege zur Verfügung. In Deutschland können Betroffene auf das Persönlichkeitsrecht, den zivilrechtlichen Unterlassungsanspruch und – je nach Inhalt – auf strafrechtliche Tatbestände wie §184k StGB zurückgreifen, der die Verbreitung nicht-einvernehmlicher Nacktaufnahmen unter Strafe stellt. Wer Opfer einer Deepfake-Attacke wird, sollte den Inhalt dokumentieren, Anzeige erstatten und Plattformen direkt über deren Meldeformulare kontaktieren, da diese unter dem Digital Services Act zur Entfernung verpflichtet sind.
Präventiv empfiehlt es sich, öffentlich zugängliche Bilder auf das Notwendige zu beschränken und Privatsphäre-Einstellungen auf Social-Media-Plattformen regelmäßig zu überprüfen. Diese Maßnahmen schützen nicht vollständig, erhöhen aber die Hürde für potenzielle Angreifer spürbar. Ab Dezember 2026 kommt mit dem Deepfake-Verbot eine weitere Rechtsgrundlage hinzu – die bestehenden Schutzinstrumente bleiben jedoch ergänzend gültig und sollten nicht erst nach dem Inkrafttreten des AI Acts genutzt werden.
Zwischen dem politischen Kompromiss vom Mai 2026 und der praktischen Wirksamkeit ab Dezember 2026 liegen etwa sieben Monate. Das ist wenig. Für Technologieunternehmen, die Wasserzeichen noch nicht implementiert haben, beginnt die Uhr jetzt zu laufen. Für Plattformen, die noch keine klaren Richtlinien zu KI-generierten Inhalten haben, ist der Handlungsbedarf unmittelbar.
Interessant wird die Frage, wie das EU-KI-Amt die ersten Verstöße behandelt. Geht es mit Symbolwirkung gegen große Anbieter vor? Oder beginnt es mit kleinen Fällen, um Präzedenz zu schaffen? Die Antwort darauf wird bestimmen, wie ernst die Branche den Dezember-Termin tatsächlich nimmt.
Und noch eine offene Frage bleibt: Wie gehen die Mitgliedstaaten mit bestehenden nationalen Regelungen um – etwa dem deutschen Umsetzungsgesetz zur EU-Richtlinie von 2024 – wenn der AI Act ab Dezember einen übergeordneten Rahmen setzt? Hier drohen Überschneidungen und Rechtsunsicherheiten, die erst durch die Praxis der zuständigen Behörden aufgelöst werden.
Was bleibt: Das Deepfake-Verbot und die KI-Wasserzeichen-Pflicht sind das bisher Konkreteste, was europäische Regulierung gegen digitale Gewalt auf den Weg gebracht hat. Ob sie halten, was die politische Einigung verspricht, wird sich nicht am 2. Dezember 2026 entscheiden – sondern in den Monaten danach. Welche Plattformen, Anbieter und Behörden liefern dann wirklich?
Relevant bleibt in diesem Zusammenhang auch Eu Ai Act Verbraucher im Überblick, weil der Beitrag zusätzliche Hintergründe und praktische Folgen beleuchtet.
Relevant bleibt in diesem Zusammenhang auch Ai Act Erste Regulierungsbehoerde Was Unterne, weil der Beitrag zusätzliche Hintergründe und praktische Folgen beleuchtet.
Um Ihnen ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie Ihr Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder widerrufen, können bestimmte Merkmale und Funktionen beeinträchtigt werden.