KI revolutioniert das Marketing – doch zwischen Personalisierung und Datenschutz lauern rechtliche Fallstricke. Dieser Praxisleitfaden zeigt, wie Marketing-Entscheider AI-Tools DSGVO-konform einsetzen, welche Anbieter sich eignen und welche Fehler teuer werden können.
Künstliche Intelligenz hat das Marketing grundlegend verändert. Personalisierte Produktempfehlungen, KI-generierte Texte, automatisierte E-Mail-Kampagnen und intelligente Chatbots sind längst keine Zukunftsmusik mehr – sie gehören zum Standard-Repertoire moderner Marketing-Abteilungen. Doch während die Möglichkeiten wachsen, verschärft sich der regulatorische Rahmen. Die DSGVO und der neue EU AI Act bilden einen Doppelrahmen, den Marketing-Verantwortliche verstehen und umsetzen müssen. Dieser Beitrag liefert das notwendige Wissen und konkrete Handlungsempfehlungen.
Der regulatorische Doppelrahmen: DSGVO trifft AI Act
Die Datenschutz-Grundverordnung und der EU AI Act ersetzen sich nicht gegenseitig – sie ergänzen einander. Erwägungsgrund 10 des AI Acts stellt dies unmissverständlich klar. Für Unternehmen bedeutet das: Beide Regelwerke müssen parallel erfüllt werden.
Die DSGVO regelt den Umgang mit personenbezogenen Daten. Artikel 22 verbietet es, Personen einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung zu unterwerfen, die sie erheblich beeinträchtigt. Im Marketing-Kontext ist die Abgrenzung entscheidend: Produktempfehlungen auf einer Website sind typischerweise kein Problem. Anders sieht es bei algorithmischer Preisdiskriminierung oder der automatisierten Verweigerung von Dienstleistungen aus.
Der EU AI Act tritt stufenweise in Kraft. Seit Februar 2025 gelten die Verbote manipulativer KI-Praktiken und die KI-Kompetenzpflicht: Alle Mitarbeitenden, die mit KI arbeiten, müssen nachweislich geschult sein. Ab August 2026 werden die Transparenzpflichten vollständig anwendbar – KI-generierte Inhalte müssen dann maschinenlesbar gekennzeichnet werden, Chatbots als KI-System erkennbar sein.
Die gute Nachricht für Marketing-Teams: Die meisten KI-Anwendungen im Marketing fallen in die Kategorien „minimales“ oder „begrenztes Risiko“ des AI Acts. Textgenerierung, Bildgenerierung für Kampagnen und Spam-Filter unterliegen keinen spezifischen Pflichten. Chatbots und KI-generierte Inhalte erfordern lediglich Transparenzpflichten. Nur Kreditwürdigkeitsbewertung und KI im Recruiting erreichen die Hochrisiko-Kategorie.
Sechs Marketing-Anwendungen und ihre konkreten Risiken
Personalisierung und Recommendation Engines
Wer Kaufhistorie, Browsing-Verhalten und Interaktionsdaten verarbeitet, betreibt Profiling nach Artikel 4 DSGVO. Solange reine Produktempfehlungen ohne erhebliche Wirkung auf den Betroffenen bleiben, greift Artikel 22 nicht. Sobald jedoch dynamische Preisgestaltung oder Zugangsbeschränkungen hinzukommen, ändert sich die rechtliche Bewertung fundamental.
Eine Datenschutz-Folgenabschätzung nach Artikel 35 ist bei KI-gestütztem Profiling in der Regel erforderlich. Die Datenschutzkonferenz der deutschen Aufsichtsbehörden hat dies in ihrer Orientierungshilfe vom Mai 2024 unmissverständlich klargestellt.
Predictive Analytics und Lead Scoring
Lead Scoring unterliegt als systematische Bewertung persönlicher Aspekte besonders strengen Regeln. Der BGH bestätigte im März 2025 das Recht auf Erklärung der wesentlichen Scoring-Faktoren. Unternehmen müssen nicht den gesamten Algorithmus offenlegen, aber die Entscheidungsgrundlagen transparent machen.
Artikel 21 Absatz 2 DSGVO gewährt zudem ein absolutes Widerspruchsrecht gegen Profiling zu Direktmarketingzwecken – ohne dass eine Abwägung stattfindet. Dieses Recht muss aktiv kommuniziert werden.
Content-Generierung mit Large Language Models
Das größte Praxisproblem ist die Eingabe personenbezogener Daten in Prompts. CRM-Daten, Kundennamen oder E-Mail-Adressen, die Mitarbeitende in ChatGPT eingeben, werden bei Standard-Versionen bis zu 30 Tage gespeichert und können für Modelltraining verwendet werden.
Laut einer Bitkom-Erhebung vom Oktober 2025 nutzen in 42 Prozent der deutschen Unternehmen Beschäftigte KI-Tools über private Accounts – ohne Auftragsverarbeitungsvertrag, ohne Datenschutz-Folgenabschätzung, ohne Wissen der IT-Abteilung. Diese Schatten-KI ist derzeit das größte operative Compliance-Risiko im Marketing.
Chatbots und Conversational AI
Bei jeder Interaktion werden personenbezogene Daten erhoben: IP-Adressen, Texteingaben, Gesprächsverläufe, Zeitstempel. Ab August 2026 müssen Chatbots als KI-System gekennzeichnet werden. Ein Auftragsverarbeitungsvertrag mit dem Chatbot-Anbieter ist zwingend, die Datenschutzerklärung muss einen chatbot-spezifischen Abschnitt enthalten.
E-Mail-Automation mit KI
KI-gestützte Versandzeitoptimierung und Betreffzeilen-Generierung sind datenschutzrechtlich unproblematisch, solange keine zusätzlichen personenbezogenen Daten verarbeitet werden. Anders sieht es bei KI-basierter Segmentierung aus: Hier gelten die Profiling-Regeln.
Für E-Mail-Marketing an Neukunden ist nach § 7 UWG ohnehin eine explizite Einwilligung erforderlich – unabhängig vom KI-Einsatz.
Social Media Automation
Custom Audiences bergen besondere Risiken: Der Upload gehashter Kundenlisten zu Meta erfordert nach aktueller Aufsichtsbehörden-Meinung eine explizite Einwilligung. Hashing allein macht die Daten nicht anonym im DSGVO-Sinne.
LinkedIn wurde im Oktober 2024 von der irischen Datenschutzbehörde mit 310 Millionen Euro für unrechtmäßiges Behavioral Profiling und Targeted Advertising ohne valide Einwilligung bestraft. Ein Warnsignal für alle, die Social-Media-Daten leichtfertig für KI-gestützte Kampagnen nutzen.

Cloud-KI-Anbieter: Worauf es bei der Auswahl ankommt
Die Wahl des KI-Anbieters bestimmt maßgeblich die Compliance-Position. Ein Auftragsverarbeitungsvertrag nach Artikel 28 DSGVO ist für jeden geschäftlichen KI-Einsatz mit personenbezogenen Daten Pflicht – und bei Consumer-Versionen von ChatGPT, Claude oder Gemini schlicht nicht verfügbar.
Azure OpenAI bietet die stärkste DSGVO-Position: Microsoft agiert als Auftragsverarbeiter, Daten werden nicht mit OpenAI Inc. geteilt, EU-Hosting ist verfügbar, und Microsoft ist unter dem EU-US Data Privacy Framework zertifiziert.
Google Vertex AI folgt mit EU-Regionen, einer Zero-Data-Retention-Option und als weltweit erstes Unternehmen mit ISO-42001-Zertifizierung für KI-Management.
OpenAI Enterprise bietet seit 2025 EU-Datenresidenz, ist aber nicht unter dem Data Privacy Framework zertifiziert – ein Umstand, der zusätzliche Schutzmaßnahmen wie Standardvertragsklauseln erfordert.
Das EU-US Data Privacy Framework wurde im September 2025 vom Gericht der EU bestätigt. Das schafft kurzfristig Rechtssicherheit für Datentransfers in die USA. Ein weiteres Verfahren vor dem EuGH bleibt jedoch möglich – viele Organisationen kombinieren daher das Framework mit Standardvertragsklauseln als Fallback.
Rechtsgrundlagen: Einwilligung ist nicht immer nötig
Die Wahl der Rechtsgrundlage ist eine der wichtigsten strategischen Entscheidungen. Erwägungsgrund 47 der DSGVO stellt klar, dass Direktwerbung als berechtigtes Interesse gelten kann.
Für viele Marketing-KI-Anwendungen – interne Kundenanalyse, B2B-Produktempfehlungen, KI-gestützte Segmentierung – kann das berechtigte Interesse nach Artikel 6 Absatz 1 lit. f ausreichen. Voraussetzung ist ein dokumentierter dreistufiger Test: berechtigtes Interesse identifizieren, Erforderlichkeit nachweisen, Interessenabwägung durchführen.
Einwilligung ist zwingend bei:
- E-Mail- und SMS-Werbung an Neukunden
- Marketing-Cookies und Tracking
- Profilingbasierter Werbung über Social Networks
- Automatisierten Einzelentscheidungen mit erheblicher Wirkung
Bei der Zweckbindung gilt besondere Vorsicht: Kundendaten, die für die Vertragserfüllung erhoben wurden, dürfen nicht ohne Weiteres für KI-Training zweckentfremdet werden.
Privacy by Design: Fünf konkrete Schritte
Artikel 25 DSGVO verlangt Datenschutz durch Technikgestaltung. Für Marketing-KI bedeutet das:
Erstens: Datenminimierung bereits im Design – nur die Datenfelder verarbeiten, die für den konkreten Anwendungszweck erforderlich sind.
Zweitens: Pseudonymisierung als Default-Einstellung. Wichtig: Pseudonymisierte Daten bleiben personenbezogene Daten – die DSGVO gilt weiterhin. Echte Anonymisierung ist in der Praxis äußerst schwierig zu erreichen.
Drittens: Enterprise-Versionen von KI-Tools nutzen, niemals Consumer-Accounts. Der Preisunterschied ist marginal im Vergleich zu den Risiken.
Viertens: Interne Datenklassifizierung einführen und Mitarbeitende schulen, welche Daten in welche Tools eingegeben werden dürfen.
Fünftens: Human-in-the-Loop implementieren – nicht als Formalität, sondern als echten Review-Prozess. Die prüfende Person muss befugt sein, die KI-Entscheidung zu ändern.
Zehn Prüfpunkte für die KI-Tool-Auswahl
Vor der Einführung eines neuen KI-Tools sollten Marketing-Teams folgende Fragen klären:
- Bietet der Anbieter ein DSGVO-konformes Auftragsverarbeitungsabkommen an?
- Ist vertraglich garantiert, dass Eingaben nicht für Modelltraining verwendet werden?
- Kann die Verarbeitung auf EU-Servern konfiguriert werden?
- Ist der Anbieter unter dem EU-US Data Privacy Framework zertifiziert?
- Liegen Standardvertragsklauseln als Fallback vor?
- Welche Sub-Prozessoren sind eingebunden?
- Sind Löschfristen und Retention-Policies definiert?
- Kann der Anbieter bei Auskunfts- und Löschanfragen unterstützen?
- Besteht ein vertragliches Auditrecht?
- Wird eine Enterprise-Version oder nur die Consumer-Variante angeboten?
Aktuelle Bußgeldpraxis zeigt klares Muster
Die Durchsetzung verschärft sich spürbar. Im Marketing-Kontext stechen mehrere Entscheidungen hervor:
Die Hamburger Datenschutzbehörde verhängte im September 2025 knapp 500.000 Euro gegen ein Finanzunternehmen wegen vollautomatisierter Kreditkartenablehnungen ohne ausreichende Auskunft.
Die französische CNIL belegte im Dezember 2025 ein Unternehmen mit 3,5 Millionen Euro für die Übermittlung von Kundenprogramm-Daten an ein Social Network für Werbe-Targeting ohne gültige Einwilligung – betroffen waren über 10 Millionen Personen.
Google erhielt von der CNIL im September 2025 ein Bußgeld von 325 Millionen Euro für Werbeanzeigen ohne Einwilligung.
Das Muster ist eindeutig: Fehlende Einwilligung, mangelnde Transparenz und unrechtmäßiges Profiling sind die drei Hauptauslöser.
Ausblick: Was bis 2028 auf das Marketing zukommt
Die nächsten zwei Jahre bringen weitere Veränderungen. Ab August 2026 werden die Transparenzpflichten des AI Acts vollständig anwendbar. KI-generierte Inhalte müssen maschinenlesbar gekennzeichnet werden.
In Deutschland wurde das KI-Durchführungsgesetz im Februar 2026 beschlossen. Die Bundesnetzagentur wird als zentrale Koordinierungsstelle fungieren.
Technologisch gewinnen Privacy-Enhancing Technologies an Bedeutung. Federated Learning ermöglicht kooperatives Modelltraining ohne Zentralisierung personenbezogener Daten. Für Marketing bedeutet das: Recommendation Engines werden künftig ohne zentralen Datenaustausch trainierbar sein.
Fazit: Compliance als Wettbewerbsvorteil
DSGVO-konforme AI-Workflows sind kein Bremsklotz, sondern eine Gestaltungsaufgabe. Die regulatorische Landschaft ist komplex, aber navigierbar – vorausgesetzt, Unternehmen investieren in drei Bereiche:
Erstens in klare Governance-Strukturen mit KI-Inventar, interner Richtlinie und definiertem Freigabeprozess. Zweitens in die richtige Vendor-Auswahl mit Enterprise-Lizenzen, EU-Hosting und belastbaren Auftragsverarbeitungsverträgen. Drittens in die Kompetenz der eigenen Teams.
Wer diese Grundlagen legt, kann KI im Marketing nutzen, ohne regulatorische Risiken zu akkumulieren. Wer sie ignoriert, riskiert nicht nur Bußgelder in Millionenhöhe, sondern vor allem den Verlust des wichtigsten Assets im datengetriebenen Marketing: des Kundenvertrauens.









