Shadow-KI-Audits: So machen Sie unkontrollierte KI bis August 2026 compliant

Shadow-KI, AI-Act-Compliance – IT-Fachkraft prüft Shadow-KI-Audit-Unterlagen am Schreibtisch für AI-Act-Compliance
Der Countdown läuft: Shadow-KI-Audits sind bis August 2026 regulatorisch Pflicht. (Symbolbild)

Der Countdown läuft. Am 2. August 2026 treten die zentralen Hochrisiko-Pflichten des EU AI Act in Kraft – und in Ihrem Unternehmen laufen gerade KI-Systeme, von denen Ihre IT-Abteilung nichts weiß. Shadow-KI ist kein theoretisches Risiko mehr, sondern ein regulatorisches Pulverfass. Wer jetzt nicht auditiert, riskiert Bußgelder bis zu 35 Millionen Euro oder 7 Prozent des globalen Jahresumsatzes. Dieser Artikel zeigt, wie Sie Shadow-KI-Audits strukturieren, welche Systeme Sie zuerst unter die Lupe nehmen müssen und warum der Druck auf IT-Abteilungen dramatisch steigt.

Inhalt

Shadow-KI: Was das Problem wirklich ist

Reden wir zuerst über das Offensichtliche, das trotzdem fast überall ignoriert wird: Shadow-KI ist nicht das Werk von böswilligen Mitarbeitern. Es ist das Ergebnis eines Vakuums. Wenn die IT-Abteilung keine freigegebenen KI-Tools bereitstellt oder der Freigabeprozess drei Monate dauert, greifen Fachabteilungen eben auf das zurück, was verfügbar ist. ChatGPT, Claude, Midjourney, Perplexity – alles kostenlos, alles sofort nutzbar, alles unkontrolliert.

Das Ergebnis ist besorgniserregend messbar. Über 80 Prozent der Unternehmen zeigen laut aktuellen Sicherheitsberichten Anzeichen von Shadow-KI-Aktivitäten. Gleichzeitig hat sich nur ein winziger Bruchteil der Organisationen ernsthaft mit dem Thema KI-Governance auseinandergesetzt: Nur 14 Prozent der Unternehmen haben laut einer Erhebung aus Anfang 2026 die Verantwortlichkeiten für KI-Governance überhaupt intern geklärt. Das ist keine Nische. Das ist strukturelles Versagen auf breiter Fläche. Wer tiefer einsteigen möchte, findet in KI Cybersecurity: Wie 74 % der Unternehmen IT-Sicherheit automatisieren weiteren Hintergrund.

70 Prozent der Beschäftigten nutzen KI-Tools wöchentlich – das ergab eine Umfrage des Lenovo Work Reborn Reports unter rund 6.000 Befragten aus dem Zeitraum Dezember 2025 bis Januar 2026. Davon nutzt ein Drittel diese Tools ohne jede IT-Überwachung. Drei von zehn KI-Anwendern in Ihrem Unternehmen sind schlicht unsichtbar für Ihre IT-Security.

Shadow-KI war lange ein IT-Sicherheitsthema. Jetzt ist es ein Compliance-Thema mit konkreten Fristen und konkreten Strafen. Dieser Unterschied ist entscheidend – und er verändert die Dringlichkeit des Problems fundamental.

Der EU AI Act und seine Fristen: Was wann gilt

Der EU AI Act ist seit dem 1. August 2024 in Kraft. Er entfaltet seine Wirkung jedoch stufenweise. Das ist wichtig zu verstehen, weil in der öffentlichen Debatte häufig vereinfacht und falsch berichtet wird.

Seit Februar 2025 gelten bereits die Verbote für bestimmte KI-Praktiken, die als inakzeptables Risiko eingestuft werden – dazu zählen etwa Social-Scoring-Systeme oder KI zur subliminalen Manipulation. Ebenfalls seit Februar 2025 verpflichtend: KI-Kompetenznachweise und entsprechende Schulungen für alle relevanten Mitarbeitenden, die KI-Systeme entwickeln, einsetzen oder überwachen.

Der für die meisten Unternehmen kritischste Stichtag ist der 2. August 2026. An diesem Tag treten die Pflichten für Hochrisiko-KI-Systeme in Kraft. Dazu zählen unter anderem KI-Systeme im Recruiting-Bereich, bei der Kreditvergabe, in sicherheitskritischen Infrastrukturen, im Bildungsbereich und bei der Strafverfolgung. Wer solche Systeme betreibt – ob bewusst oder als Shadow-KI – muss bis dahin Konformitätsbewertungen abgeschlossen, Dokumentationen erstellt und Risikomanagementprozesse etabliert haben.

Für KI-Systeme in regulierten Produkten – etwa Medizinprodukte oder Sicherheitsbauteile – gilt eine verlängerte Frist bis zum 2. August 2027. Das klingt entspannter, ist es aber nicht: Wer Hochrisiko-Systeme betreibt und den 2. August 2026 verpasst, dem drohen Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des globalen Jahresumsatzes – je nachdem, welcher Betrag höher ist. Die aktuelle Übersicht des EU-Digitalpakets auf BornCity fasst die Fristen klar zusammen.

Ein weiterer Punkt, der regelmäßig unterschätzt wird: Die Verhandlungen um das sogenannte Digital-Omnibus-Paket, das ursprünglich manche Fristen hätte lockern sollen, sind im April 2026 gescheitert. Die harten Fristen bestehen unverändert. Hoffnungen auf Verlängerung oder Kulanz sind damit faktisch erledigt.

Was Hochrisiko-KI in der Praxis bedeutet: Konkrete Beispiele

Viele Unternehmensverantwortliche unterschätzen, welche ihrer KI-Systeme als Hochrisiko eingestuft werden könnten. Die Kategorisierung ist im AI Act klar geregelt, aber die Anwendung auf konkrete Unternehmenstools erfordert Analyse und oft juristische Expertise.

Nehmen Sie Recruiting-Prozesse. Wenn Ihre HR-Abteilung ein KI-Tool zur Vorauswahl von Bewerbungen nutzt – auch wenn es sich dabei um ein einfaches Plugin in Ihrer bestehenden HR-Software handelt –, fällt dieses System unter die Hochrisiko-Kategorisierung des AI Act. Das gilt auch dann, wenn das Tool von einem externen Anbieter stammt und Sie es lediglich einsetzen.

Ähnliches gilt für Kreditvergabe-Entscheidungen mit KI-Unterstützung, für KI-Systeme, die in kritischen Infrastrukturen wie Energieversorgung oder Wasser eingesetzt werden, sowie für Tools zur Mitarbeiterüberwachung und -bewertung. Selbst KI-gestützte Systeme im Kundensupport können – je nach konkretem Einsatz – in problematische Zonen geraten.

Das Tückische: Viele dieser Systeme existieren in Unternehmen als Shadow-KI. Die Marketing-Abteilung nutzt ein KI-Tool zur Zielgruppenprofilierung, das HR nutzt einen KI-Assistenten zur Gesprächsauswertung bei Bewerbungsgesprächen, die Finanzabteilung hat ein Analyse-Plugin, das Kreditwürdigkeiten einschätzt. Keines dieser Tools ist durch IT-Governance erfasst. Alle fallen potenziell unter die Hochrisiko-Regelungen des AI Act.

Meine Einschätzung: Das eigentliche Problem ist nicht Böswilligkeit, sondern organisatorische Blindheit. Fachabteilungen wissen schlicht nicht, was sie einsetzen, und IT-Abteilungen wissen nicht, was in den Fachabteilungen läuft. Diese Lücke ist die Einladung für regulatorische Katastrophen.

Shadow-KI technisch aufspüren: Die Methoden im Detail

Bevor Sie auditieren können, müssen Sie sehen. Das klingt trivial, ist aber die technisch anspruchsvollste Phase eines jeden Shadow-KI-Audits. Es geht darum, KI-Nutzung sichtbar zu machen, die bewusst oder unbewusst unter dem Radar der IT läuft.

Der erste Ansatz ist Netzwerk-Monitoring. Über die Analyse von DNS-Anfragen und ausgehendem Traffic lassen sich Verbindungen zu bekannten KI-Diensten identifizieren – api.openai.com, claude.ai, gemini.google.com und Hunderte weiterer Endpunkte. Ein CASB-System (Cloud Access Security Broker) kann diese Verbindungen nicht nur sichtbar machen, sondern auch klassifizieren und kontrollieren. Moderne CASB-Lösungen haben für die gängigsten KI-Dienste bereits Risiko-Profile hinterlegt.

Zweiter Ansatz: Endpunkt-Analyse. Tools wie Sysmon (Windows System Monitor) protokollieren Prozessstarts, Netzwerkverbindungen und Dateioperationen auf Endgeräten. Wenn Mitarbeitende lokale KI-Modelle – etwa über LM Studio oder Ollama – installiert haben, ist das auf diesem Weg erkennbar. Auch Browser-Extensions mit KI-Funktion hinterlassen Spuren, die sich mit entsprechenden Endpoint-Detection-Tools auslesen lassen.

Dritter Ansatz: Audit-Policies und Group-Policy-Analyse in Active-Directory-Umgebungen. Wer auf welche Cloud-Dienste zugreift, lässt sich über Proxy-Logs und AD-Audit-Logs rekonstruieren – oft ohne zusätzliche Tools, nur durch konsequente Auswertung vorhandener Logs.

Vierter Ansatz: Mitarbeiterbefragungen. Das klingt niederschwellig, ist aber erstaunlich effektiv. Anonyme Umfragen, die nach genutzten KI-Tools fragen, liefern in kurzer Zeit ein realitätsnäheres Bild als jede technische Analyse allein. Mitarbeitende sind oft bereit, ihre Tools zu benennen, wenn sie verstehen, dass es nicht um Sanktionen, sondern um Schutz geht.

Fünfter Ansatz: Data-Loss-Prevention-Systeme (DLP). Diese können erkennen, wenn sensible Daten – personenbezogene Informationen, vertragliche Inhalte, Finanzdaten – an externe KI-Dienste übertragen werden. DLP-Systeme sind dabei nicht nur reaktiv, sondern können auch prophylaktisch konfiguriert werden, um solche Transfers zu blockieren oder zumindest zu alarmieren.

Die Audit-Checkliste: 8 Schritte zur AI-Act-Compliance

Ein Shadow-KI-Audit folgt keiner Hexerei. Aber er braucht Struktur und Konsequenz. Hier ist die praxiserprobte Abfolge, die Unternehmen jetzt angehen müssen – nicht irgendwann, sondern mit Blick auf den August 2026.

Schritt 1: KI-Inventar erstellen. Erfassen Sie alle KI-Systeme, die in Ihrem Unternehmen im Einsatz sind – sowohl offiziell freigegebene als auch durch technische Methoden aufgespürte Shadow-KI-Anwendungen. Das Inventar sollte Anbieter, Version, eingesetzten Bereich, verarbeitete Datenarten und Zweck der Nutzung enthalten. Ohne dieses Inventar ist alles Weitere Makulatur.

Schritt 2: Risikokategorisierung vornehmen. Ordnen Sie jedes erfasste System einer Risikokategorie nach AI Act zu: verbotene Praktiken, Hochrisiko, begrenztes Risiko, minimales Risiko. Für Hochrisiko-Systeme gilt ab August 2026 die volle Compliance-Pflicht. Hier empfiehlt sich juristische Expertise – Fehlklassifikationen können teuer werden.

Schritt 3: Verantwortlichkeiten klären. Benennen Sie intern klare Zuständigkeiten. Wer ist KI-Responsible für welches System? Wer überwacht die Compliance-Pflichten? Ohne diese Zuweisung bleibt Governance ein PowerPoint-Begriff. Nur 14 Prozent der Unternehmen haben das laut aktuellen Erhebungen bereits erledigt – das ist gleichzeitig Warnung und Chance.

Schritt 4: Risikomanagement-Prozesse dokumentieren. Für Hochrisiko-Systeme schreibt der AI Act explizit ein Risikomanagementsystem vor, das über den gesamten Lebenszyklus des Systems gepflegt wird. Das ist kein einmaliger Akt, sondern kontinuierliche Aufgabe. Dokumentation ist Pflicht, nicht Option.

Schritt 5: Datenschutz-Folgenabschätzung durchführen. Shadow-KI-Systeme verarbeiten oft personenbezogene Daten, ohne dass eine DSGVO-konforme Auftragsverarbeitungsvereinbarung mit dem KI-Anbieter besteht. Das ist ein separates, paralleles Rechtsrisiko neben dem AI Act. Für jeden KI-Dienst, der personenbezogene Daten verarbeitet, brauchen Sie eine geprüfte Rechtsgrundlage und entsprechende Vereinbarungen.

Schritt 6: Technische Kontrollmaßnahmen implementieren. Sperren Sie nicht freigegebene KI-Dienste technisch – über Firewall-Regeln, Proxy-Filterung oder CASB. Stellen Sie gleichzeitig konforme Alternativen bereit: ChatGPT Enterprise, Microsoft Copilot for Work oder andere Dienste mit nachgewiesener Compliance eignen sich als Ersatz für unkontrollierte Nutzung.

Schritt 7: Mitarbeiterschulungen durchführen. Seit Februar 2025 ist KI-Kompetenz-Schulung für relevante Mitarbeitende Pflicht nach AI Act. Schulungen sollten erklären, welche KI-Tools freigegeben sind, warum Shadow-KI problematisch ist und wie mit KI-generierten Inhalten umgegangen werden muss. Keine Bestrafungsrhetorik, sondern Aufklärung.

Schritt 8: Audit-Logs etablieren und aufbewahren. Für Hochrisiko-KI-Systeme schreibt der AI Act Logging-Pflichten vor. Automatische Protokollierung von Entscheidungen, Eingaben und Ausgaben ist technisch und rechtlich notwendig. Diese Logs müssen sicher aufbewahrt und bei Bedarf für Behörden abrufbar sein.

Zeitplanung: Warum jetzt keine Zeit mehr zu verlieren ist

Konformitätsbewertungen für Hochrisiko-KI-Systeme dauern nach Erfahrungswerten aus der Praxis drei bis sechs Monate. Das ist kein akademischer Wert, sondern die Realität von Unternehmen, die diesen Weg bereits gegangen sind. Wer also im August 2026 compliant sein will, muss spätestens jetzt – im Idealfall noch früher – mit den Bewertungen begonnen haben.

Rückwärtsplanung ist hier das entscheidende Werkzeug. Nehmen Sie den 2. August 2026 als Fixpunkt. Ziehen Sie sechs Monate für Konformitätsbewertungen ab: Das ergibt Februar 2026 als Starttermin. Ziehen Sie weitere zwei bis drei Monate für Inventarisierung, Kategorisierung und Dokumentationsaufbau ab: Das ergibt November bis Dezember 2025 als Startpunkt für das KI-Inventar.

Der Zeitdruck ist real. Die gute Nachricht: Unternehmen, die jetzt mit einem strukturierten Shadow-KI-Audit beginnen, haben noch ausreichend Zeit. Die schlechte Nachricht: Wer noch immer im Beobachtungsmodus verharrt und auf weitere Orientierung wartet, spielt regulatorisches Roulette. Die IHK München bietet praktische Orientierung zum AI Act für Unternehmen, inklusive Einordnung der Pflichten nach Risikokategorien.

Für den Mittelstand ist die Situation besonders heikel. Große Konzerne haben Compliance-Teams, die sich explizit mit dem AI Act befassen. Im Mittelstand liegt diese Aufgabe oft beim IT-Leiter, der nebenbei noch den Server-Park betreut. Das ist strukturell überfordert – und es führt dazu, dass Shadow-KI-Audits aufgeschoben werden, bis der Druck nicht mehr ignorierbar ist.

Cybersecurity und Shadow-KI: Das doppelte Risiko

Shadow-KI ist nicht nur ein Compliance-Problem – es ist auch ein aktives Cybersecurity-Risiko. Beide Dimensionen verstärken sich gegenseitig, und Unternehmen, die nur eine davon adressieren, haben das Problem nur halb gelöst.

Der Datenschutzdimension: Wenn Mitarbeitende personenbezogene Kundendaten, Vertragstexte oder strategische Unternehmensinformationen in nicht freigegebene KI-Tools eingeben, verlassen diese Daten das Unternehmensnetzwerk und landen auf fremden Servern – ohne geprüfte Datenschutzvereinbarung, ohne Kontrolle über Weiterverwendung, ohne Möglichkeit der Löschung. Die Kosten eines solchen Datenschutzvorfalls sind erheblich: Schätzungen auf Basis von Sicherheitsberichten beziffern Vorfälle mit Shadow-KI-Beteiligung auf durchschnittlich rund 4,63 Millionen US-Dollar – das sind nach diesen Schätzungen rund 670.000 US-Dollar mehr als bei konventionellen Datenpannen. Diese Zahlen sind als Orientierungswerte zu verstehen, nicht als gesicherte Branchenstandards.

Die Angriffsflächen-Dimension: Unkontrollierte KI-Anwendungen werden oft nicht gepatcht, nicht überwacht und nicht in das Security-Incident-Response-Konzept einbezogen. Sie sind blinde Flecken im Sicherheitsperimeter. Wenn eine Shadow-KI-Anwendung kompromittiert wird, merkt die IT-Abteilung das möglicherweise erst dann, wenn Schaden entstanden ist. Mehr Kontext liefert Schatten-IT: Der blinde Fleck in der Sicherheitsstrategie.

Die Modell-Poisoning-Dimension: Wer lokal betriebene KI-Modelle einsetzt oder Modelle aus unsicheren Quellen bezieht, riskiert Manipulationen des Modells selbst. Vergiftete Modelle können bewusst falsche Informationen produzieren oder Daten exfiltrieren. Das ist kein Science-Fiction-Szenario, sondern eine dokumentierte Angriffstechnik.

Die Integration von Shadow-KI-Audits in bestehende Security-Frameworks wie BSI IT-Grundschutz oder NIST Cybersecurity Framework ist deshalb keine optionale Ergänzung, sondern logisch notwendig. Wer Shadow-KI auditiert, ohne gleichzeitig die Sicherheitsperspektive einzubeziehen, produziert lückenhafte Ergebnisse.

DSGVO und AI Act: Zwei Rechtsregime, ein Problem

Ein Fehler, den viele Unternehmen machen: Sie behandeln AI-Act-Compliance und DSGVO-Compliance als getrennte Projekte. Das ist organisatorisch bequem, regulatorisch aber kurzsichtig. Shadow-KI-Systeme verletzten oft beide Rechtsrahmen gleichzeitig – und die Aufsichtsbehörden werden das zunehmend koordiniert durchsetzen.

Konkret: Ein KI-Tool, das ohne geprüfte Auftragsverarbeitungsvereinbarung personenbezogene Daten verarbeitet, verstößt gegen die DSGVO. Wenn dieses Tool gleichzeitig als Hochrisiko-System nach AI Act einzustufen ist und keine Konformitätsbewertung vorliegt, kommen weitere Verstöße hinzu. Das sind keine alternativen Risiken, sondern kumulative.

Die Datenschutzfolgenabschätzung (DSFA), die nach DSGVO für risikoreiche Verarbeitungen verpflichtend ist, und die Konformitätsbewertung nach AI Act haben substanzielle inhaltliche Überschneidungen: Beide erfordern eine strukturierte Risikoanalyse, Dokumentation von Schutzmaßnahmen und Nachweise über Verantwortlichkeiten. Unternehmen, die beide Prozesse koordiniert angehen, sparen erheblich Zeit und Ressourcen gegenüber sequentiellem Vorgehen. Eine vertiefende Einordnung bietet Phantom-Labs-Analyse: Fünfmal mehr KI-Agenten im Unternehmen.

Für die Praxis bedeutet das: Beim Shadow-KI-Audit sollte immer auch der Datenschutzbeauftragte einbezogen sein. Das ist keine Formalie, sondern inhaltlich notwendig, um die Rechtsgrundlagen für jede KI-Nutzung zu prüfen und zu dokumentieren.

Team bespricht KI-Governance und Shadow-KI-Audit-Strategie im Meeting
KI-Governance braucht klare Verantwortlichkeiten – im Team besprechen statt allein entscheiden. (Symbolbild)

Freigegebene KI-Tools als Compliance-Strategie

Die wirksamste Antwort auf Shadow-KI ist nicht das Verbot, sondern das Angebot. Verbote scheitern regelmäßig, weil die Nachfrage nach KI-Tools real und legitim ist – Mitarbeitende wollen produktiver arbeiten, und KI hilft dabei. Wer nur die Steckdose abklebt, ohne Alternativen zu bieten, treibt die Nutzung in noch unkontrolliertere Kanäle.

Die strategisch sinnvolle Antwort: Bereitstellung von freigegebenen, dokumentierten und compliance-konformen KI-Tools als Unternehmensstandard. Produkte wie Microsoft Copilot for Work oder ChatGPT Enterprise sind mit entsprechenden Datenschutzvereinbarungen ausgestattet und ermöglichen IT-seitige Kontrolle über die Nutzung. Sie sind kein Allheilmittel, aber sie schließen das Vakuum, das Shadow-KI entstehen lässt.

Gleichzeitig braucht es klare interne Richtlinien: Welche KI-Tools sind freigegeben, für welche Zwecke, unter welchen Bedingungen? Diese Compliance-Richtlinie muss nicht hundert Seiten lang sein – sie muss verständlich und verbindlich sein. Ein Muster für solche KI-Nutzungsrichtlinien lässt sich aus bestehenden IT-Nutzungsrichtlinien ableiten; wichtig sind konkrete Verbotstatbestände (z.B. keine Eingabe von personenbezogenen Kundendaten in nicht freigegebene KI-Tools) und ebenso konkrete Erlaubnisse.

Der Rollout freigegebener Tools muss von Kommunikation begleitet sein. Mitarbeitende, die nicht verstehen, warum bestimmte Tools gesperrt sind und andere freigegeben, interpretieren das als bürokratische Willkür. Wer erklärt, dass es um Datenschutz, Sicherheit und regulatorische Konformität geht, gewinnt Verständnis – und reduziert Umgehungsversuche erheblich.

Verantwortung im Vorstand: Was persönliche Haftung bedeutet

Shadow-KI-Compliance ist keine Frage, die in der IT-Abteilung gelöst werden kann. Sie ist eine Frage der Unternehmensführung. Das ist unangenehm, aber präzise.

Der AI Act weist Pflichten explizit Betreibern und Anbietern von KI-Systemen zu. Als Betreiber gilt auch ein Unternehmen, das ein fremdes KI-System im eigenen Kontext einsetzt. Die Verantwortung liegt also nicht beim KI-Anbieter, sondern beim einsetzendem Unternehmen – und damit letztlich beim Vorstand oder der Geschäftsführung, die für die Einhaltung regulatorischer Anforderungen verantwortlich ist.

Persönliche Haftungsrisiken für Vorstands- und Geschäftsleitungsmitglieder entstehen, wenn bekannte regulatorische Anforderungen ignoriert werden. Das ist keine Spekulation, sondern die Logik der organschaftlichen Sorgfaltspflicht. Wer als Geschäftsführer weiß, dass Shadow-KI in seinem Unternehmen existiert, und keine Maßnahmen ergreift, handelt fahrlässig – mit allen zivilrechtlichen Konsequenzen.

Dass der Druck auf Vorstände steigt, zeigt sich auch in der Beratungsbranche: KI-Governance und AI-Act-Compliance sind inzwischen Standardthemen in Vorstandssitzungen geworden, die vorher als rein operative IT-Fragen galten. Das ist keine Mode – das ist die Reaktion auf reale rechtliche Verantwortung.

Der IT-Abteilungs-Druck: Strukturell überfordert

Man muss ehrlich sein: Die Last, die durch Shadow-KI-Audits und AI-Act-Compliance auf IT-Abteilungen fällt, ist enorm – und in vielen Unternehmen strukturell nicht abgedeckt. IT-Teams, die bereits mit Cybersecurity, Cloud-Migration, Legacy-System-Pflege und regulärem Support ausgelastet sind, sollen nun auch noch KI-Inventare erstellen, Risikobewertungen durchführen und Audit-Logging-Konzepte entwickeln.

Das ist realistisch betrachtet in vielen Unternehmen nicht ohne externe Unterstützung leistbar. Die Konsequenz daraus ist nicht Resignation, sondern kluge Priorisierung: Welche Systeme sind wirklich hochriskant und brauchen sofortige Aufmerksamkeit? Welche lassen sich in einer zweiten Welle adressieren? Welche Tätigkeiten lassen sich an spezialisierte Berater oder Compliance-Dienstleister auslagern?

Externe Compliance-Dienstleister mit AI-Act-Expertise sind inzwischen am Markt aktiv. Die Qualität variiert erheblich. Achten Sie auf nachweisbare AI-Act-Erfahrung, nicht auf allgemeines Compliance-Wissen. Der AI Act ist spezifisch genug, dass generisches Compliance-Know-how allein nicht ausreicht.

Für den Mittelstand gibt es ergänzend sinnvolle Ressourcen: Die IHK bietet Informationsveranstaltungen und Leitfäden an, Branchenverbände entwickeln spezifische Handreichungen, und die Bundesregierung hat entsprechende Orientierungsangebote für Unternehmen veröffentlicht. Die Bundesregierung gibt einen strukturierten Überblick über die Anforderungen des AI Act für Unternehmen – als erster Orientierungspunkt geeignet, wenn interne Ressourcen knapp sind.

Audit-Dokumentation: Was aufbewahrt werden muss

Compliance ohne Dokumentation ist keine Compliance. Das ist eine der unangenehmsten Wahrheiten des AI Act, aber auch eine der klarsten. Aufsichtsbehörden werden Nachweise verlangen – und wer diese nicht liefern kann, hat rechtlich schlechte Karten, auch wenn er die Anforderungen faktisch erfüllt hat.

Für Hochrisiko-KI-Systeme schreibt der AI Act explizit vor: technische Dokumentation des Systems, Beschreibung des Verwendungszwecks, Informationen über Trainingsdaten (soweit bekannt), Risikoanalyse und -management-Prozesse, Konformitätsbewertung, Logging-Daten über den Betrieb. Diese Dokumentation muss für zehn Jahre nach dem Ende des Betriebs aufbewahrt werden – das ist eine erhebliche Anforderung an Dokumentenmanagement-Systeme.

Auch für die Audit-Logs gilt: Sie müssen automatisch, manipulationssicher und vollständig sein. Nachträgliche Löschung oder Modifikation von Logs ist nicht nur technisch problematisch, sondern rechtlich heikel. Wer Shadow-KI-Systeme jetzt in konforme Systeme überführt, muss sicherstellen, dass von Beginn an Logging-Infrastruktur mitgeplant wird.

Die Dokumentationspflicht betrifft auch den Audit-Prozess selbst: Welche Systeme wurden wann inventarisiert, wie wurden sie kategorisiert, wer hat die Entscheidungen getroffen, und auf welcher Grundlage? Diese Metadokumentation mag bürokratisch wirken, ist aber im Zweifelsfall der Nachweis, dass das Unternehmen ernsthaft und strukturiert vorgegangen ist.

Konkrete Cybersecurity-Integration: NIS2 und AI Act im Gleichschritt

Shadow-KI-Audits lassen sich nicht isoliert von anderen regulatorischen Anforderungen denken. Unternehmen, die unter die NIS2-Richtlinie fallen – also kritische und wichtige Einrichtungen in einer langen Liste von Sektoren – haben bereits parallel Cybersecurity-Anforderungen zu erfüllen, die erhebliche Überschneidungen mit den AI-Act-Pflichten haben.

NIS2 verlangt unter anderem: Risikomanagement, Incident-Response-Pläne, Lieferketten-Sicherheit und regelmäßige Sicherheitsaudits. Ein Shadow-KI-Audit, der diese Perspektiven einbezieht, erfüllt gleichzeitig Teile der NIS2-Anforderungen. Das ist keine Verdopplung, sondern Synergie – ein Begriff, den ich an dieser Stelle ausnahmsweise verwende, weil er schlicht treffend ist.

Konkret: Wenn Sie für NIS2 bereits ein Asset-Inventar führen, ergänzen Sie es um KI-Systeme. Wenn Sie für NIS2 bereits Incident-Response-Prozesse haben, erweitern Sie sie um KI-spezifische Szenarien (Modell-Fehlfunktion, Datenleck durch Shadow-KI, kompromittiertes KI-Modell). Wenn Sie für NIS2 bereits Lieferketten-Prüfungen durchführen, schließen Sie KI-Anbieter ein.

Der integrierte Ansatz ist nicht nur effizienter – er ist auch inhaltlich kohärenter. Sicherheit und Compliance sind bei KI-Systemen keine separaten Domänen, sondern zwei Seiten derselben Münze.

Mini-Szenarien: Was schiefgehen kann

Abstrakte Compliance-Anforderungen sind schwer zu vermitteln. Konkrete Szenarien machen greifbar, warum Shadow-KI-Audits keine bürokratische Übung sind, sondern praktische Notwendigkeit.

Szenario 1: Das HR-Plugin. Eine mittelständische Maschinenbaufirma mit 800 Mitarbeitenden hat vor zwei Jahren ein KI-Plugin in ihre HR-Software integriert, das Bewerbungsunterlagen vorbewertet und Kandidaten-Scores generiert. Das Plugin kam mit der Plattform und wurde nie separat evaluiert. Ab August 2026 fällt dieses System eindeutig unter Hochrisiko-KI nach AI Act. Es gibt keine Konformitätsbewertung, keine technische Dokumentation, keine Audit-Logs. Im Falle einer Prüfung durch die zuständige Aufsichtsbehörde wäre das Unternehmen vollständig unvorbereitet.

Szenario 2: Der Vertriebs-ChatBot. Eine Versicherungsgesellschaft erlaubt ihrem Vertrieb, ChatGPT für die Erstellung von Angeboten zu nutzen – inoffiziell, weil ein offizieller Tool-Freigabeprozess noch nicht abgeschlossen ist. Vertriebler geben dabei Kundendaten ein: Name, Versicherungsbedarf, Gesundheitsinformationen. Diese Daten landen auf Servern, für die keine Auftragsverarbeitungsvereinbarung existiert. Das ist ein akuter DSGVO-Verstoß – ganz unabhängig vom AI Act.

Szenario 3: Das lokale Modell. Ein Entwicklerteam in einem Software-Unternehmen betreibt ein lokales KI-Modell auf unternehmenseigener Hardware, das für Codereviews und Architekturentscheidungen genutzt wird. Das Modell wurde aus einer öffentlichen Quelle heruntergeladen, wurde nie sicherheitstechnisch überprüft und ist nicht in das Patch-Management-System einbezogen. Das Modell ist ein blinder Fleck im Sicherheitsperimeter – und, je nach Verwendung, möglicherweise ein dokumentationspflichtiges KI-System nach AI Act.

Diese Szenarien sind keine Worst-Case-Fantasien. Sie sind die Realität in Unternehmen, die Shadow-KI nicht aktiv managen.

Was nach dem Audit passiert: Kontinuierliche KI-Governance

Ein Shadow-KI-Audit ist kein einmaliger Akt. Das ist vielleicht der wichtigste Punkt, der in der Compliance-Diskussion zu oft untergeht. KI-Systeme verändern sich schnell: neue Modellversionen, neue Funktionen, neue Einsatzbereiche. Was heute als geringes Risiko kategorisiert wird, kann morgen durch eine Funktionserweiterung in die Hochrisiko-Kategorie rutschen.

Kontinuierliche KI-Governance bedeutet: regelmäßige Aktualisierung des KI-Inventars (mindestens quartalsweise), laufendes Monitoring neuer KI-Nutzungen durch technische Überwachung, periodische Überprüfung der Risikokategorisierungen und der Konformitätsbewertungen sowie systematische Integration neuer KI-Anforderungen aus der regulatorischen Entwicklung.

Der AI Act selbst wird weiterentwickelt: Durchführungsrechtsakte und delegierte Rechtsakte präzisieren die Anforderungen laufend. Wer nur einmal auditiert und dann wartet, wird irgendwann von neuen Präzisierungen überrascht. KI-Governance braucht eine Organisationsstruktur, die das auffängt – einen KI-Beauftragten, ein KI-Governance-Komitee oder zumindest klare Zuständigkeiten für die laufende Beobachtung der regulatorischen Entwicklung.

Meine persönliche Überzeugung: Unternehmen, die Shadow-KI-Audits als lästige Compliance-Übung betrachten, verpassen die eigentliche Chance. Wer seine KI-Nutzung vollständig inventarisiert und strukturiert, bekommt nebenbei einen präzisen Überblick über die tatsächliche digitale Kompetenz seines Unternehmens – und über Potenziale, die bislang unkontrolliert und damit ungenutzt bleiben.

Was bleibt – und was Sie jetzt tun sollten

Die Frage ist nicht, ob Shadow-KI in Ihrem Unternehmen existiert. Die Frage ist, wie viel davon regulatorisch kritisch ist und wie viel Zeit Ihnen noch bleibt, das zu adressieren. Beides lässt sich nur durch einen strukturierten Audit herausfinden – und der muss jetzt beginnen, nicht nach der Sommerpause 2026.

Die aktuellen EU-Digitalpaket-Anforderungen machen klar: August 2026 ist keine weiche Deadline, sondern ein harter regulatorischer Einschnitt. Wer bis dahin keine Konformitätsbewertungen für Hochrisiko-Systeme abgeschlossen hat, ist nicht in der Grauzone – er ist im Verstoß. Das Risiko ist real: Bußgelder, Reputationsschäden, persönliche Haftung.

Beginnen Sie mit dem KI-Inventar. Holen Sie technische und rechtliche Expertise in einen Raum. Klären Sie Verantwortlichkeiten. Bieten Sie freigegebene Alternativen für die häufigsten Shadow-KI-Nutzungen an. Schulen Sie Mitarbeitende – nicht als Pflichtübung, sondern als echte Aufklärung. Und dokumentieren Sie jeden Schritt.

Wie viele Shadow-KI-Systeme laufen gerade in Ihrem Unternehmen – und welche davon wären morgen bereits ein Fall für die Aufsichtsbehörde?

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel