Hochrisiko-KI 2026: Konformitätsprüfungen in HR und Infrastruktur

Hochrisiko-KI, AI Act – Hochrisiko-KI Compliance-Prüfung im Unternehmenskontext nach AI Act
Ab August 2026 müssen Betreiber von Hochrisiko-KI vollständige Konformitätsnachweise erbringen. (Symbolbild)

Ab August 2026 ist Schluss mit der Schonfrist: Wer Hochrisiko-KI in der Personalauswahl oder kritischen Infrastruktur betreibt, muss vollständige Konformitätsprüfungen nachweisen – oder riskiert empfindliche Bußgelder. Die wenigsten Unternehmen sind vorbereitet. Was jetzt konkret zu tun ist.

Inhalt

Der Countdown läuft – und viele Unternehmen schlafen noch

August 2026 klingt weit weg. Ist es nicht. Wer heute noch kein vollständiges KI-Inventar hat, wer noch nicht weiß, welche seiner Systeme unter Anhang III des EU AI Act fallen, und wer die Begriffe „Konformitätserklärung“ oder „Fundamental Rights Impact Assessment“ noch nicht einmal intern diskutiert hat – der steht in etwa 18 Monaten vor einem ernsthaften Problem. Denn der AI Act ist keine Absichtserklärung. Er ist geltendes EU-Recht. Semantisch passt dazu unser Hintergrund Überblick: Technologien der Künstlichen Intelligenz.

Die Hochrisiko-KI-Systeme nach Anhang III betreffen acht konkrete Bereiche: Biometrische Identifikation, kritische Infrastruktur, Bildung, Beschäftigung, grundlegende Dienstleistungen, Strafverfolgung, Migration und Justiz. Für Unternehmen in Deutschland besonders brisant: Recruiting-Tools, automatisierte Bewerberprüfung, Systeme zur Leistungsbewertung von Beschäftigten – und Steuerungs- und Überwachungssysteme in Energie, Wasser, Verkehr oder digitaler Infrastruktur. Alles Hochrisiko-KI. Alle betroffen.

Pexon Consulting hat erhoben, dass über die Hälfte der deutschen Unternehmen noch kein vollständiges KI-Inventar erstellt hat. Das ist keine Kleinigkeit. Das ist eine strukturelle Fehlplanung, die sich in weniger als zwei Jahren in Bußgeldern und Reputationsschäden niederschlagen wird. Meine Einschätzung: Wer jetzt nicht anfängt, wird 2026 nicht fertig sein.

Was Hochrisiko-KI im Sinne des AI Act eigentlich bedeutet

Der Begriff „Hochrisiko-KI“ klingt nach Science Fiction. Er meint aber sehr konkrete, heute schon eingesetzte Systeme. Der AI Act definiert Hochrisiko-KI in Artikel 6 und Anhang III nicht über Technologie, sondern über Anwendungskontext und potenzielle Schadenswirkung. Ein KI-System ist dann hochriskant, wenn es in einem der acht in Anhang III genannten Bereiche eingesetzt wird und dort erhebliche Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte haben kann.

Das klingt abstrakt, wird aber sofort greifbar, wenn man die Liste durchgeht: Ein Algorithmus, der Bewerbungsunterlagen automatisch filtert und einem Recruiter eine Shortlist präsentiert – Hochrisiko-KI. Ein System, das die Arbeitsleistung von Beschäftigten bewertet und Gehalts- oder Beförderungsentscheidungen vorbereitet – Hochrisiko-KI. Ein KI-gestütztes SCADA-System, das den Energiefluss in einem Stromnetz reguliert – Hochrisiko-KI. Ein Algorithmus, der Ausfälle in Wasserversorgungssystemen vorhersagt und automatisch Gegenmaßnahmen einleitet – Hochrisiko-KI.

Was dabei oft missverstanden wird: Es kommt nicht darauf an, ob die KI die finale Entscheidung trifft oder „nur“ eine Empfehlung gibt. Auch Systeme, die menschliche Entscheidungen maßgeblich vorbereiten oder beeinflussen, fallen unter die Hochrisiko-Klassifizierung. Der AI Act schaut auf den tatsächlichen Einfluss auf reale Entscheidungen – nicht auf das technische Label „Assistenzsystem“.

Für die Praxis bedeutet das: Viele Unternehmen setzen heute Hochrisiko-KI ein, ohne es zu wissen. Ein HR-SaaS-Tool mit eingebautem CV-Ranking, ein Energiemanagementsystem mit KI-Prognose, ein Logistikoptimierungsalgorithmus für kritische Lieferketten – das alles kann unter Anhang III fallen. Die erste Hausaufgabe ist deshalb nicht Compliance. Sie ist Inventarisierung.

Anhang III im Detail: Beschäftigung als Hochrisiko-Bereich

Gehen wir konkret rein. Anhang III, Nummer 4 des AI Act listet Beschäftigung, Personalmanagement und Zugang zur Selbständigkeit als Hochrisiko-Bereich. Erfasst sind KI-Systeme, die für die Einstellung und Auswahl von Personen genutzt werden – insbesondere zur Vorauswahl, Filterung oder Bewertung von Bewerbungen. Außerdem Systeme zur Überwachung und Bewertung von Beschäftigten, zur Beförderung oder Kündigung.

Das trifft den Recruiting-Markt ins Mark. Denn automatisierte Bewerberprüfung ist längst keine Randerscheinung mehr. Tools wie HireVue, Textio oder zahlreiche ATS-Systeme (Applicant Tracking Systems) nutzen KI-Komponenten zur Kandidatenbewertung. Einige analysieren Video-Interviews, Sprachmuster oder Schreibstile. Andere filtern Lebensläufe nach Keywords oder Mustern, die mit „erfolgreichen“ Mitarbeitern in der Vergangenheit korrelieren. All das ist Hochrisiko-KI nach Anhang III.

Warum? Weil solche Systeme direkte Auswirkungen auf die Beschäftigungschancen von Menschen haben. Und weil historische Daten historische Vorurteile codieren können. Ein System, das „erfolgreiche“ Mitarbeiter in der Vergangenheit als Blaupause nimmt, kann systematisch Frauen, Personen mit Migrationshintergrund oder ältere Bewerber benachteiligen – nicht aus böser Absicht, sondern weil die Trainingsdaten strukturelle Ungleichheiten abbilden. Das ist Bias. Das ist Diskriminierung. Und das ist genau der Grund, warum der AI Act hier eingreift.

Für Unternehmen, die solche Tools einsetzen, gilt: Sie sind Betreiber im Sinne des AI Act. Und Betreiber haben konkrete Pflichten. Sie müssen die Konformitätserklärung des Anbieters prüfen, sicherstellen, dass das System für den spezifischen Anwendungsfall geeignet ist, und eine menschliche Aufsicht gewährleisten. Vollautomatisierte Entscheidungen ohne menschliche Prüfung sind bei Hochrisiko-KI im Beschäftigungsbereich nicht zulässig.

Fallbeispiel: Automatisierte Bewerberprüfung in der Praxis

Stellen wir uns ein mittelständisches Logistikunternehmen vor – 800 Mitarbeiter, regelmäßig 50 bis 80 offene Stellen gleichzeitig. Die HR-Abteilung ist mit drei Personen besetzt und hat vor zwei Jahren ein ATS-System mit KI-Ranking eingeführt. Das System priorisiert Bewerbungen anhand eines Scores, der auf Lebenslaufanalyse und einer Datenbank bisheriger Einstellungen basiert.

Ab August 2026 ist dieses System Hochrisiko-KI. Was muss das Unternehmen tun? Erstens: Prüfen, ob der Anbieter des ATS eine EU-Konformitätserklärung vorlegen kann. Wenn nicht – oder wenn der Anbieter außerhalb der EU sitzt und keine entsprechende Dokumentation hat – ist das ein kritisches Problem. Zweitens: Eine Fundamental Rights Impact Assessment durchführen, also prüfen, ob das System Grundrechte der Bewerber beeinträchtigen könnte. Drittens: Einen menschlichen Prüfschritt verpflichtend einführen, bevor eine Einladung oder Ablehnung auf Basis des KI-Scores erfolgt. Viertens: Alle Beschäftigten, die mit dem System arbeiten, schulen – Stichwort Art. 26 AI Act: Betreiber müssen sicherstellen, dass natürliche Personen, die mit Hochrisiko-KI arbeiten, die nötige Kompetenz haben.

Das ist nicht theoretisch. Das ist der Pflichtenkanon, der ab August 2026 gilt. Und für dieses fiktive Logistikunternehmen bedeutet es: Vertragscheck mit dem Anbieter, interne Prozessanpassung, Dokumentationspflichten, Schulungsmaßnahmen – alles gleichzeitig, und alles nachweisbar.

Anhang III im Detail: Kritische Infrastruktur als Hochrisiko-Bereich

Nummer 2 in Anhang III ist genauso explosiv: KI-Systeme für kritische Infrastruktur. Gemeint sind Anwendungen in der Verwaltung und dem Betrieb von kritischer digitaler Infrastruktur, Straßenverkehr sowie in der Versorgung mit Wasser, Gas, Wärme und Strom. Hier geht es nicht um abstrakte Beschäftigungschancen, sondern um physische Sicherheit von Menschen.

Ein KI-System, das in einem Umspannwerk Lastverteilungsentscheidungen trifft, kann bei Fehlfunktion einen Blackout auslösen. Ein Algorithmus, der Wasserreinigungsprozesse steuert, kann bei falschen Vorhersagen die Trinkwasserqualität gefährden. Ein verkehrsoptimierendes KI-System auf Autobahnen kann bei Fehlfunktion Unfälle provozieren. Das Schadenspotenzial ist enorm – und genau deshalb sind diese Systeme Hochrisiko-KI.

Für Betreiber kritischer Infrastruktur kommt noch eine weitere Komplexitätsstufe hinzu: der Schnittpunkt mit NIS2. Die NIS2-Richtlinie, die seit Oktober 2024 in nationales Recht umgesetzt sein musste, stellt eigenständige Anforderungen an Cybersicherheit und Meldepflichten für kritische Einrichtungen. KI-Systeme in diesen Einrichtungen müssen also gleichzeitig AI Act-konform und NIS2-konform sein. Das sind zwei Compliance-Rahmen, die sich teilweise überschneiden, aber nicht identisch sind.

Die Bundesnetzagentur hat sich bereits positioniert: Als nationale Aufsichtsbehörde für bestimmte Bereiche der Hochrisiko-KI-Regulierung ist sie Anlaufstelle für Fragen zur Registrierungspflicht und zur Marktüberwachung. Betreiber von Hochrisiko-KI in der Energieversorgung werden gut beraten sein, dort frühzeitig Kontakt aufzunehmen – nicht erst wenn eine Prüfung angekündigt wird. Semantisch passt dazu unser Hintergrund KI-Regulierung in der EU: Was der AI Act bedeutet.

Fallbeispiel: KI in der Energieversorgung

Ein regionaler Energieversorger mit 200.000 Kunden setzt seit drei Jahren ein KI-System zur Vorhersage von Lastspitzen und zur automatischen Steuerung von Ausgleichsenergie ein. Das System entscheidet autonom, wann und wie viel Regelenergie am Markt eingekauft wird, und justiert die Einspeisung aus erneuerbaren Quellen in Echtzeit.

Ab August 2026 muss dieses System vollständig AI Act-konform sein. Das bedeutet konkret: Ein funktionierendes Risikomanagementsystem nach Art. 9 muss dokumentiert sein – kontinuierlich, nicht nur einmalig. Die technische Dokumentation nach Art. 11 muss den gesamten Entwicklungs- und Betriebsprozess abbilden. Automatische Logging-Funktionen nach Art. 12 müssen Entscheidungen des Systems nachvollziehbar aufzeichnen. Und menschliche Aufsicht nach Art. 14 muss sichergestellt sein – was bei autonomen Echtzeitsystemen eine echte technische und organisatorische Herausforderung darstellt.

Hinzu kommt die Registrierungspflicht: Hochrisiko-KI-Systeme, die in sensiblen Bereichen wie kritischer Infrastruktur eingesetzt werden, müssen in der EU-Datenbank für KI-Systeme registriert werden. Diese Datenbank ist öffentlich einsehbar. Das schafft Transparenz – und Sichtbarkeit gegenüber Behörden und Öffentlichkeit.

Der Pflichtenkanon: Was Anbieter und Betreiber ab 2026 leisten müssen

Der AI Act unterscheidet sorgfältig zwischen Anbietern (die ein Hochrisiko-KI-System entwickeln und auf den Markt bringen) und Betreibern (die ein solches System einsetzen). Beide haben Pflichten, aber unterschiedliche. Und die Unterscheidung ist in der Praxis oft nicht so klar, wie sie auf dem Papier wirkt.

Für Anbieter von Hochrisiko-KI-Systemen gelten die schwereren Lasten: Sie müssen ein vollständiges Konformitätsbewertungsverfahren durchführen – entweder als Selbstbewertung oder mit einer notifizierten Stelle, je nach System und Anwendungsbereich. Sie müssen eine technische Dokumentation erstellen, die den gesamten Lebenszyklus des Systems beschreibt. Sie müssen eine EU-Konformitätserklärung ausstellen und das CE-Kennzeichen anbringen. Und sie müssen das System in der EU-Datenbank registrieren.

Betreiber tragen eine andere, aber nicht kleinere Last. Laut IHK München müssen Betreiber insbesondere: die Konformitätserklärung des Anbieters prüfen und aufbewahren, die Nutzung des Systems auf den vorgesehenen Zweck beschränken, menschliche Aufsicht sicherstellen, ein eigenes Risikomanagementsystem betreiben, alle relevanten Beschäftigten schulen und bei bestimmten Systemen eine Fundamental Rights Impact Assessment durchführen.

Besonders die Fundamental Rights Impact Assessment – kurz FRIA – ist ein relativ neues Instrument. Sie ist für Betreiber öffentlicher Behörden und Einrichtungen verpflichtend, aber auch für private Unternehmen faktisch ratsam, wenn ihr System Grundrechte berührt. Eine FRIA analysiert, welche Grundrechte durch das KI-System potenziell beeinträchtigt werden könnten, und dokumentiert, welche Schutzmaßnahmen ergriffen wurden. Im Bereich Bewerberprüfung ist das nahezu immer relevant.

Risikomanagementsystem nach Art. 9: Mehr als ein Papierprojekt

Artikel 9 des AI Act verlangt ein kontinuierliches Risikomanagementsystem für Hochrisiko-KI. Das ist kein Einmalprojekt. Es ist ein laufender Prozess, der über den gesamten Lebenszyklus des Systems aufrechterhalten werden muss. Das System muss bekannte und vorhersehbare Risiken identifizieren, bewerten und mitigieren. Es muss regelmäßig aktualisiert werden, wenn neue Erkenntnisse vorliegen. Und es muss dokumentiert sein.

Was viele unterschätzen: Das Risikomanagementsystem muss auch Restrisiken adressieren. Also: Auch wenn alle Schutzmaßnahmen greifen, welches Restrisiko bleibt? Ist dieses Restrisiko akzeptabel? Wer entscheidet das, und nach welchen Kriterien? Diese Fragen müssen beantwortet und dokumentiert sein – nicht irgendwann, sondern vor dem Inbetriebsetzen des Systems und laufend danach.

In der Praxis bedeutet das für viele Unternehmen eine erhebliche organisatorische Herausforderung. Wer hat intern die Kompetenz, KI-Risiken systematisch zu bewerten? Gibt es eine Rolle „KI-Risikomanager“? Wenn nicht – muss sie geschaffen oder extern eingekauft werden. Wer dachte, ein ISO-27001-Zertifikat deckt das ab, irrt sich: Das Risikomanagementsystem nach Art. 9 AI Act ist spezifisch auf KI-Risiken ausgerichtet und geht über klassische IT-Sicherheitsrisiken hinaus.

Datenschutz trifft Algorithmus-Compliance: DSGVO und AI Act im Tandem

Ein Thema, das in der Compliance-Diskussion zu oft getrennt behandelt wird: der Schnittpunkt zwischen DSGVO und AI Act. Gerade im HR-Bereich treffen beide Regulierungsrahmen direkt aufeinander. Bewerber sind natürliche Personen, deren personenbezogene Daten verarbeitet werden. Das allein aktiviert die DSGVO. Wenn diese Verarbeitung durch ein Hochrisiko-KI-System erfolgt, aktiviert das den AI Act. Beide gelten gleichzeitig. Beide verlangen Dokumentation. Beide erlauben Behördenzugriff.

Konkret: Ein automatisiertes Bewerberranking-System verarbeitet personenbezogene Daten. Nach DSGVO braucht das eine Rechtsgrundlage, in der Regel berechtigtes Interesse oder Einwilligung, und eine Datenschutz-Folgenabschätzung (DSFA) bei hohem Risiko für betroffene Personen. Der AI Act fügt obendrauf die Pflicht zur Hochrisiko-Konformitätsprüfung, technischer Dokumentation und FRIA. Es gibt Überschneidungen – DSFA und FRIA können teilweise kombiniert werden – aber keine vollständige Deckungsgleichheit.

Für die Praxis bedeutet das: Datenschutzbeauftragte und KI-Compliance-Verantwortliche müssen eng zusammenarbeiten. Wer diese Rollen trennt und nicht koordiniert, produziert doppelten Aufwand und läuft Gefahr, in beiden Bereichen Lücken zu haben. Das ist ein strukturelles Organisationsproblem, kein technisches.

Hinzu kommt Art. 22 DSGVO, der bereits heute automatisierte Einzelentscheidungen mit erheblichen Auswirkungen unter bestimmten Bedingungen verbietet oder von einer Einwilligung abhängig macht. Ein vollautomatisiertes Bewerber-Absagesystem ohne menschliche Prüfung könnte bereits heute gegen Art. 22 DSGVO verstoßen. Ab 2026 kommt der AI Act dazu. Wer hier nicht beide Dimensionen im Blick hat, hat ein echtes Compliance-Problem.

Transparenzpflichten: Was Bewerber und Betroffene wissen müssen

Art. 13 AI Act verlangt Transparenz bei Hochrisiko-KI-Systemen. Konkret: Das System muss so gestaltet sein, dass Betreiber seinen Betroffenen gegenüber ausreichend transparent sein können. Die Informationen müssen verständlich sein – für Menschen, nicht nur für Techniker. Und sie müssen proaktiv bereitgestellt werden, nicht erst auf Nachfrage.

Im HR-Kontext bedeutet das: Wenn ein Unternehmen ein Hochrisiko-KI-System zur Bewerberauswahl einsetzt, müssen Bewerber darüber informiert werden. Sie müssen wissen, dass KI eingesetzt wird, welchen Zweck das System verfolgt und welche Arten von Entscheidungen durch die KI beeinflusst werden. Das ist keine freiwillige PR-Maßnahme. Es ist eine rechtliche Pflicht.

Wer meint, das sei nur eine kleine Ergänzung im Impressum, unterschätzt die Tragweite. Transparenzpflichten schaffen Angriffsfläche. Wer nicht transparent ist, kann von Aufsichtsbehörden sanktioniert werden. Wer transparent ist, aber ein System einsetzt, das bei näherer Betrachtung diskriminierend wirkt, öffnet die Tür für Beschwerden und rechtliche Auseinandersetzungen. Transparenz ist also kein Selbstläufer – sie erzwingt, dass die Systeme selbst integer sind.

Für Infrastrukturbetreiber gilt Ähnliches, auch wenn die Betroffenen hier keine einzelnen Bewerber sind, sondern potenziell ganze Bevölkerungsgruppen. Ein KI-System, das Energie priorisiert oder Netzlasten verteilt, trifft implizit Entscheidungen mit gesellschaftlichen Auswirkungen. Die Transparenzpflichten greifen hier auf institutioneller Ebene: gegenüber Regulierungsbehörden, gegenüber der Öffentlichkeit, gegenüber politischen Aufsichtsgremien.

Automatisierte Bewerberprüfung durch KI-System mit menschlicher Aufsicht
Automatisierte Bewerberprüfung gilt als Hochrisiko-KI – menschliche Aufsicht ist Pflicht. (Symbolbild)

Menschliche Aufsicht: Der Knackpunkt für autonome Systeme

Art. 14 AI Act ist einer der anspruchsvollsten Artikel für den operativen Betrieb. Er verlangt, dass Hochrisiko-KI-Systeme so konzipiert und betrieben werden, dass natürliche Personen die Funktionsweise wirksam überwachen können. Diese Aufsichtspersonen müssen in der Lage sein, die Outputs des Systems zu verstehen, Fehlfunktionen zu erkennen und das System notfalls abschalten oder übersteuern zu können.

Das klingt vernünftig. Es ist auch vernünftig. Aber es ist technisch und organisatorisch kompliziert. Denn viele KI-Systeme in kritischer Infrastruktur operieren in Millisekunden. Einen menschlichen Operator, der in Echtzeit die Lastverteilungsentscheidung eines Energiesystems überwacht und interveniert, gibt es nicht. Zumindest nicht in der klassischen Form.

Der AI Act erlaubt hier Augenmaß: Die menschliche Aufsicht muss dem Kontext angemessen sein. Bei hochfrequenten Echtzeitsystemen kann das bedeuten, dass ein Mensch nicht jeden einzelnen Output überwacht, aber die Systemparameter setzt, Schwellenwerte definiert, Anomalien überwacht und die Entscheidungslogik regelmäßig prüft. Was nicht geht: ein System einfach laufen lassen, ohne jemanden, der für seine Outputs verantwortlich ist und die Kompetenz hat, einzugreifen.

Im HR-Bereich ist die menschliche Aufsicht einfacher umzusetzen, aber keineswegs trivial. Ein HR-Mitarbeiter, der eine vom System generierte Shortlist einfach durchwinkt, ohne sie inhaltlich zu prüfen, ist keine wirksame menschliche Aufsicht. Der AI Act meint echte Prüfung, echte Kompetenz und echte Möglichkeit zur Korrektur. Das bedeutet: HR-Teams müssen verstehen, wie das System funktioniert, worauf es optimiert und welche Schwächen es hat.

Konformitätsprüfung: Selbstbewertung oder notifizierte Stelle?

Wer ein Hochrisiko-KI-System auf den Markt bringt, muss eine Konformitätsbewertung durchführen. Der AI Act sieht grundsätzlich zwei Wege vor: Selbstbewertung und Drittpartei-Bewertung durch eine notifizierte Stelle.

Die Selbstbewertung – technisch korrekt: interne Kontrolle – ist für die meisten Hochrisiko-KI-Systeme der Standardweg. Der Anbieter führt das Verfahren selbst durch, prüft sein System anhand der Anforderungen des AI Act, erstellt die technische Dokumentation, stellt die Konformitätserklärung aus und bringt das CE-Zeichen an. Klingt überschaubar? Ist es nicht. Denn die Anforderungen sind umfangreich, und die Konformitätserklärung ist eine rechtlich bindende Erklärung.

Für bestimmte Systeme – insbesondere biometrische KI-Systeme zur Identifikation von Personen – ist die externe Bewertung durch eine notifizierte Stelle verpflichtend. Aber auch für andere Hochrisiko-Systeme kann es sinnvoll sein, eine externe Prüfung einzuholen: zur Absicherung der eigenen Analyse, zur Demonstration gegenüber Auftraggebern oder als Vorbereitung auf mögliche Behördenanfragen.

TÜV Rheinland und andere Prüforganisationen arbeiten bereits an Zertifizierungsformaten für AI Act-Compliance. Das Ökosystem ist noch jung, aber es wächst. Wer früh mit einer notifizierten Stelle oder einem qualifizierten Prüfpartner in Kontakt tritt, hat einen Vorteil: Er lernt, welche Dokumentationslücken existieren, bevor die Behörden auftauchen.

Checkliste: Mindestvorbereitung auf August 2026

  • KI-Inventar erstellen: Alle eingesetzten KI-Systeme erfassen, dokumentieren und klassifizieren. Welches System fällt unter Anhang III?
  • Risikobewertung durchführen: Für jedes identifizierte Hochrisiko-KI-System eine initiale Risikobewertung nach Art. 9 durchführen.
  • Anbieterdokumentation prüfen: EU-Konformitätserklärung, CE-Kennzeichen und technische Dokumentation beim Anbieter anfordern und aufbewahren.
  • Menschliche Aufsicht definieren: Prozess- und Rollenverantwortlichkeiten für die Aufsicht über Hochrisiko-KI festlegen und dokumentieren.
  • Schulungen planen: KI-Literacy für alle Beschäftigten (Art. 4), vertieftes Training für Aufsichtspersonen (Art. 26) organisieren.
  • FRIA und DSFA koordinieren: Prüfen, ob eine Fundamental Rights Impact Assessment nötig ist, und mit der Datenschutz-Folgenabschätzung verzahnen.
  • Transparenzmaßnahmen umsetzen: Betroffene über KI-Einsatz informieren, interne Policies und externe Kommunikation anpassen.
  • Registrierungspflicht prüfen: Prüfen, ob das System in der EU-KI-Datenbank registriert werden muss.
  • Logging und Monitoring einrichten: Technische Systeme für automatisches Logging nach Art. 12 implementieren oder überprüfen.
  • Juristische Begleitung sicherstellen: Rechtliche Expertise zu AI Act, DSGVO und NIS2 intern aufbauen oder extern beauftragen.

Was Bußgelder und Sanktionen wirklich bedeuten

Der AI Act hat Zähne. Wer die Pflichten für Hochrisiko-KI nicht einhält, riskiert Bußgelder von bis zu 15 Millionen Euro oder drei Prozent des weltweiten Jahresumsatzes – je nachdem, was höher ist. Für KMU gelten zwar niedrigere Obergrenzen, aber auch diese sind keine Bagatelle. Und: Behörden können auch vorübergehende Nutzungsverbote für das System verhängen.

Zum Vergleich: Die DSGVO-Bußgelder, die seit 2018 verhängt werden, haben viele Unternehmen aufgerüttelt. Der AI Act hat eine ähnliche Sanktionslogik, aber einen engeren Fokus: Die Bußgelder sind für spezifische Verstöße konzipiert. Das bedeutet, dass Behörden gezielter vorgehen können – gegen konkrete Systeme, konkrete Anwendungsfälle, konkrete Dokumentationslücken. Semantisch passt dazu unser Hintergrund EU AI Act: Was der KI-Regulierungsrahmen für Verbraucher bedeutet.

Was viele vergessen: Neben Bußgeldern droht Reputationsschaden. Ein Unternehmen, dessen KI-gestütztes Recruiting-System öffentlich als diskriminierend oder rechtswidrig eingestuft wird, hat ein Problem, das über den Bußgeldbescheid hinausgeht. Kandidaten werden es meiden. Mitarbeiter werden es thematisieren. Medien werden berichten. Die reputativen Konsequenzen können die finanziellen übersteigen.

Meine persönliche Einschätzung: Die erste Welle der AI Act-Durchsetzung wird wahrscheinlich nicht die Kleinsten treffen, sondern die Sichtbarsten. Unternehmen, die öffentlich mit KI-gestützten HR-Prozessen werben oder deren Infrastruktur-KI in einer kritischen Situation versagt, werden im Fokus stehen. Das ist kein Freifahrtschein für kleine Unternehmen – es ist eine Warnung, dass Early Movers in der Compliance auch Schutz vor Early Enforcement bieten.

Mittelstand unter Druck: Warum besonders KMU handeln müssen

Die großen Konzerne haben Compliance-Abteilungen, externe Berater und dedizierte KI-Governance-Teams. Der Mittelstand hat meistens keines davon. Und trotzdem betreiben viele mittelständische Unternehmen Hochrisiko-KI – oft ohne es zu wissen. Ein Handwerksbetrieb mit 200 Mitarbeitern und einem KI-gestützten Bewerbermanagementsystem ist genauso betroffen wie ein DAX-Konzern.

Der Unterschied: Der DAX-Konzern hat Ressourcen, um die Compliance zu stemmen. Der Mittelständler hat oft weder das Wissen noch das Budget noch die Zeit. Das ist eine strukturelle Ungleichheit, die der AI Act selbst nur begrenzt adressiert. Es gibt zwar Vereinfachungen für KMU, aber keine vollständige Ausnahme. Hochrisiko-KI ist Hochrisiko-KI – unabhängig von der Unternehmensgröße.

Was KMU pragmatisch tun können: Erstens die Komplexität reduzieren, indem sie nur dort tief einsteigen, wo tatsächlich Hochrisiko-KI eingesetzt wird. Nicht jedes Excel-Makro ist KI, und nicht jede KI ist Hochrisiko. Das KI-Inventar hilft hier. Zweitens externe Unterstützung einkalkulieren – nicht als Luxus, sondern als Risikoabsicherung. Ein spezialisierter Berater kostet Geld, aber erheblich weniger als ein Bußgeldbescheid oder ein Reputationsschaden.

Drittens: Branchenverbände und Kammern nutzen. Die IHK München hat bereits einen strukturierten Ratgeber zu KI-Recht entwickelt. Der Händlerbund bietet ebenfalls Orientierung. Diese kostenlosen Ressourcen sind ein guter Einstieg, ersetzen aber keine individuelle Beratung für konkrete Hochrisiko-Systeme.

Ethische Standards: Jenseits der Compliance-Checkliste

Der AI Act ist Regulierung. Aber er ist auch Ausdruck eines gesellschaftlichen Konsenses darüber, was KI in sensiblen Bereichen darf und was nicht. Wer diesen Konsens nur als Compliance-Last betrachtet, verpasst eine wichtige Dimension: Ethische KI-Nutzung ist nicht nur rechtlich geboten – sie ist auch strategisch sinnvoll.

Unternehmen, die in der Bewerberauswahl auf faire, transparente und nachvollziehbare KI setzen, gewinnen Vertrauen – bei Bewerbern, bei bestehenden Mitarbeitern und bei der Öffentlichkeit. Unternehmen, die in kritischer Infrastruktur auf robuste, gut überwachte und transparent dokumentierte KI-Systeme setzen, schaffen Resilienz – nicht nur regulatorisch, sondern operativ.

Bias-Prüfungen sind dabei ein zentrales Instrument. Ein KI-System zur Bewerberauswahl sollte regelmäßig daraufhin analysiert werden, ob es bestimmte Gruppen systematisch bevorzugt oder benachteiligt. Diese Analyse muss dokumentiert und – wenn Probleme gefunden werden – korrigiert werden. Das ist nicht nur eine AI Act-Pflicht. Es ist auch gutes Handwerk.

Dasselbe gilt für Infrastruktur-KI: Regelmäßige Adversarial Tests, also gezielte Versuche, das System mit ungewöhnlichen oder extremen Inputs zu stören, sind beste Praxis. Sie decken Schwachstellen auf, bevor sie in realen Betriebssituationen zum Problem werden. Der AI Act verlangt Robustheitsnachweise nach Art. 15 – aber auch ohne regulatorischen Zwang sollte kein verantwortlicher Infrastrukturbetreiber darauf verzichten.

Roadmap 2025 bis 2026: Was wann zu tun ist

Die zeitliche Struktur des AI Act ist gestaffelt. Das ist eine Chance – wenn man sie nutzt. Hier ist eine realistische Roadmap für Unternehmen, die Hochrisiko-KI einsetzen oder planen:

Sofort (Q3/Q4 2025): KI-Inventar erstellen. Alle KI-Systeme im Unternehmen erfassen, unabhängig vom Entwicklungsstand. Vorläufige Klassifizierung nach Risikostufen. Erste Kommunikation mit KI-Anbietern über deren Compliance-Status. Interne Awareness-Kampagne starten.

Q1/Q2 2026: Tiefenanalyse der identifizierten Hochrisiko-Systeme. Risikomanagementsystem aufbauen. Technische Dokumentation prüfen oder anfordern. Schulungsmaßnahmen durchführen – für alle Beschäftigten KI-Grundkompetenz, für Aufsichtspersonen vertieftes Training. FRIA durchführen, wo relevant. Logging-Systeme implementieren oder überprüfen.

Q2/Q3 2026: Finale Compliance-Prüfung. Konformitätserklärungen aufbewahren. Registrierung prüfen und durchführen. Prozesse für menschliche Aufsicht final fixieren. Juristische Freigabe einholen. Kommunikation nach außen – Transparenzpflichten umsetzen.

Ab August 2026: Laufende Compliance-Überwachung. Risikomanagementsystem aktuell halten. Incidents dokumentieren. Behördenanfragen proaktiv beantworten. Jährliche Reviews einplanen.

Diese Roadmap ist kein Luxus. Sie ist das Minimum. Wer erst im Juli 2026 anfängt, wird im August 2026 nicht fertig sein. Das ist keine Prognose – das ist Arithmetik.

Was Anbieter von HR-KI und Infrastruktur-Tools jetzt tun müssen

Bisher war viel von Betreibern die Rede. Aber Anbieter von Hochrisiko-KI-Systemen tragen die schwerste Last. Wer ein ATS-System mit KI-Scoring-Funktionen verkauft, ist Anbieter im Sinne des AI Act. Wer ein KI-gestütztes Energiemanagementsystem vertreibt, ist Anbieter. Und Anbieter müssen die volle Konformitätsbewertung durchführen.

Das bedeutet: Anbieter, die heute noch keine vollständige technische Dokumentation ihrer KI-Systeme haben, müssen jetzt damit beginnen. Sie müssen ihre Systeme gegen die Anforderungen des AI Act – Art. 9 bis 15 – prüfen und dokumentieren. Sie müssen Prozesse für Post-Market-Surveillance einrichten, also Monitoring der System-Performance nach dem Verkauf. Und sie müssen ihren Kunden die nötigen Informationen bereitstellen, damit diese als Betreiber ihre eigenen Pflichten erfüllen können.

Wer als Anbieter diese Pflichten vernachlässigt, schadet nicht nur sich selbst. Er schädigt auch seine Kunden: Betreiber, die gutgläubig ein nicht-konformes System einsetzen, können trotzdem sanktioniert werden. Die Verantwortung liegt auf beiden Seiten der Lieferkette.

Für HR-Tech-Anbieter ist die Botschaft klar: Wer nicht AI Act-konform ist, verliert Kunden. Nicht weil Kunden plötzlich ethisch bewusster werden, sondern weil Kunden ab August 2026 rechtlich haften, wenn sie nicht-konforme Systeme einsetzen. Das macht Compliance zum Verkaufsargument. Und Non-Compliance zum Ausschlusskriterium.

Was bleibt – und was jetzt zu entscheiden ist

Der EU AI Act für Hochrisiko-KI ist kein regulatorischer Sturm im Wasserglas. Er ist die erste verbindliche, durchsetzbare KI-Regulierung der Welt, die spezifische Sektoren – darunter Beschäftigung und kritische Infrastruktur – mit konkreten Anforderungen belegt. Ab August 2026 gilt: Wer nicht konform ist, riskiert nicht nur Bußgelder, sondern den Betrieb des Systems selbst.

Die gute Nachricht: Wer jetzt anfängt, hat Zeit. Nicht viel, aber genug – wenn die Energie in strukturierte Arbeit fließt statt in Abwarten. Das KI-Inventar ist der erste Schritt. Die Risikobewertung der zweite. Alles andere folgt daraus.

Die schlechte Nachricht: Über die Hälfte der deutschen Unternehmen hat diesen ersten Schritt noch nicht gemacht. Das bedeutet, dass 2026 für viele eine Überraschung werden wird. Eine unangenehme.

Wo steht Ihr Unternehmen in dieser Frage? Haben Sie Ihr KI-Inventar? Wissen Sie, ob Ihre Recruiting-Tools oder Ihre Infrastruktur-Algorithmen unter Anhang III fallen? Wenn die Antwort zögerlich ist – dann ist das die Information, die Sie heute brauchen, um morgen zu handeln.

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel