Seit dem russischen Angriffskrieg gegen die Ukraine ist KI-gestützte Zielerfassung kein Laborprojekt mehr – sie ist Realität auf dem Schlachtfeld. Drohnen identifizieren Ziele algorithmisch, Waffensysteme entscheiden in Millisekunden. Und die internationale Gemeinschaft diskutiert noch immer, ob und wie man das regulieren kann. Ein Blick auf den Stand der Dinge – ohne Hysterie, aber mit offenen Augen.
Der israelische Verteidigungskonzern Elbit Systems hat sein System „Fire Weaver“ bereits 2021 öffentlich vorgestellt – ein KI-gestütztes Netzwerk, das Sensordaten von Drohnen, Bodensensoren und Radarsystemen zusammenführt und Schusslösungen in Echtzeit vorschlägt. Damit rückt auch Edge-AI auf Geräten, Sensoren und Drohnen in den Mittelpunkt, weil die Auswertung nicht mehr zwingend in einem Rechenzentrum passiert. Ähnliche Architekturen finden sich beim US-amerikanischen Programm „ATLAS“ (Advanced Targeting and Lethality Automated System), das laut Berichten des Pentagon die Zielerkennung für Bodensysteme um den Faktor zehn beschleunigen soll. Das ist wichtig, weil hier der Kernkonflikt liegt: Nicht ob KI Waffensysteme unterstützt, sondern wer oder was letztlich den Auslöser betätigt.
Konkret unterscheidet die Fachliteratur drei Kategorien: menschengesteuerte Systeme („human-in-the-loop“), menschenüberwachte Systeme („human-on-the-loop“) und vollständig autonome Systeme („human-out-of-the-loop“). In der Praxis verschwimmen diese Grenzen. Genau an dieser Stelle wird die Frage nach nachvollziehbaren KI-Entscheidungen mehr als ein Compliance-Thema: Ohne Erklärung bleibt Verantwortung im Nebel. Eine Drohne, die in einem vordefinierten Gebiet selbstständig Ziele klassifiziert und markiert, ist formal „human-on-the-loop“ – aber wenn der Operator 50 solcher Markierungen pro Minute bestätigen soll, ist die menschliche Kontrolle faktisch eine Farce. Das nennt man dann „meaningful human control“, und es ist einer der am heftigsten umstrittenen Begriffe in der aktuellen UN-Debatte.
Im Ukraine-Krieg kommen KI-Waffensysteme auf beiden Seiten zum Einsatz. Die ukrainische Drohnenentwicklung, teilweise mit westlicher Software-Unterstützung, nutzt KI-gestützte Zielerfassung zur Identifikation russischer Panzerfahrzeuge. Russland seinerseits setzt auf Systeme wie den Lancet-Loitering-Munition, der Ziele autonom verfolgt und angreift. Autonome Waffen sind nicht Zukunftsmusik. Sie sind Ukraine-2024.
Unter der Haube funktioniert KI-gestützte Zielerfassung in den meisten dokumentierten Systemen als Kombination aus Computer Vision und neuronalen Netzen, die auf synthetischen und realen Trainingsdaten basieren. Das US-Projekt „Maven“ – bekannt geworden durch den internen Google-Mitarbeiterprotest 2018 – analysiert Drohnenvideos, um Objekte zu klassifizieren. Google zog sich zurück. Das Pentagon machte weiter, heute mit Microsoft und Palantir als Partner.
Der Punkt ist: Diese Systeme sind so gut wie ihre Trainingsdaten – und Trainingsdaten für Kriegsszenarien sind strukturell problematisch. Ein Algorithmus, der auf Bildern von T-72-Panzern trainiert wurde, klassifiziert unter Umständen einen landwirtschaftlichen Traktor mit ähnlicher Wärmebildsignatur als Ziel. Solche False-Positive-Fehler in einem konventionellen Bilderkennungssystem sind lästig. In einem Waffensystem können sie Zivilisten töten. Die Fehlerrate, die bei kommerzieller Gesichtserkennung noch als „akzeptabel“ durchgeht, ist im Kontext autonomer Waffen schlicht nicht akzeptabel.
Ehrlich gesagt finde ich die Argumentation mancher Befürworter hier besonders schwach: dass KI-gestützte Zielerfassung präziser sei als menschliche Entscheidungen im Stress des Gefechts. Das mag statistisch stimmen – und ist trotzdem kein ausreichendes Argument für den Entzug menschlicher Verantwortung. Denn Präzision ist nicht dasselbe wie Rechtmäßigkeit, und ein Algorithmus kann keine moralische Verantwortung übernehmen.
Seit 2014 tagt bei der UN-Waffenkonvention (CCW) eine Expertengruppe zu „Lethal Autonomous Weapons Systems“ (LAWS). Das sind mittlerweile über zehn Jahre Diskussion ohne verbindliches Ergebnis. 2023 verabschiedete die UN-Generalversammlung erstmals eine Resolution, die Staaten auffordert, verantwortungsvolle Nutzung von KI im Militär zu „berücksichtigen“. Das klingt nach Fortschritt. Ist es nicht. Eine Resolution ohne Sanktionsmechanismus ist eine Meinungsäußerung, kein Völkerrecht.
Das strukturelle Problem der UN-Debatte um KI-Regulierung bei autonomen Waffen ist bekannt: Konsensbasierte Entscheidungsprozesse scheitern, sobald Großmächte mit divergierenden Interessen am Tisch sitzen. Die USA wollen keine verbindlichen Verbote, sondern „politische Erklärungen“ zur verantwortungsvollen Nutzung. China unterstützt formal ein LAWS-Verbot in Kriegsgebieten – aber nur, wenn die Definition von „autonom“ eng genug gefasst wird, um eigene Systeme auszunehmen. Russland blockiert aktiv jeden verbindlichen Mechanismus. Österreich und über 70 weitere Staaten fordern ein explizites Verbotsabkommen für vollständig autonome Waffen. Das Internationale Komitee vom Roten Kreuz (IKRK) hat ebenfalls explizit neue, rechtsverbindliche Regeln gefordert – mit dem Argument, dass bestehendes humanitäres Völkerrecht für autonome Waffensysteme schlicht nicht ausreicht.
Konkret fehlt dem internationalen Diskurs bislang eine konsensfähige Definition: Was genau ist ein „autonomes Waffensystem“? Zählt ein Raketenabwehrsystem wie Israels Iron Dome dazu, das autonom Geschosse abfängt? Die meisten Experten sagen nein – weil es defensiv ist. Aber die Grenze zwischen defensiver Autonomie und offensiver Autonomie ist bei Drohnen, die attackieren und ausweichen können, fließend bis inexistent.
Die EU hat mit dem AI Act das weltweit erste umfassende KI-Regulierungsgesetz beschlossen – aber militärische Anwendungen explizit ausgenommen. Genau deshalb lohnt der Blick auf die Risikologik des EU AI Act: Sie zeigt, wie Regulierung funktionieren könnte – und wo sie beim Militär bewusst endet. Das ist kein Versehen, sondern politische Entscheidung: Sicherheitspolitik bleibt Ländersache. Was den AI Act für KI Waffensysteme also praktisch bedeutungslos macht. Interessant wird es bei der Frage, ob zivile KI-Technologien mit militärischen Dual-Use-Potenzial unter den AI Act fallen könnten – hier ist die Rechtslage noch ungeklärt.
Die NATO hat 2021 „Principles of Responsible Use of AI in Defence“ verabschiedet – sechs Grundsätze, darunter Nachvollziehbarkeit, Zuverlässigkeit und menschliche Kontrolle. Verbindlich? Nein. Ein Bekenntnis der 32 Mitgliedsstaaten zu einem gemeinsamen Rahmen, mehr nicht. In der Praxis entwickeln und beschaffen NATO-Mitglieder KI-Waffensysteme weitgehend national, ohne übergeordnete Aufsicht.
Die USA haben unter Biden 2023 eine „Executive Order on AI“ verabschiedet, die auch den Verteidigungsbereich adressiert. Das Verteidigungsministerium hat eine eigene KI-Strategie und das „AI Responsible Use Framework“ – Dokumente, die „meaningful human control“ betonen. Gleichzeitig treibt das Pentagon die Entwicklung autonomer Systeme mit Milliarden-Budgets voran. Beides gleichzeitig zu sagen – „wir wollen Kontrolle“ und „wir entwickeln Autonomie“ – ist der Kernwiderspruch amerikanischer KI-Militärpolitik. China investiert laut Schätzungen des CSIS (Center for Strategic and International Studies) ähnliche Summen in KI Waffensysteme, mit deutlich weniger Transparenz über ethische Leitlinien.

Wer verstehen will, wohin die Reise geht, schaut auf den Drohnenkrieg. Der Einsatz von Kamikaze-Drohnen oder Loitering Munitions – also fliegender Munition, die ein Gebiet überfliegt und selbstständig Ziele sucht – hat sich in der Ukraine zu einem Massenphänomen entwickelt. Laut Schätzungen des ukrainischen Militärs wurden 2023 über eine Million Drohnen beider Seiten eingesetzt. Die meisten davon sind noch manuell gesteuert oder folgen vorprogrammierten Routen. Aber die Entwicklungsrichtung ist eindeutig: mehr Autonomie, weniger Funkverbindung (die gestört werden kann), mehr KI-gestützte Zielerfassung.
Das Besondere am Drohnenkrieg als Testlabor ist die Geschwindigkeit des Lernens. Systeme werden entwickelt, eingesetzt, verbessert – in Zyklen von Wochen, nicht Jahren. Analysten des renommierten Fachportals „War on the Rocks“ haben dokumentiert, wie ukrainische Drohneneinheiten KI-gestützte Zielerkennung innerhalb weniger Monate vom Prototyp zur Frontlinie skaliert haben. Das ist bemerkenswert – und beunruhigend zugleich, weil es zeigt, dass regulatorische Prozesse, die in Jahrzehnten denken, mit technologischen Entwicklungszyklen in Wochen strukturell überfordert sind.
Im Kern läuft das auf folgende Dynamik hinaus: Staaten, die autonome Waffen regulieren wollen, tun das im Schneckentempo. Staaten, die sie entwickeln wollen, tun das im Expresstempo. Regulierung verliert diesen Wettlauf gerade sehenden Auges.
Das ist die unbequemste Frage in der gesamten Debatte um KI Waffensysteme – und die am wenigsten geklärte. Wenn ein autonomes Waffensystem eine Zivilperson tötet, wer ist dann verantwortlich? Der Soldat, der das System aktiviert hat? Der Kommandeur, der den Einsatzbefehl gab? Der Ingenieur, der den Algorithmus entwickelte? Der Staat, der das System beschaffte? Das humanitäre Völkerrecht basiert auf dem Prinzip individueller Verantwortung – und ist für Szenarien konzipiert, in denen ein Mensch Entscheidungen trifft.
Ich finde, dass genau hier der entscheidende normative Einwand liegt, nicht bei technischen Fehlerquoten: Eine Gesellschaft, die Tötungsentscheidungen an Algorithmen delegiert, verändert das Verhältnis zwischen staatlicher Gewalt und moralischer Rechenschaftspflicht grundlegend. Nicht weil Algorithmen zwangsläufig schlechtere Entscheidungen treffen – sondern weil niemand zur Verantwortung gezogen werden kann, wenn sie es tun. Das ist ein zivilisatorisches Problem, kein technisches.
Konkret versuchen einige Rechtswissenschaftler, das Konzept der „corporate liability“ aus dem Zivilrecht auf KI Waffensysteme anzuwenden – also Staaten oder Hersteller haftbar zu machen. Bisher sind das akademische Gedankenspiele. Die Realität in der Ukraine oder im Gazastreifen wartet nicht auf Rechtsdogmatik.
Ein verbindliches internationales Abkommen zu autonomen Waffen wäre der logische nächste Schritt, analog zur Ottawa-Konvention gegen Landminen oder dem Chemiewaffenübereinkommen. Österreich, Neuseeland, Costa Rica und über 70 weitere Staaten unterstützen diesen Weg. Das Problem: Die militärisch relevantesten Akteure – USA, China, Russland, Israel, Großbritannien – tun es nicht. Ein Abkommen ohne diese Staaten wäre symbolisch wertvoll, aber strategisch wirkungslos.
Was realistisch wäre: ein Moratorium für vollständig autonome offensive Waffensysteme, verbunden mit einer internationalen Prüfinstanz für KI-Komponenten in militärischen Systemen. Das ist keine naive Forderung – es gibt Präzedenzfälle für partielle Rüstungskontrolle auch ohne universelle Beteiligung. Aber selbst das ist politisch derzeit nicht mehrheitsfähig, weil zu viele Akteure strategische Vorteile durch Autonomie erwarten.
KI-Regulierung im militärischen Bereich scheitert nicht an fehlenden Ideen oder fehlendem Wissen. Sie scheitert an fehlendem politischen Willen der Staaten, die den Unterschied machen würden. Das ist die nüchterne Einordnung des Status quo – und die sollte man nicht mit technologischem Fortschrittspessimismus verwechseln. Es ist ein klassisches Sicherheitsdilemma: Jeder würde von universeller Regulierung profitieren, aber niemand will der erste sein, der auf Vorteile verzichtet.
Die CCW-Verhandlungen bei der UN gehen 2026 in die nächste Runde – mit demselben Konflikt zwischen Staaten, die verbindliche Regeln wollen, und Staaten, die das verhindern. Parallel entwickeln EU-Mitglieder im Rahmen des Europäischen Verteidigungsfonds KI-fähige Waffensysteme, ohne dass der AI Act eingreift. Und in der Ukraine, im Nahen Osten und zunehmend in Konflikten in Afrika und Asien werden autonome Waffen und KI-gestützte Zielerfassung weiter im realen Einsatz getestet und verfeinert.
Die technische Entwicklung von KI Waffensystemen läuft schneller als jeder politische Prozess, der sie einzuhegen versucht. Das ist keine Panik-These. Das ist eine empirische Beobachtung mit einer unbequemen Konsequenz: Wenn die internationale Gemeinschaft den regulatorischen Rückstand nicht aufholt, werden die Normen nicht durch Abkommen gesetzt – sondern durch Präzedenzfälle auf dem Schlachtfeld. Wollen wir das?
Um Ihnen ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern und/oder darauf zuzugreifen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie Ihr Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder widerrufen, können bestimmte Merkmale und Funktionen beeinträchtigt werden.