STAND
AUTOR/IN

Revolutionäre Militärtechnik macht es möglich, dass KI autonom einen Atomschlag auslösen könnte. Wird der Mensch überflüssig und steigt so die Kriegsgefahr?

Noch nie war der Atomkrieg, befeuert durch neue Technologien, so nah. Der Informatikforscher Prof. Karl Hans Bläsius befürchtet einen Atomkrieg aus Versehen: „Systeme der künstlichen Intelligenz sollen auch Entscheidungen treffen, hinsichtlich des Abschusses von Atomraketen. Das wäre fatal!“ Und Rüstungsexperte Dr. Ulrich Kühn ergänzt, dass es in den USA und Russland Bestrebungen gebe „dass bei der nuklearen Kommando- und Kontrollkette KI-Systeme zum Einsatz kommen.“

Die USA bräuchten, so ein Aufruf von US-Militärforschern von 2019, ein nukleares Abwehrsystem ohne Menschen in der Entscheidungsschleife: Eine „tote Hand“, eine Maschine, die den Atomschlag angesichts immer knapperer Reaktionszeiten automatisch auslösen könnte. Diese Technik wird längst weltweit entwickelt, oftmals als Kombination ziviler und militärischer Projekte. Künstliche Intelligenz bedeutet eine militärische Revolution, so Generalleutnant a.D. Kersten Lahl. So wie einst Schießpulver, Eisenbahn und Atombombe: „Die KI macht menschlichen Einfluss überflüssig, das ist sozusagen ihre DNA“. Der menschliche Soldat könne mit seinen kognitiven und reaktiven Fähigkeiten da nicht mehr Schritt halten. Was auch, so Lahl, die Abfolge der militärischen Eskalationsstufen beschleunigen könnte.

Abschreckung ist gefährdet

Die neue Rüstungsspirale wird sowohl durch Technologie angetrieben, als auch durch den Vertrauensverlust zwischen den Atommächten: Trotz ihres mehrfachen Weltzerstörungs-Arsenals fürchten die Staaten, dass ihre Abschreckung irgendwie nicht wirkt: Russland sei besorgt, so Dr. Ulrich Kühn vom Friedensforschungsinstitut der Uni Hamburg, dass seine Zweitschlagfähigkeit eingeschränkt wird, vor allem, weil die USA zunehmend auf Raketenabwehrsysteme und im offensiven Bereich auch auf sehr treffsichere Systeme setzen.

Deswegen arbeiten Russland, aber die USA und die aufstrebende Nuklearmacht China fieberhaft an intelligenten, superschnellen Waffen: Hyperschall-Flugkörper mit unberechenbarer Flugbahn tricksen jede Raketenabwehr aus. Und könnten den Feind so schnell und schwer treffen, dass ein Gegenschlag unmöglich wird. Und dann wäre das Prinzip der Abschreckung, nach der jeder atomare Angriff auch zur Vernichtung des Angreifers führt, außer Kraft gesetzt.

Fehler beim Erkennen und Klassifizieren

Die Reaktionszeiten in der Kommandokette werden für den Menschen jedenfalls immer kürzer[i]: Sind wirklich Atomraketen im Anflug? Oder ist es ein Fehlalarm? Könnte nicht eine unfehlbare Maschine das nicht viel besser entscheiden als der Mensch?

Nein, sagt der KI-Forscher Prof. Bläsius: Weil die KI eben nicht unfehlbar ist. Trotz der riesigen Datenmengen, mit der man sie füttert, klappt das Erkennen und Klassifizieren nie perfekt: Beim autonomen Fahren verursachen Erkennungsfehler Unfälle und Tote. Und bei den beiden Abstürzen der Boeing 737 Max konnten die Piloten die falsche Entscheidung des Computers nicht korrigieren. So etwas passiert, weil die Wirklichkeit nicht perfekt in die digitale Computerlogik passt. Und: Je komplexer ein System, desto schwieriger wird es, sein Verhalten vorauszusagen. Auch wenn durch Training mit neuen Beispielen die KI immer besser wird: Bei einem fehlerhaften autonomen KI-Verteidigungssystem würde das den - in Millionen gerechneten – „Megatoten“ eines Atomkriegs nicht mehr helfen.

Maschine entscheidet ohne Zweifel

Natürlich, sagt Karl Hans Bläsius: Auch Menschen irren, sehr oft sogar. Doch bisher haben sich menschliche Entscheider bei den vielen dokumentierten Fehlalarmen immer gegen den Atomschlag entschieden. Manchmal, weil sie die Daten in der kurzen Zeit nicht auswerten und einen Fehlalarm nicht ausschließen konnten. Oder, weil sie im Gegensatz zur Maschine wussten, was ihre Entscheidung bedeutet.

Die KI käme dagegen zu einer Entscheidung ohne jeden Zweifel. Und der Mensch würde sich, so der Rüstungsexperte Kersten Lahl, der überlegenen Maschinenlogik aus der „Black Box“ in der akuten Krise wohl beugen, „auch wenn die formale Kompetenz beim militärischen Führer verbleibt.“ Ein Trend, der nicht mehr aufzuhalten sei.

Beschleunigung der Rüstungsspirale

Die Welt erlebt derzeit eine extreme technologische Beschleunigung der Rüstungsspirale: Die neuen KI-gesteuerten, eventuell atomar bewaffneten Hyperschall-Flugkörper abzufangen, ist eine Herausforderung. So entwickelt ein deutsches Unternehmen im Auftrag der Bundeswehr ein Abfangsystem. Bekämpfen lassen sich intelligente Superwaffen nur mit möglichst noch intelligenteren Abwehrsystemen. Am Ende KI gegen KI? Die „Rules of Engagement“ in Deutschland verhindern dies, so die einhellige Botschaft von Politik, Bundeswehr und Industrie: Der Mensch wird immer die letzte Entscheidung haben! Und doch: Bei militärischer KI in Aufklärungs-, Kampf-und Abwehrsystemen wollen alle dabei sein, auch Deutschland. Ein Antrag auf Ächtung autonomer Waffen wurde 2020 im Bundestag abgelehnt.

Neue atomare Rolle für Deutschland?

Dabei diskutieren rüstungspolitische Kreise auch die Chancen der KI: Weniger fatale menschliche Fehlentscheidungen. Letztendlich: Hoffnungen auf eine humanere, präzisere Kriegsführung durch intelligente Waffensysteme. Der Rüstungsexperte Ulrich Kühn sagt dazu, das Narrativ des „sauberen Maschinenkriegs mit weniger zivilen Opfern“ sei eine Utopie: „Es wird keinen sauberen Krieg geben“. Und fügt hinzu, dass für Deutschland spätestens bei der Realisierung des “Future Combat Air System“ (FCAS) die Verknüpfung von KI und Atomwaffen sehr konkret werde. Das FCAS, das bis 2040 realisiert werden soll, ist ein hochgradig vernetztes Kampfsystem. Ein Gemeinschaftsprojekt von Deutschland, Frankreich und Spanien. Das System, dessen Zentrum ein neuer Kampfjet ist, wird wohl einen hohen Autonomiegrad haben – und, so Kühn, mit den Franzosen sei eben auch eine Atommacht dabei.

Rüstungskontrolle immer komplizierter

Realität ist: Es gibt ein internationales Rennen um immer schnellere, intelligentere Waffen: Es wird unklarer, welche Systeme konventionell oder atomar bestückt sind, ob sie Angriffs- oder Abwehrwaffen sind; über welche scheinbaren „Wunderwaffen“ eine Militärmacht wirklich verfügt, welches Cyberwar-Potential verfügbar ist. Ein Problem auch für die Rüstungskontrolle: Die Abschreckung ist durch die neue Unübersichtlichkeit gefährdet, wird überkomplex. Zusätzliche Spannungen durch die kleineren Atommächte verstärken die Nervosität.

Und daher reift in den Think Tanks die Idee: Der kalten Maschinenintelligenz die Oberaufsicht über das Horrorinventar anzuvertrauen. Deutschland, durch die „nukleare Teilhabe“ eingebunden, könnte da konsequenter agieren, meint Dr. Kühn: Deutschland habe in der nuklearen Planungsgruppe der Nato Mitspracherecht. Hier müsse sich Deutschland stark dafür machen, zu fordern: „Wir wollen nicht, dass unsere Verbündeten autonome oder teilautonome Systeme im nuklearen Bereich einsetzen.“

Situation spitzt sich zu

Der Rüstungsgegner und KI-Forscher Karl Hans Bläsius hatte als Student ein Schlüsselerlebnis: Willy Brandt zeigte 1983 im Bundestag einen Brief vor, den Bläsius und seine Kommilitonen geschrieben hatten. Eine Warnung vor fatalen Computerfehlern, die den Atomkrieg auslösen könnten. Man könne, wenn was so etwas liest, doch nicht zur Tagesordnung übergehen, sagt Willy Brandt damals. Die Lage hat sich seitdem zugespitzt. Die Warnungen vor einem Atomkrieg aus Versehen durch den Glauben an eine perfekte Maschinenintelligenz sind keine Science-Fiction. Die Weichen dafür werden hier und heute gestellt.

Links und Literatur:

Homepage von Karl Hans Bläsius mit Links und Literatur

Kontakt Prof. Karl Hans Bläsius: mail@akav.de

Karl Hans Bläsius, J. Siekmann: Die Reaktionszeit sinkt, das Risiko steigt – Zur KI-basierten Bewertung von Alarm-meldungen in Frühwarnsystemen, Behördenspiegel Januar 2021, S. 29

A. Louther, C. McGiffin: America needs a Dead Hand, 16.08.2019

R. Stone: Wettrüsten am Himmel, in Süddeutsche Zeitung, Nr.68, 21.03.2020, S.32

C. Esch et al.: Spiel mit der Bombe, in: Der Spiegel, Nr.32, 01.08.2020, S.74-80

Musik: d.dadascope

STAND
AUTOR/IN