Künstliche Intelligenz in Frühwarnsystemen

von | 20.02.2022 | Wehrtechnik | 2 Kommentare

Fluch oder Segen?

Kriegsangst wabert durch Europa. Wird die russische Föderation mit den aufmarschierten Truppen die Ukraine angreifen? Kommt es gar zu einem Krieg mit der NATO – vielleicht aus Versehen? Und wenn ja, birgt dieser auch die Gefahr eines, wenn auch sehr unwahrscheinlichen nuklearen Schlagabtausches, basierend auf Fehlinterpretationen von Frühwarnsystemen, gerade jetzt, wo die Russische Föderation wieder einmal eine Übung mit ihren Nuklearstreitkräften macht? Kann künstliche Intelligenz (KI) in Zukunft einen Nuklearkrieg aus Versehen verhindern?

Computergestützte Frühwarn- und Entscheidungssysteme sollen einen Angriff mit Atomwaffen rechtzeitig erkennen, damit bei entsprechender Situationsbewertung die eigenen atomaren Trägerraketen gegebenenfalls vor einem vernichtenden Einschlag aktiviert werden können. Die Zeit zur Bewertung einer potenziellen Angriffssituation ist gering. Diese Zeit ist u.a. abhängig von der ersten Alarmmeldung bis zu einem möglichen Auftreffen der Gefechtsköpfe. Neue Waffensysteme wie Hyperschallraketen werden diese Zeitspanne noch weiter verkürzen. Die technische Analyse möglicher Angriffssituationen wird auf Grund einer immer mehr zunehmenden Zahl von Flugobjekten im Raum erschwert. Deshalb wird immer stärker bei der Analyse von Alarmmeldungen auf automatisierte Systeme unter Verwendung von Methoden der KI zurückgegriffen werden. Aber auch KI-Systeme können bei solchen Anwendungen keine sicheren Ergebnisse liefern, denn die zugrundeliegenden Daten sind unsichervage und unvollständig. Automatische Erkennungsergebnisse gelten deshalb nur mit einer gewissen Wahrscheinlichkeit und können falsch sein. Die Komplexität möglicher Bedrohungslagen kann zusätzlich durch Cyberangriffe und autonome Waffensysteme erhöht werden. Menschen werden abhängig von den eventuell falschen Entscheidungen der Maschine, ohne Möglichkeit, diese in der kurzen verfügbaren Zeit angemessen zu überprüfen. Der Fluch der KI kann darin bestehen, dass Menschen sich daran gewöhnen, dass in vielen Fällen die KI sehr gute Ergebnisse liefert. Wenn Menschen selbst keine echte Überprüfungsmöglichkeit mehr haben, bleibt ihnen nur, der Lösung der Maschine blind zu vertrauen. Das kann im wahrsten Sinne des Wortes fatal sein. Das Risiko eines Atomkriegs aus Versehen als Folge eines Fehlalarms und einer Fehleinschätzung der Gefährdungslage könnte unter diesen Umständen deshalb nicht nur jetzt, sondern auch in den nächsten Jahren und Jahrzehnten erheblich steigen.

Wollen wir also bei auch in Zukunft nicht auszuschließenden sich zuspitzenden internationalen Spannungen und Kriegen nukleare Reaktionen, die auf Fehlalarmen basieren, ausschließen muss, so lange es noch Nuklearwaffen gibt, die Warnzeit verlängert werden, um Menschen Zeit für eine Beurteilung und Reaktion zu geben. Daraus folgt logischerweise, dass bei allen Rüstungskontrollverhandlungen zuerst die gefährlichsten Systeme adressiert werden müssen, also Hyperschallwaffen, Kurz- und Mittelstreckensysteme und zuletzt solche, die eine lange Reaktionszeit erlauben, wie die flugzeugbasierten Systeme. Dies liegt auch im besonderen Interesse der Europäer. Es ist mit ein Grund dafür, dass Europäer ein Einflussrecht bei nuklearen Rüstungskontrollverhandlungen haben müssen. Ein Recht, welches mit einer nuklearen Teilhabe und damit auch Risiko- und Verantwortungsübernahme leichter durchzusetzen scheint. KI wird eine wichtige Rolle bei der Information von Entscheidern spielen – am Ende müssen Menschen Zeit bekommen, auf ethischen und moralischen Grundlagen basierende Entscheidungen zu treffen. 

KI in Frühwarnsystemen kann ein Segen sein, darf aber nicht zum Fluch werden.

Reiner Schwalb ist ein Brigadegeneral der Bundeswehr außer Dienst. In seiner letzten Verwendung war er ab Dezember 2011 Verteidigungsattaché an der Deutschen Botschaft Moskau in Russland.

Diesen Beitrag Teilen:

2 Kommentare

  1. Kersten Lahl

    Die Weiterentwicklung und Nutzung der KI zu militärischen Zwecken ist ein extrem wichtiges Thema. Dies gilt natürlich nicht zuletzt im Bereich nuklearer Strategien. Ja, und auch das Feld der Frühwarnsysteme ist davon betroffen und kann fatale Entscheidungen auslösen. Die Rüstungskontrolle muss also dringend neue Ansätze finden.

    Dennoch hier eine kleine Relativierung, wenn auch keine Entwarnung: Solange es eine gesicherte Zweitschlagfähigkeit gibt, stellt sich das Problem KI-gestützter rascher Antworten (noch !) nicht in voller Schärfe. Denn wenn ein hinreichend großer Teil des eigenen Nuklearwaffenpotenzial als unverwundbar gilt (und das ist die Kernprämisse des sog. „nuklearen Gleichgewichts“), gibt es keine Notwendigkeit, auf einen gegnerischen Angriff unmittelbar zu reagieren. Die Abschreckung funktioniert ja deshalb, weil jeder Aggressor mit einem vernichtenden Gegenschlag rechnen müsste.

    Bedenklich wird KI vor allem erst dann, wenn sie einen erfolgreichen Angriff auf die gegnerische Antwortpotenziale irgendwann einmal so unterstützen könnte (etwas mittels autonomer Schwarmintelligenz), dass die gegnerische Unverwundbarkeit faktisch oder vermeintlich gefährdet ist. Das wäre eine neue Qualität, die das gesamte strategische Denken auf eine völlig veränderte Grundlage stellen würde.

    Antworten
  2. Rudolf Horsch

    Die KI ist sicher ein wichtiges Instrument bei der Beurteilung kritischer Ereignisse. Daneben braucht es auch weiterhin den Menschen mit seinem logischen Denkvermögen, dem gesunden Menschenverstand und realen Aufklärungsergebnissen. Es dürfte noch ein weiter Weg sein, bis Kriege nicht mehr auf dem Schlachtfeld sondern in Rechenzentren entschieden werden.

    Antworten

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere spannende Beiträge