Militärtechnik: Wer stoppt die tötenden Roboter?
„Killer-Roboter“: Wie sollen wir damit umgehen, wenn am Ende der Befehlskette kein Mensch, sondern ein Algorithmus sitzt?
Zu sehen ist sie nicht, doch Künstliche Intelligenz ist an vielen Stellen am Werk: In Fabriken organisieren Maschinen selbständig Produktionsprozesse, an den Börsen kaufen und verkaufen Computer im Hochfrequenzhandel selbständig Wertpapiere, Robo-Adviser nehmen Privatanlegern Investmententscheidungen aus der Hand, Website-Betreiber lassen Nachrichten von dafür trainierten Algorithmen zusammenstellen, Schul- und Seminararbeiten erledigt inzwischen ChatGPT mehr oder weniger zuverlässig. Da will das Militär natürlich nicht abseitsstehen.
Das Schlagwort von den „Killer-Robotern“ macht die Runde. Die sind bislang zwar weitgehend Science-Fiction. Das ist aber kein Grund, sich nicht heute Gedanken über deren künftige Regulierung zu machen – selbst Kriege haben völkerrechtlichen Grenzen. Zwar umfassen die Genfer Konvention und das humanitäre Völkerrecht im Prinzip auch den Einsatz autonomer Waffen. Deren Besonderheiten indes erfasst der Rechtsrahmen nur unvollkommen. Eine Auffrischung täte Not. Es sei bekannt, „dass heutige Armeen, vor allem der größeren Staaten, sehr, sehr viel in diese Künstliche Intelligenz, also Unterstützung von Waffensystemen investieren“, sagt die Präsidentin des Internationalen Komitees vom Roten Kreuz, Mirjana Spoljaric Egger. Wenn aber am Ende der Befehlskette kein Mensch, sondern ein Algorithmus sitze, der darüber entscheidet, andere Menschen zu töten, werfe das eine Reihe rechtlicher, ethischer und sicherheitstechnischer Fragen auf. Um nur drei zu nennen: Kann Künstliche Intelligenz im Krieg zuverlässig zwischen Kombattanten und Zivilisten entscheiden? Was ist, wenn Terroristen sich dieser Waffen bemächtigen? Und wer trägt am Ende die Verantwortung?
„Die Menschheit am Scheideweg“
Das sind nicht nur akademische Fragen. Mehr als 250 Nichtregierungsorganisationen, darunter Amnesty, Human Rights Watch oder Pax Christi, haben schon vor zehn Jahren dazu die gemeinnützige Dachorganisation mit dem programmatischen Namen „Stop Killer Robots“ gegründet. Sie verlangt, autonome Waffensysteme, die nicht im Einklang mit dem Völkerrecht eingesetzt werden könnten, ausdrücklich zu verbieten. Aber wie? Seit ungefähr einer Dekade beschäftigt das Thema die internationale Diplomatie, allerdings erfolglos im Rahmen der Genfer Konvention über die Beschränkung konventioneller Waffen. Im vergangenen Herbst unterstützten dann 164 Staaten eine von Österreich bei den Vereinten Nationen eingebrachte Resolution, in der große Besorgnis über die von autonomen Waffen ausgehenden Gefahren für die internationale Sicherheit und regionale Stabilität ausgedrückt wird. Folgerichtig fand nun in Wien eine internationale Tagung zur Regulierung autonomer Waffen statt mit dem Titel „Die Menschheit am Scheideweg“.
Dazu passte die auffordernde Feststellung des österreichischen Außenministers Alexander Schallenberg: „Das ist der Oppenheimer-Moment unserer Generation.“ Auch wer den oscarprämierten Film über den „Vater der Atombombe“ nicht gesehen hat, hat eine Vorstellung, was damit gemeint ist. Aber stimmt das Sprachbild überhaupt? Frank Sauer von der Hochschule der Bundeswehr in München hat Zweifel und sieht die Menschheit schon einen Schritt weiter: „Ich würde eher sagen, dass wir einen Hiroshima-Moment erleben.“ Über der japanischen Stadt Hiroshima war die von Oppenheimer entwickelte Atombombe im Jahr 1945 erstmals eingesetzt worden. Das beendete den Zweiten Weltkrieg, begründete den Atomwaffenwettlauf, führte in der Folge aber auch zu internationalen Verträgen, um die Atomkriegsgefahr einzudämmen.
Entscheidung auf dem Schlachtfeld
In aktuellen Kriegen ist tatsächlich immer wieder vom Einsatz Künstlicher Intelligenz die Rede. Doch die Belege für den Einsatz autonomer Waffen sind dürftig. Meist sind es etwa halbautomatische Systeme wie solche zur Luft- und Raketenabwehr, in denen ein Mensch das letzte Wort hat – noch. In der Ukraine beispielsweise hat der Krieg die militärischen Innovationen beschleunigt. So berichtete der lokale Drohnenhersteller Saker im Herbst, sein Quadcopter „Scout“ fliege völlig autonom Angriffe auf russische Streitkräfte. Da Russland zunehmend die Fernsteuerung ukrainischer Drohnen unterbreche, trainiere Kiew den Algorithmus nun so, dass die Drohne autonom ihr Ziel ansteuere, sagt der amerikanische Militäranalyst Franz-Stefan Gady. Auch Russland sieht er auf dem Feld der Datensammlung und Auswertung durch Künstliche Intelligenz aktiv. So rechnet Gady den jüngsten Durchbruch russischer Truppen während einer von den Ukrainern schlecht organisierten Truppenrochade dem erfolgreichen Einsatz Künstlicher Intelligenz zu.
Israel setzt nach unbestätigten Berichten eine KI-Maschine namens „Lavender“ ein, um in Gaza Personen anhand ihrer Kommunikations- und Social-Media-Daten aufzuklären. Das Ergebnis münde in Empfehlungen für Einsätze der israelischen Armee. Die amerikanischen Streitkräfte unterhalten nach Medienberichten Hunderte von Programmen zur Nutzung von KI und autonomen Waffen. Meist gehe es dabei um eine höhere Prozesseffizienz, die Analyse der Bedrohungslage und Entscheidungsfindung auf dem Schlachtfeld. Das Vorzeigeprojekt „Maven“ hat laut dem amerikanischen Central Command im aktuellen Konflikt am Roten Meer geholfen, feindliche Huthi-Stellungen für Gegenangriffe zu identifizieren.
Der Washingtoner Militäranalyst Gady mag die alarmistischen Warnrufe vor einem neuen Wettrüsten mit autonomen Waffensystemen nicht teilen, warnt seinerseits vor „Weltuntergangsszenarien“ und kann sich auch nicht vorstellen, dass Politiker einer KI den Zugriff auf das Atomarsenal gestatten würden. Er rät dazu, die Kategorien nicht durcheinander zu werfen, sondern genau zu bleiben: KI und autonome Waffen seien nicht gleichbedeutend. Es gehe auch nicht um bestimmte Waffensysteme, sondern darum, möglichst viele Daten vom Schlachtfeld mit Hilfe von KI zu verbinden, um den Kommandeuren die beste Einsatzoption aufzuzeigen.
Entscheidungsträger ohne Angst
Doch auch der Mensch am Ende der Entscheidungskette ist vor Fehlschlüssen nicht gefeit: Fan Yang, Jurist von der chinesischen Xiamen Universität, macht darauf aufmerksam, dass menschliche Befehlshaber und Bediener in Stresssituationen psychologisch dazu neigten, Vorschlägen einer Künstlichen Intelligenz „zu sehr zu vertrauen“ – womit sich der Mensch als mutmaßlicher Sicherheitsfaktor selbst ein Stück aus dem Spiel nehmen würde. Ähnlich argumentiert Neil Renic vom Zentrum für Militärstudien von der Universität Kopenhagen. Mit (semi-)autonomen Waffen operierende menschliche Akteure würden vermutlich ihr Urteilsvermögen immer stärker an die Autorität von Algorithmen abtreten, sie würden „entmenschlicht“. Sein Fazit: Autonome Waffen würden zwar die menschliche Beteiligung an einem Krieg nicht beenden. Sie würden allerdings „zusammen mit der militärischen KI die menschliche Beziehung zur Gewalt neu ordnen und verzerren“. Hinzu komme, dass „autonome Waffen wahrscheinlich Anreize für eine moralische Abwertung der Zielpersonen schaffen und die moralische Handlungsfähigkeit derjenigen untergraben, die töten“. Ob man den maschinengenerierten Daten überhaupt trauen dürfe, fragt wiederum Agnès Callamard, die Generalsekretärin von Amnesty International. Sie wird grundsätzlich. Die Bedeutung des Begriffs „Mensch“ verschiebe sich. „Maschinen reduzieren Menschen auf Datenpunkte, sie fällen statistische Urteile.“ Und es sei bekannt, dass diese fehleranfällig seien.
Hanke Bruins Slot, die Außenministerin der Niederlande, die den Einsatz autonomer Waffensysteme verbieten wollen, hatte das Dilemma im Februar in Genf ihrerseits so beschrieben: „Stellen Sie sich einen Krieg zwischen Entscheidungsträgern vor, die nicht in der Lage sind, Angst zu haben. Entscheider, die keine Abneigung gegen Verluste haben. Entscheidungsträger, denen menschliche Emotionen und Psychologie fremd sind. Stellen Sie sich nun vor, wie sie mit übermenschlicher Geschwindigkeit arbeiten.“
Nicht nur Amnesty-Generalsekretärin Callamard besteht deshalb darauf, dass während jedes Waffeneinsatzes am Ende ein Mensch die Kontrolle haben müsse. „Es müssen ausreichendes Verständnis und Kontrolle vorhanden sein, um vorherzusagen, wo und wie die Waffen eingesetzt werden, was ihr Ziel sein wird und wie sich der Waffeneinsatz auf seine Umgebung auswirkt.“ Dafür brauche man international verbindliche Regeln.
„Flickenteppich unterschiedlicher Regelungen“
Und nicht nur die. Die Staaten selbst müssten dafür sorgen, dass dieses internationale Recht – so es einmal geschaffen sein sollte – in ihrem Verantwortungsbereich auch angewandt werde, sagt Juraprofessor Harold Hongju Koh von der Yale-Universität. Es gelte sicherzustellen, dass die Beteiligten ihre Handlungen angemessen beurteilen könnten. Daran schließe sich die Frage an, wer für Fehlverhalten zur Rechenschaft gezogen wird. Hier bestehe die Gefahr, dass die Entscheider sich aus der Verantwortung stehlen und diese der vermeintlich rationeller entscheidenden KI zuschieben.
Auch die Industrie müsse eingebunden werden, verlangt Beyza Unal vom Büro der Vereinten Nationen für Abrüstungsfragen. KI-Produkte müssten von Anfang an sicher sein. Die Rüstungsindustrie und der Technologiesektor müssten transparenter in der Bewertung von Schäden werden, unbeabsichtigte Folgen melden und mehr darüber berichten, wie zuverlässig ihre Trainingsdaten wirklich sind.
Ideen für einen passenden Rechtsrahmen gibt es reichlich. Allerdings sind die meisten bisher gescheitert. „Wir schaffen es nicht, von der Debatte in Richtung Verhandlungen zu kommen“, sagt ein beteiligter Diplomat ernüchtert. Und das, obwohl alle wüssten: „Es kommt etwas Großes auf uns zu.“ Dabei habe die internationale Gemeinschaft schon bewiesen, dass sie auf dem Gebiet der Rüstungskontrolle handlungsfähig sei, siehe das Verbot von Personenminen, die Ächtung chemischer und biologischer Waffen oder eben die Atomwaffenkontrolle.
Die mexikanische Verfassungsjuristin Jimena Viveros, die auf UN-Ebene einem KI-Beratergremium angehört, beklagt einen „Flickenteppich unterschiedlicher Regelungen“. Sauer von der Bundeswehrhochschule in München will bei allem Pessimismus Mut machen. Es sei nicht so schlimm und kompliziert, wie manche Leute dies darstellten: „Wir wissen, wovon wir reden, und wir wissen, was wir dagegen tun sollten. Alles, was wir tun müssen, ist, es zu tun.“
Regeln für Drohnen
Skeptischer ist Paul Scharre vom „Center for a New American Security“, der mehrere Bücher zum Thema geschrieben hat. „Autonome Waffen werden kommen. Versuche, sie zu verbieten, sind gut gemeint, aber wahrscheinlich vergeblich“, schrieb er neulich in einem langen Aufsatz für das Fachblatt „Foreign Affairs“ über das „gefährliche, kommende Zeitalter der KI-Kriegsführung“. Dort listete er auch fünf Handlungsvorschläge für die Generalversammlung der Vereinten Nationen auf, „bevor es zu spät ist“. Erstens: Eine Mindestbeteiligung von Menschen am Einsatz autonomer Waffen. Zweitens: Das Verbot autonomer Waffen, die auf Menschen zielen, weil Kombattanten und Zivilisten oft nicht oder nur schwer auseinander zu halten seien. Drittens: Veröffentlichung von Verfahren zur Erprobung und Vermeidung von Unfällen mit KI-gesteuerten Waffen. Viertens: Ein Abkommen, das die menschliche Kontrolle über Atomwaffen gewährleistet. Fünftens: Verkehrsregeln für die Nutzung von Drohnen.
Doch es bleibt fraglich, ob die Staaten selbst zu so einer abgespeckten Lösung bereit und in der Lage sind. Die von Österreich im Herbst angestrengte unverbindliche Resolution erntete zwar 164 Ja-Stimmen. Es gab aber auch acht Enthaltungen – aus China, Iran, Israel, Saudi-Arabien, Syrien, dem Kongo, den Vereinten Arabischen Emirate und nicht zuletzt der waffen- und drohnentechnisch aufstrebenden Mittelmacht Türkei. Gegenstimmen gab es auch. Die kamen aus Indien, Belarus, Mali, Niger und Russland, jenem Land, das nach Worten von Diplomaten den Verhandlungsprozess am stärksten sabotiert.
Russland war auch zu der Wiener Konferenz geladen und hielt dort als Beispiel dafür her, dass gerade der Mensch als Letztverantwortlicher auch kein Garant für humane Entscheidungen im Krieg sei. So fragte der Yale-Juris Koh: „Kann sich irgendjemand mehr Unmenschlichkeit vorstellen, als Wladimir Putin in den letzten beiden Jahren verantwortet hat?“