Militärtechnik: Wer stoppt die tötenden Roboter?

militärtechnik: wer stoppt die tötenden roboter?

„Killer-Roboter“: Wie sollen wir damit umgehen, wenn am Ende der Befehlskette kein Mensch, sondern ein Algorithmus sitzt?

Zu sehen ist sie nicht, doch Künstliche Intelligenz ist an vielen Stellen am Werk: In Fabriken organisieren Maschinen selbständig Produktionsprozesse, an den Börsen kaufen und verkaufen Computer im Hochfrequenzhandel selbständig Wertpapiere, Robo-Adviser nehmen Privatanlegern Investmententscheidungen aus der Hand, Website-Betreiber lassen Nachrichten von dafür trainierten Algorithmen zusammenstellen, Schul- und Seminararbeiten erledigt inzwischen ChatGPT mehr oder weniger zuverlässig. Da will das Militär natürlich nicht abseitsstehen.

Das Schlagwort von den „Killer-Robotern“ macht die Runde. Die sind bislang zwar weitgehend Science-Fiction. Das ist aber kein Grund, sich nicht heute Gedanken über deren künftige Regulierung zu machen – selbst Kriege haben völkerrechtlichen Grenzen. Zwar umfassen die Genfer Konvention und das humanitäre Völkerrecht im Prinzip auch den Einsatz autonomer Waffen. Deren Besonderheiten indes erfasst der Rechtsrahmen nur unvollkommen. Eine Auffrischung täte Not. Es sei bekannt, „dass heutige Armeen, vor allem der größeren Staaten, sehr, sehr viel in diese Künstliche Intelligenz, also Unterstützung von Waffensystemen investieren“, sagt die Präsidentin des Internationalen Komitees vom Roten Kreuz, Mirjana Spoljaric Egger. Wenn aber am Ende der Befehlskette kein Mensch, sondern ein Algorithmus sitze, der darüber entscheidet, andere Menschen zu töten, werfe das eine Reihe rechtlicher, ethischer und sicherheitstechnischer Fragen auf. Um nur drei zu nennen: Kann Künstliche Intelligenz im Krieg zuverlässig zwischen Kombattanten und Zivilisten entscheiden? Was ist, wenn Terroristen sich dieser Waffen bemächtigen? Und wer trägt am Ende die Verantwortung?

„Die Menschheit am Scheideweg“

Das sind nicht nur akademische Fragen. Mehr als 250 Nichtregierungsorganisationen, darunter Amnesty, Human Rights Watch oder Pax Christi, haben schon vor zehn Jahren dazu die gemeinnützige Dachorganisation mit dem programmatischen Namen „Stop Killer Robots“ gegründet. Sie verlangt, autonome Waffensysteme, die nicht im Einklang mit dem Völkerrecht eingesetzt werden könnten, ausdrücklich zu verbieten. Aber wie? Seit ungefähr einer Dekade beschäftigt das Thema die internationale Diplomatie, allerdings erfolglos im Rahmen der Genfer Konvention über die Beschränkung konventioneller Waffen. Im vergangenen Herbst unterstützten dann 164 Staaten eine von Österreich bei den Vereinten Nationen eingebrachte Resolution, in der große Besorgnis über die von autonomen Waffen ausgehenden Gefahren für die internationale Sicherheit und regionale Stabilität ausgedrückt wird. Folgerichtig fand nun in Wien eine internationale Tagung zur Regulierung autonomer Waffen statt mit dem Titel „Die Menschheit am Scheideweg“.

Dazu passte die auffordernde Feststellung des österreichischen Außenministers Alexander Schallenberg: „Das ist der Oppenheimer-Moment unserer Generation.“ Auch wer den oscarprämierten Film über den „Vater der Atombombe“ nicht gesehen hat, hat eine Vorstellung, was damit gemeint ist. Aber stimmt das Sprachbild überhaupt? Frank Sauer von der Hochschule der Bundeswehr in München hat Zweifel und sieht die Menschheit schon einen Schritt weiter: „Ich würde eher sagen, dass wir einen Hiroshima-Moment erleben.“ Über der japanischen Stadt Hiroshima war die von Oppenheimer entwickelte Atombombe im Jahr 1945 erstmals eingesetzt worden. Das beendete den Zweiten Weltkrieg, begründete den Atomwaffenwettlauf, führte in der Folge aber auch zu internationalen Verträgen, um die Atomkriegsgefahr einzudämmen.

Entscheidung auf dem Schlachtfeld

In aktuellen Kriegen ist tatsächlich immer wieder vom Einsatz Künstlicher Intelligenz die Rede. Doch die Belege für den Einsatz autonomer Waffen sind dürftig. Meist sind es etwa halbautomatische Systeme wie solche zur Luft- und Raketenabwehr, in denen ein Mensch das letzte Wort hat – noch. In der Ukraine beispielsweise hat der Krieg die militärischen Innovationen beschleunigt. So berichtete der lokale Drohnenhersteller Saker im Herbst, sein Quadcopter „Scout“ fliege völlig autonom Angriffe auf russische Streitkräfte. Da Russland zunehmend die Fernsteuerung ukrainischer Drohnen unterbreche, trainiere Kiew den Algorithmus nun so, dass die Drohne autonom ihr Ziel ansteuere, sagt der amerikanische Militäranalyst Franz-Stefan Gady. Auch Russland sieht er auf dem Feld der Datensammlung und Auswertung durch Künstliche Intelligenz aktiv. So rechnet Gady den jüngsten Durchbruch russischer Truppen während einer von den Ukrainern schlecht organisierten Truppenrochade dem erfolgreichen Einsatz Künstlicher Intelligenz zu.

Israel setzt nach unbestätigten Berichten eine KI-Maschine namens „Lavender“ ein, um in Gaza Personen anhand ihrer Kommunikations- und Social-Media-Daten aufzuklären. Das Ergebnis münde in Empfehlungen für Einsätze der israelischen Armee. Die amerikanischen Streitkräfte unterhalten nach Medienberichten Hunderte von Programmen zur Nutzung von KI und autonomen Waffen. Meist gehe es dabei um eine höhere Prozesseffizienz, die Analyse der Bedrohungslage und Entscheidungsfindung auf dem Schlachtfeld. Das Vorzeigeprojekt „Maven“ hat laut dem amerikanischen Central Command im aktuellen Konflikt am Roten Meer geholfen, feindliche Huthi-Stellungen für Gegenangriffe zu identifizieren.

Der Washingtoner Militäranalyst Gady mag die alarmistischen Warnrufe vor einem neuen Wettrüsten mit autonomen Waffensystemen nicht teilen, warnt seinerseits vor „Weltuntergangsszenarien“ und kann sich auch nicht vorstellen, dass Politiker einer KI den Zugriff auf das Atomarsenal gestatten würden. Er rät dazu, die Kategorien nicht durcheinander zu werfen, sondern genau zu bleiben: KI und autonome Waffen seien nicht gleichbedeutend. Es gehe auch nicht um bestimmte Waffensysteme, sondern darum, möglichst viele Daten vom Schlachtfeld mit Hilfe von KI zu verbinden, um den Kommandeuren die beste Einsatzoption aufzuzeigen.

Entscheidungsträger ohne Angst

Doch auch der Mensch am Ende der Entscheidungskette ist vor Fehlschlüssen nicht gefeit: Fan Yang, Jurist von der chinesischen Xiamen Universität, macht darauf aufmerksam, dass menschliche Befehlshaber und Bediener in Stresssituationen psychologisch dazu neigten, Vorschlägen einer Künstlichen Intelligenz „zu sehr zu vertrauen“ – womit sich der Mensch als mutmaßlicher Sicherheitsfaktor selbst ein Stück aus dem Spiel nehmen würde. Ähnlich argumentiert Neil Renic vom Zentrum für Militärstudien von der Universität Kopenhagen. Mit (semi-)autonomen Waffen operierende menschliche Akteure würden vermutlich ihr Urteilsvermögen immer stärker an die Autorität von Algorithmen abtreten, sie würden „entmenschlicht“. Sein Fazit: Autonome Waffen würden zwar die menschliche Beteiligung an einem Krieg nicht beenden. Sie würden allerdings „zusammen mit der militärischen KI die menschliche Beziehung zur Gewalt neu ordnen und verzerren“. Hinzu komme, dass „autonome Waffen wahrscheinlich Anreize für eine moralische Abwertung der Zielpersonen schaffen und die moralische Handlungsfähigkeit derjenigen untergraben, die töten“. Ob man den maschinengenerierten Daten überhaupt trauen dürfe, fragt wiederum Agnès Callamard, die Generalsekretärin von Amnesty International. Sie wird grundsätzlich. Die Bedeutung des Begriffs „Mensch“ verschiebe sich. „Maschinen reduzieren Menschen auf Datenpunkte, sie fällen statistische Urteile.“ Und es sei bekannt, dass diese fehleranfällig seien.

Hanke Bruins Slot, die Außenministerin der Niederlande, die den Einsatz autonomer Waffensysteme verbieten wollen, hatte das Dilemma im Februar in Genf ihrerseits so beschrieben: „Stellen Sie sich einen Krieg zwischen Entscheidungsträgern vor, die nicht in der Lage sind, Angst zu haben. Entscheider, die keine Abneigung gegen Verluste haben. Entscheidungsträger, denen menschliche Emotionen und Psychologie fremd sind. Stellen Sie sich nun vor, wie sie mit übermenschlicher Geschwindigkeit arbeiten.“

Nicht nur Amnesty-Generalsekretärin Callamard besteht deshalb darauf, dass während jedes Waffeneinsatzes am Ende ein Mensch die Kontrolle haben müsse. „Es müssen ausreichendes Verständnis und Kontrolle vorhanden sein, um vorherzusagen, wo und wie die Waffen eingesetzt werden, was ihr Ziel sein wird und wie sich der Waffeneinsatz auf seine Umgebung auswirkt.“ Dafür brauche man international verbindliche Regeln.

„Flickenteppich unterschiedlicher Regelungen“

Und nicht nur die. Die Staaten selbst müssten dafür sorgen, dass dieses internationale Recht – so es einmal geschaffen sein sollte – in ihrem Verantwortungsbereich auch angewandt werde, sagt Juraprofessor Harold Hongju Koh von der Yale-Universität. Es gelte sicherzustellen, dass die Beteiligten ihre Handlungen angemessen beurteilen könnten. Daran schließe sich die Frage an, wer für Fehlverhalten zur Rechenschaft gezogen wird. Hier bestehe die Gefahr, dass die Entscheider sich aus der Verantwortung stehlen und diese der vermeintlich rationeller entscheidenden KI zuschieben.

Auch die Industrie müsse eingebunden werden, verlangt Beyza Unal vom Büro der Vereinten Nationen für Abrüstungsfragen. KI-Produkte müssten von Anfang an sicher sein. Die Rüstungsindustrie und der Technologiesektor müssten transparenter in der Bewertung von Schäden werden, unbeabsichtigte Folgen melden und mehr darüber berichten, wie zuverlässig ihre Trainingsdaten wirklich sind.

Ideen für einen passenden Rechtsrahmen gibt es reichlich. Allerdings sind die meisten bisher gescheitert. „Wir schaffen es nicht, von der Debatte in Richtung Verhandlungen zu kommen“, sagt ein beteiligter Diplomat ernüchtert. Und das, obwohl alle wüssten: „Es kommt etwas Großes auf uns zu.“ Dabei habe die inter­nationale Gemeinschaft schon bewiesen, dass sie auf dem Gebiet der Rüstungskontrolle handlungsfähig sei, siehe das Verbot von Personenminen, die Ächtung chemischer und biologischer Waffen oder eben die Atomwaffenkontrolle.

Die mexikanische Verfassungsjuristin Jimena Viveros, die auf UN-Ebene einem KI-Beratergremium angehört, beklagt einen „Flickenteppich unterschiedlicher Regelungen“. Sauer von der Bundeswehrhochschule in München will bei allem Pessimismus Mut machen. Es sei nicht so schlimm und kompliziert, wie manche Leute dies darstellten: „Wir wissen, wovon wir reden, und wir wissen, was wir dagegen tun sollten. Alles, was wir tun müssen, ist, es zu tun.“

Regeln für Drohnen

Skeptischer ist Paul Scharre vom „Center for a New American Security“, der mehrere Bücher zum Thema geschrieben hat. „Autonome Waffen werden kommen. Versuche, sie zu verbieten, sind gut gemeint, aber wahrscheinlich vergeblich“, schrieb er neulich in einem langen Aufsatz für das Fachblatt „Foreign Affairs“ über das „gefährliche, kommende Zeitalter der KI-Kriegsführung“. Dort listete er auch fünf Handlungsvorschläge für die Generalversammlung der Vereinten Nationen auf, „bevor es zu spät ist“. Erstens: Eine Mindestbeteiligung von Menschen am Einsatz autonomer Waffen. Zweitens: Das Verbot autonomer Waffen, die auf Menschen zielen, weil Kombattanten und Zivilisten oft nicht oder nur schwer auseinander zu halten seien. Drittens: Veröffentlichung von Verfahren zur Erprobung und Vermeidung von Unfällen mit KI-gesteuerten Waffen. Viertens: Ein Abkommen, das die menschliche Kontrolle über Atomwaffen gewährleistet. Fünftens: Verkehrsregeln für die Nutzung von Drohnen.

Doch es bleibt fraglich, ob die Staaten selbst zu so einer abgespeckten Lösung bereit und in der Lage sind. Die von Österreich im Herbst angestrengte unverbindliche Resolution erntete zwar 164 Ja-Stimmen. Es gab aber auch acht Enthaltungen – aus China, Iran, Israel, Saudi-Arabien, Syrien, dem Kongo, den Vereinten Arabischen Emirate und nicht zuletzt der waffen- und drohnentechnisch aufstrebenden Mittelmacht Türkei. Gegenstimmen gab es auch. Die kamen aus Indien, Belarus, Mali, Niger und Russland, jenem Land, das nach Worten von Diplomaten den Verhandlungsprozess am stärksten sabotiert.

Russland war auch zu der Wiener Konferenz geladen und hielt dort als Beispiel dafür her, dass gerade der Mensch als Letztverantwortlicher auch kein Garant für humane Entscheidungen im Krieg sei. So fragte der Yale-Juris Koh: „Kann sich irgendjemand mehr Unmenschlichkeit vorstellen, als Wladimir Putin in den letzten beiden Jahren verantwortet hat?“

OTHER NEWS

23 minutes ago

Beaver Baseball: Bittersweet Series Win

23 minutes ago

US troops will complete their withdrawal from Niger by mid-September, the Pentagon says

23 minutes ago

Mikel Arteta determined to 'push the limits' after Premier League loss

23 minutes ago

Springer slides down, then steps up as Manoah tosses gem in win vs. Rays

23 minutes ago

Euro 2024: The oldest players ever to play at the Euros

23 minutes ago

The trans Mexican drug lord musical compared to both ‘Sicario’ and ‘Mrs. Doubtfire’ lights up Cannes

25 minutes ago

So what next? – Pep Guardiola questions long-term future after title success

25 minutes ago

When will the Northern Lights be visible again? Space forecasters have their say

25 minutes ago

Scott Lindsey explains how grief fuelled Crawley Town’s League Two play-off triumph

29 minutes ago

IF starring Ryan Reynolds lands at the top of a lackluster box office with less-than-expected $35M in ticket sales

29 minutes ago

Foreign students could be barred from taking 'low quality' postgraduate courses in Britain under new plans to cut 'graduate route' immigration

29 minutes ago

Adorable Premier League moment when Phil Foden's lad Ronnie, 5, struggles to pop open a champagne bottle to join in the fun after his dad's team Man City wins

29 minutes ago

Comedy is being 'policed by the Left' with 'sensitivities that seem out of proportion to the joke', says Office co-writer Stephen Merchant

29 minutes ago

ANDREW PIERCE: The Labour Party's empty benches... and empty promises

29 minutes ago

Biden mocked for apparent small showing of supporters in Dem city: ‘Nobody cared’

30 minutes ago

6 people killed, 10 others injured in Idaho when pickup crashes into passenger van

30 minutes ago

Donald Trump Floats Hannibal Lector As Possible VP Pick In Searing 'SNL' Open

30 minutes ago

Xander Schauffele pronunciation: A guide to saying golfer's full name and family origin

30 minutes ago

President of Iran feared dead during helicopter crash

30 minutes ago

Naomi Campbell's Teal Satin Gown Steals the Show in Cannes

30 minutes ago

Trump ‘does not like to surround himself with yes people,’ says Ben Carson

30 minutes ago

Parroting Trump, GOP Rep. Donalds Baselessly Accuses Biden of Using ‘Injections' to ‘Look Coherent'

30 minutes ago

Kody or Roger? Give me Kody: Phillies 11 Nationals 5

30 minutes ago

ChatGPT, Meta AI, Gemini: Which free-to-use chatbot is the best?

30 minutes ago

Ever looked yourself up on a chatbot? Meta AI accused me of a workplace scandal

31 minutes ago

Experiments on children using infected blood likened to actions of Nazi doctors

31 minutes ago

Rinus VeeKay overcomes early crash with final flourish to make Indianapolis 500 pole shootout

31 minutes ago

Songoliath felled by Lupus in Japanese club rugby

31 minutes ago

Adams left out once again as Bournemouth wraps Premier League season

31 minutes ago

Airstrike kills 27 in central Gaza and fighting rages as Israel's leaders are increasingly divided

32 minutes ago

Jurgen Klopp’s Liverpool goodbye message in full: ‘I am one of you now. I will never walk alone again'

32 minutes ago

4-star recruit Dakorien Moore decommits from LSU

32 minutes ago

Max Verstappen Maintains Control with F1 Victory at Imola and Virtual Nurburgring 24 Hours

32 minutes ago

Soccer-No smiles for Postecoglou until Spurs achieve his 'lofty ambitions'

32 minutes ago

Dockers set to welcome back Sean Darcy for Pies test

35 minutes ago

'White Witch of Rye' barrister, 42, faces jail for harassing 'wizard', 82, after she 'took control of his bank account and what he ate, drank and wore'

35 minutes ago

East Lismore, NSW: Father and his two-year-old son are found dead in a home during welfare check

35 minutes ago

Quadruple amputee Kentucky nurse Cindy Mullins shows off her new 'prototype arm' and 'pink sparkly legs' in health update

36 minutes ago

Xavi offers fresh update on his future after Barca beat Rayo

37 minutes ago

Wall Street ends mixed, indexes notch up weekly gains

Kênh khám phá trải nghiệm của giới trẻ, thế giới du lịch