Welt

Kein Verbot von autonomen Waffen in Sicht

In Zukunft könnten Killerroboter Kriege entscheiden. Ein UN-Gremium in Genf will ihren Einsatz regeln. Doch wegen des Ukraine-Kriegs stehen die Verhandlungen vor dem Aus.

Diese Drohne liefert keine Pizza aus, sie hat Sprengstoff geladen. An Bord sind eine Kamera und Sensoren, vier Rotorblätter treiben sie an. Es ist eine sogenannte Kamikaze-Drohne, die ihr Ziel eigenständig lokalisieren und sich darauf stürzen kann. Algorithmen machen es möglich. Bei ihrem Angriff zerstört die Drohne sich selbst, zurück bleibt ein kleiner Haufen Elektroschrott. 

Zu sehen ist die Kamikaze-Drohne nicht etwa in einem Science-Fiction-Film, sondern im Werbevideo des Herstellers. Es sind solche Waffen, über deren Verbot etwa 80 Staaten ab diesem Montag (25.07.) erneut verhandeln – bei den Vereinten Nationen in Genf.

Diese Drohne liefert keine Pizza aus, sie hat Sprengstoff geladen. An Bord sind eine Kamera und Sensoren, vier Rotorblätter treiben sie an. Es ist eine sogenannte Kamikaze-Drohne, die ihr Ziel eigenständig lokalisieren und sich darauf stürzen kann. Algorithmen machen es möglich. Bei ihrem Angriff zerstört die Drohne sich selbst, zurück bleibt ein kleiner Haufen Elektroschrott. 

Per Definition geht es um Waffen, die ihr Ziel selbständig suchen, auswählen und bekämpfen können. Im Unterschied zu ferngesteuerten Waffen bewältigen sie die letzte Phase des Angriffs eigenständig. Rüstungsfirmen nutzen dafür die neuesten Erkenntnisse aus dem Bereich der Künstlichen Intelligenz (KI) und des Maschinenlernens. Kritiker nennen solche Waffen Killerroboter, im Konferenzsaal in Genf ist von “Letalen (tödlichen) Autonomen Waffensystemen” die Rede. Das können zum Beispiel Drohnen, Roboterfahrzeuge oder U-Boote sein.

Maschinen, die Menschen töten 

Der Umgang mit diesen Waffen ist umstritten: Einige Länder fordern ein Verbot, weil ein Algorithmus niemals über Leben und Tod entscheiden dürfe. Andere schlagen Regeln für ihren Einsatz vor, die mehr oder weniger verbindlich sein sollen. Eine Kernforderung dabei ist, dass jederzeit ein Mensch ein bestimmtes Maß an Kontrolle über diese Waffensysteme behalten müsse.

Schon seit 2014 trifft sich die Staatengemeinschaft zweimal im Jahr in Genf, um über das brisante Thema zu debattieren. Die Positionen liegen dabei weit auseinander. Vor allem die USA, Russland und das militärisch aufstrebende China wehren sich gegen ein Verbot oder verbindliche Regeln, von denen sie einen militärisch-strategischen Nachteil befürchten.

Der russische Angriffskrieg gegen die Ukraine hat die Verhandlungen noch einmal erschwert: Russland blockierte die letzte Sitzung im vergangenen März, indem es die Tagesordnung nicht annahm. “Den Russen missfiel es, dass ihnen Sanktionen auferlegt worden waren. Deswegen haben sie verhindert, dass die Verhandlungen überhaupt beginnen konnten”, sagt Ousman Noor. Er verfolgt die Gespräche für die “Campaign to Stop Killer Robots”, eine NGO, die sich für ein Verbot dieser Waffen einsetzt. Das in Genf geltende Konsensprinzip hält Noor für eine der größten Hürden: “Ein Land kann mit seinem Veto den gesamten Prozess stoppen.” Für die Befürworter eines Verbots sei es daher höchste Zeit, das ineffiziente Forum in Genf zu verlassen – das habe ausgedient.

“Die Gespräche in Genf sind gescheitert”, meint auch Vanessa Vohs, die an der Universität der Bundeswehr in München zu autonomen Waffen forscht. Dabei seien noch viele Fragen offen: “Wenn autonome Waffensysteme Fehler machen und möglicherweise Kriegsverbrechen begehen, wer ist dann dafür verantwortlich?” fragt die Wissenschaftlerin. “Die sogenannte Verantwortungslücke ist ein großes Problem.”

Es spricht wenig dafür, dass solche drängenden Fragen in Genf noch gelöst werden. Zumal die Vorzeichen sich durch den Krieg in der Ukraine geändert haben: Die einen halten ein Verbot von tödlichen autonomen Waffen für dringender denn je, die anderen für aussichtsloser.

“Es gibt Hinweise, dass Russland autonome Waffensysteme in diesem Konflikt nutzt”, erklärt Ousman Noor von der “Campaign to Stop Killer Robots”. Darunter sollen Kamikaze-Drohnen sein. Ihr Einsatz in einem Krieg “könnte zu der Erkenntnis führen, dass wir diese Waffen dringend regulieren müssen, bevor sie in alle Welt verkauft werden”.

KI-Experten warnen schon länger: Gerade kleine bewaffnete Drohnen lassen sich in großer Stückzahl günstig herstellen – und einige begabte Informatik-Studenten reichten aus, um sie zu programmieren. “Wenn man keine Menschen mehr braucht, um diese Waffen zu bedienen, kann man Zehntausende oder sogar Millionen davon losschicken”, warnt der britische KI-Forscher Stuart Russell im Gespräch mit der DW. “Damit schaffen wir Waffen, die potenziell tödlicher sind als eine Atombombe.” 

Gibt es also eine neue Dynamik, Killerroboter zu verbieten? Im Moment ist eher der gegenteilige Effekt ist zu beobachten: Gerade wegen des Kriegs in der Ukraine investieren Staaten mehr Geld ins Militär, bevorzugt in moderne Waffen. Deutschland steckt zusätzliche 100 Milliarden Euro in die Bundeswehr. Auch in Systeme, die, wie das Kampfflugzeug der Zukunft (FCAS), mit künstlicher Intelligenz arbeiten. Es soll von Drohnenschwärmen begleitet werden.

Bei den Verhandlungen in Genf habe Deutschland sich zuletzt eher zögerlich und abwartend verhalten, berichten Beobachter. Auf die militärischen Vorteile, die autonome Waffen mit sich bringen könnten, scheint die Bundesregierung nicht verzichten zu wollen. Ein Dokument, in dem sie ihre eigene Position zu dem Thema festgelegt hat, existiert nicht. Damit ist Deutschland zumindest in Genf nicht allein: Eine Ächtung tödlicher autonomer Waffen oder wenigstens verbindliche Regeln für ihren Einsatz erwartet niemand mehr von diesem Gremium.

Gesucht wird nun nach einer Alternative – bevorzugt nach einem Staat, der sich an die Spitze der Bewegung setzt und andere Staaten zu Vertragsverhandlungen einlädt. Als ein möglicher Kandidat gelten die Niederlande. Die Zeit drängt – mit dem technologischen Fortschritt stiegen auch die Risiken, warnen Experten wie Vanessa Vohs. “Deshalb brauchen wir neue Regeln, bevor wir auf ein apokalyptisches Szenario zusteuern, in dem wirklich etwas schiefgeht.”

Militärroboter | Kampfroboter
Schweiz | UN Vereinten Nationen in Genf
Autonome Waffen | türkische Kargu

Diese Drohne liefert keine Pizza aus, sie hat Sprengstoff geladen. An Bord sind eine Kamera und Sensoren, vier Rotorblätter treiben sie an. Es ist eine sogenannte Kamikaze-Drohne, die ihr Ziel eigenständig lokalisieren und sich darauf stürzen kann. Algorithmen machen es möglich. Bei ihrem Angriff zerstört die Drohne sich selbst, zurück bleibt ein kleiner Haufen Elektroschrott. 

Zu sehen ist die Kamikaze-Drohne nicht etwa in einem Science-Fiction-Film, sondern im Werbevideo des Herstellers. Es sind solche Waffen, über deren Verbot etwa 80 Staaten ab diesem Montag (25.07.) erneut verhandeln – bei den Vereinten Nationen in Genf.

Maschinen, die Menschen töten 

Per Definition geht es um Waffen, die ihr Ziel selbständig suchen, auswählen und bekämpfen können. Im Unterschied zu ferngesteuerten Waffen bewältigen sie die letzte Phase des Angriffs eigenständig. Rüstungsfirmen nutzen dafür die neuesten Erkenntnisse aus dem Bereich der Künstlichen Intelligenz (KI) und des Maschinenlernens. Kritiker nennen solche Waffen Killerroboter, im Konferenzsaal in Genf ist von “Letalen (tödlichen) Autonomen Waffensystemen” die Rede. Das können zum Beispiel Drohnen, Roboterfahrzeuge oder U-Boote sein.

Der Umgang mit diesen Waffen ist umstritten: Einige Länder fordern ein Verbot, weil ein Algorithmus niemals über Leben und Tod entscheiden dürfe. Andere schlagen Regeln für ihren Einsatz vor, die mehr oder weniger verbindlich sein sollen. Eine Kernforderung dabei ist, dass jederzeit ein Mensch ein bestimmtes Maß an Kontrolle über diese Waffensysteme behalten müsse.

Schon seit 2014 trifft sich die Staatengemeinschaft zweimal im Jahr in Genf, um über das brisante Thema zu debattieren. Die Positionen liegen dabei weit auseinander. Vor allem die USA, Russland und das militärisch aufstrebende China wehren sich gegen ein Verbot oder verbindliche Regeln, von denen sie einen militärisch-strategischen Nachteil befürchten.

Der russische Angriffskrieg gegen die Ukraine hat die Verhandlungen noch einmal erschwert: Russland blockierte die letzte Sitzung im vergangenen März, indem es die Tagesordnung nicht annahm. “Den Russen missfiel es, dass ihnen Sanktionen auferlegt worden waren. Deswegen haben sie verhindert, dass die Verhandlungen überhaupt beginnen konnten”, sagt Ousman Noor. Er verfolgt die Gespräche für die “Campaign to Stop Killer Robots”, eine NGO, die sich für ein Verbot dieser Waffen einsetzt. Das in Genf geltende Konsensprinzip hält Noor für eine der größten Hürden: “Ein Land kann mit seinem Veto den gesamten Prozess stoppen.” Für die Befürworter eines Verbots sei es daher höchste Zeit, das ineffiziente Forum in Genf zu verlassen – das habe ausgedient.

Das Veto Russlands 

“Die Gespräche in Genf sind gescheitert”, meint auch Vanessa Vohs, die an der Universität der Bundeswehr in München zu autonomen Waffen forscht. Dabei seien noch viele Fragen offen: “Wenn autonome Waffensysteme Fehler machen und möglicherweise Kriegsverbrechen begehen, wer ist dann dafür verantwortlich?” fragt die Wissenschaftlerin. “Die sogenannte Verantwortungslücke ist ein großes Problem.”

Kriegsverbrechen durch autonome Waffen

Es spricht wenig dafür, dass solche drängenden Fragen in Genf noch gelöst werden. Zumal die Vorzeichen sich durch den Krieg in der Ukraine geändert haben: Die einen halten ein Verbot von tödlichen autonomen Waffen für dringender denn je, die anderen für aussichtsloser.

“Es gibt Hinweise, dass Russland autonome Waffensysteme in diesem Konflikt nutzt”, erklärt Ousman Noor von der “Campaign to Stop Killer Robots”. Darunter sollen Kamikaze-Drohnen sein. Ihr Einsatz in einem Krieg “könnte zu der Erkenntnis führen, dass wir diese Waffen dringend regulieren müssen, bevor sie in alle Welt verkauft werden”.

KI-Experten warnen schon länger: Gerade kleine bewaffnete Drohnen lassen sich in großer Stückzahl günstig herstellen – und einige begabte Informatik-Studenten reichten aus, um sie zu programmieren. “Wenn man keine Menschen mehr braucht, um diese Waffen zu bedienen, kann man Zehntausende oder sogar Millionen davon losschicken”, warnt der britische KI-Forscher Stuart Russell im Gespräch mit der DW. “Damit schaffen wir Waffen, die potenziell tödlicher sind als eine Atombombe.” 

“Tödlicher als eine Atombombe”

Gibt es also eine neue Dynamik, Killerroboter zu verbieten? Im Moment ist eher der gegenteilige Effekt ist zu beobachten: Gerade wegen des Kriegs in der Ukraine investieren Staaten mehr Geld ins Militär, bevorzugt in moderne Waffen. Deutschland steckt zusätzliche 100 Milliarden Euro in die Bundeswehr. Auch in Systeme, die, wie das Kampfflugzeug der Zukunft (FCAS), mit künstlicher Intelligenz arbeiten. Es soll von Drohnenschwärmen begleitet werden.

Bei den Verhandlungen in Genf habe Deutschland sich zuletzt eher zögerlich und abwartend verhalten, berichten Beobachter. Auf die militärischen Vorteile, die autonome Waffen mit sich bringen könnten, scheint die Bundesregierung nicht verzichten zu wollen. Ein Dokument, in dem sie ihre eigene Position zu dem Thema festgelegt hat, existiert nicht. Damit ist Deutschland zumindest in Genf nicht allein: Eine Ächtung tödlicher autonomer Waffen oder wenigstens verbindliche Regeln für ihren Einsatz erwartet niemand mehr von diesem Gremium.

Mehr Geld fürs Militär

Gesucht wird nun nach einer Alternative – bevorzugt nach einem Staat, der sich an die Spitze der Bewegung setzt und andere Staaten zu Vertragsverhandlungen einlädt. Als ein möglicher Kandidat gelten die Niederlande. Die Zeit drängt – mit dem technologischen Fortschritt stiegen auch die Risiken, warnen Experten wie Vanessa Vohs. “Deshalb brauchen wir neue Regeln, bevor wir auf ein apokalyptisches Szenario zusteuern, in dem wirklich etwas schiefgeht.”

Airbus Grafik zum FCAS

Nachrichten

Ähnliche Artikel

Leave a Reply

Your email address will not be published. Required fields are marked *

Schaltfläche "Zurück zum Anfang"