Atlas_frontview_2013

Kein «Killerroboter», er könnte aber einer sein: «Atlas», der vom US-Militär 2013 vorgestellt wurde. © CC

Experten warnen vor vollautonomen Waffen

D. Gschweng /  Würden Waffensysteme voll autonom, könnten selbstlernende «Killerroboter» selbständig entscheiden, wen sie töten.

Die technische Entwicklung könnte dazu führen, dass Krieg irgendwann heisst, dass Maschinen gegen Maschinen kämpfen. Das klingt sehr nach Science-Fiction, ist aber durchaus möglich. Meist drängt sich aber ein anderes Science-Fiction-Szenario auf: wer in den Fokus eines «Killerroboters» gerät, hat sein Leben verwirkt. Es könnte in wenigen Jahren Wirklichkeit werden.

Autonome Waffen könnten nach Meinung von Fachleuten die Welt so verändern wie die Einführung von Atomwaffen. Die USA, China und Russland sowie Grossbritannien, Südkorea und Israel sind in der Entwicklung autonomer Waffensysteme bereits weit fortgeschritten. Mehrere Dutzend verschiedene Staaten sowie mehrere staatliche und nichtstaatliche Organisationen setzen sich für ein Verbot ein. Besonders deutlich hat UN-Generalsekretär António Guterres seine Position gemacht: «Autonome Maschinen, die ohne menschliches Zutun Ziele auswählen und Leben vernichten, sind politisch inakzeptabel (und) moralisch abstossend.»

Automatisch, teilautonom, vollautonom

KI – Künstliche Intelligenz – ist längst ein Bestandteil militärischer Technik. Die meisten militärischen Systeme, die heute im Einsatz sind, gelten als automatisch oder teilautonom. Aufklärungsdrohnen beispielsweise werden von Menschen ferngesteuert oder fliegen ein Gebiet selbständig ab. Sie starten und landen selbständig, wenn sie dafür programmiert werden. Die Drohnen, die im September 2019 saudi-arabische Ölanlagen zerstört haben, gelten allenfalls als teilautonom. Sie finden zwar ihr Ziel selbst und zerstören es, dafür müssen sie vor dem Start aber programmiert werden.

Künstliche Intelligenz schiesst nicht nur, sondern hilft auch bei der Lagebeurteilung. So sollen Situationen früher und besser erfasst werden. Abwehrsysteme wie jene in Israel können Raketenangriffe schneller feststellen als ein Mensch und selbst einen Gegenangriff starten. Wirklich vollautonome Waffen gibt es bisher nur wenige. Das «Stockholm International Peace Institute» (Sipri) zählte vor zwei Jahren 381 davon (PDF). Südkorea beispielsweise stellte bereits vor Jahren einen Roboter vor, der die Grenze zu Nordkorea gegen Angreifer verteidigen könnte.


Sieht nicht nach «Terminator» aus, ist aber tödlich: «Super aEgis II», konstruiert in Südkorea, wirkt eher unspektakulär.

Geht es um menschliche Ziele, warten Waffen noch auf eine Bestätigung eines Menschen, um das identifizierte Ziel zu zerstören – ein im Programmablauf kleiner, aber ethisch immens wichtiger Unterschied. Selbst die koreanische Selbstschussanlage «Super aEgis II» ist nach Angabe der Hersteller bei allen Kunden so konfiguriert, dass eine menschliche Bestätigung notwendig wird. Zunächst war diese Funktion gar nicht vorgesehen.

Tödlich selbständig: LAWS

Selbständig töten könnten Maschinen aber längst. Inzwischen können sie auch selbständig lernen, das heisst, Muster erkennen, statische Zusammenhänge verknüpfen und daraus Szenarien ableiten, für die sie nicht programmiert worden sind. Beispielsweise, wie ihr Ziel aussieht, sich bewegt und wie es am besten angegriffen wird. Eine vollautonome Waffe identifiziert ihr Ziel selbst und zerstört es selbständig. «Lethal autonomous weapon systems» (LAWS) entscheiden selbst über die Tötung eines Menschen. Das Argument «Nicht Waffen töten Menschen; Menschen töten Menschen» wäre damit hinfällig.

Befürworter solcher Technologien führen an, dass autonome militärische Systeme menschliche Opfer minimieren würden. Der Robotikwissenschaftler Ronald Arkin schlägt beispielsweise vor, LAWS mit Ethikprogrammen auszustatten. Selbst wenn diese nicht fehlerfrei arbeiteten, dann immer noch besser als ein menschlicher Soldat, sagt er.

Soldat KI: Ein politisch angenehmer Kämpfer

Der KI-Kämpfer ist noch aus anderen Gründen attraktiv. Roboter werden nicht müde, treffen keine emotionalen Entscheidungen, hinterlassen keine Angehörigen und leiden nicht an PTBS (Posttraumatischen Belastungsstörungen). Argumente, die bereits Barack Obama dazu bewogen hatten, auf den Drohnenkrieg zu setzen – mit den bekannten, eher «unchirurgischen» Folgen vieler ziviler Opfer (siehe beispielsweise Infosperber: «Die anonymen Opfer des Drohnenkriegs»). Einige Drohnenpiloten, die die «Killerdrohnen» vom Schreibtisch aus steuerten, setzen sich heute gegen den US-Drohnenkrieg ein. Auch das hätte ein Ende. Eine Maschine kennt keine psychische Belastung.

Fragen, die nie geklärt werden sollten

Einen Menschen von einer Katze unterscheiden kann heute schon eine durchschnittliche Überwachungskamera. Aber kann eine lernfähige «Künstliche Intelligenz» Freund und Feind auseinanderhalten? Vor allem in asymmetrischen Konflikten, in denen nicht jeder Kämpfer eine Uniform trägt? Und wer ist verantwortlich, wenn dabei ein Fehler geschieht?
Fragen, die noch nicht geklärt sind und nach Auffassung vieler Experten auch nie geklärt werden sollten. Mehrere Staaten und NGOs wie «Human Rights Watch» hoffen auf ein totales Verbot, bevor LAWS in grösserer Zahl einsatzfähig sind. Ihr Argument: Die Versuchung, schnelle militärische Entscheidungen einem Programm zu überlassen, sei zu gross. Die zu erwartenden geringen Opferzahlen in den eigenen Reihen könnten die Bereitschaft von Politkern, Kriege zu führen, noch befeuern.

Der autonome Krieg hat viele Gegner, entwickelt wird dennoch

125 Staaten treffen sich im Rahmen der Konvention über konventionelle Waffen (CCW) regelmässig, um sich über Entwicklung und Verbot autonomer Waffensysteme auszutauschen. Das bisher letzte Treffen fand im August in Genf statt. Wie zu erwarten war auch diesmal ohne eindeutiges Ergebnis. Derzeit wird vor allem diskutiert, ob eine Gruppe von Staaten im Alleingang eine Ächtung autonomer Waffen beschliessen soll, ähnlich, wie es beim Verbot von Streubomben geschehen ist. Vor allem die Entwicklerstaaten USA, Russland und China sind gegen eine Ächtung.

Anfang September 2019 fand in Kassel die Jahrestagung der deutschen Gesellschaft für Informatik statt. Auch dort ging es unter anderem um KI-Systeme für das Militär, wie der «Deutschlandfunk» berichtete. Für KI-Wissenschaftler ist die Unterscheidung zwischen teil- und vollautonom nicht so wichtig, eher ihre Funktionsweise. Sie ermöglicht es Systemen, Situationen einzuschätzen, indem sie selbständig lernen. Es entstehen Entscheidungsbäume, die Menschen unter Umständen nicht mehr nachvollziehen können. Die meisten Wissenschaftler lehnen einen Einsatz von KI-Systemen in militärischen Zusammenhängen ab. Die Leitlinien der Gesellschaft für Informatik stützen diese Position.

Kein Killerroboter ist so sicher, dass er nicht gehackt werden kann

IT-Experten weisen noch auf eine andere Gefahr hin: Kein System ist so sicher, dass es mit entsprechendem Aufwand nicht doch gehackt werden kann, auch kein militärisches. Einen Vorgeschmack bekam die US-Armee, als 2010 eine klassifizierte US-Drohne über dem Iran verschwand und später anscheinend unbeschädigt im Iran wiederauftauchte. Iranische Hacker hatten die Drohne nach eigener Darstellung umgelenkt. Ob die Angreifer tatsächlich in das Steuerungssystem eindrangen, ist umstritten. Dass Hacker es wieder versuchen, ist zu erwarten. Bewegliche Roboter müssen ständig mit einer Bodenstation kommunizieren, Bilder und Lageberichte versenden. Schon deshalb sind sie leicht zu finden, Gelegenheit bietet sich also öfter.

Druck kommt vor allem aus IT und Wissenschaft

Nennenswerter Widerstand gegen autonome Waffen kommt bisher vor allem aus den Reihen der Informatik und der Wissenschaft. Wissenschaftler aus 30 Ländern kündigten beispielsweise einen Boykott des «Korea Advanced Institute of Science and Technology» (KAIST) an, das mit einem koreanischen Waffenhersteller zusammenarbeitet. KAIST sah sich gezwungen zu versichern, keinesfalls an der Entwicklung von autonomen Waffensystemen mitzuarbeiten. Selbst der Internetgigant Google gab nach Mitarbeiterprotesten 2018 die Zusammenarbeit mit dem US-Verteidigungsministerium im Projekt «Maven» auf.

– – – – – – – – – – – – – – – – – –
Siehe auch

  • «1918: So wurde der Krieg zur Hölle der zivilen Bevölkerung»
    – – – – – – – – – – – – – – – – – –

    Update: Vielen Dank an unseren Leser Ulrich Gut, der uns via Facebook auf folgende Veranstaltung hingewiesen hat: «Losing Humanity: The Human Right Implications of Killer Robots», Europa-Institut an der Universität Zürich, Vortrag von Stephen Goose, Director of Human Rights Watch’s Arms Division am Mittwoch, 6. November 2019, 18.30, ETH Zentrum


    Themenbezogene Interessenbindung der Autorin/des Autors

    keine

  • War dieser Artikel nützlich?
    Ja:
    Nein:


    Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
    Spenden kann man bei den Steuern in Abzug bringen.

    Direkt mit Twint oder Bank-App



    Spenden


    Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

    5 Meinungen

    • Portrait_Gnther_Wassenaar
      am 19.10.2019 um 12:53 Uhr
      Permalink

      Ja es ist schon «schön und gut» wir haben KLARE Spielregeln für den Krieg. Da steht was man darf beim Töten eines Menschen und was nicht. Nach fast jedem Zivilgesetz in fast jedem Land ist jedoch das Töten eines Menschen eine Straftat und ist oft unverjährbar. Nur wenn man sich um Töten ein Kostüm anzieht – eine Uniform – dann bekommt man für viele Tote einen Orden – wie ein gewisser Oberst Klein, der zum General befördert wird, weil er etwa 140 Zivilisten ermorden ließ. Wäre ja noch schöner, wenn man solchen Befehlshabern in einer FRIEDENSMISSION Kriegsverbrechen andichtet – geht ja garnicht da sie NICHT im Krieg sind.

      Meine Mutter hat mit ihren fast 59 Jahren formuliert:
      Das Kriegsrecht muß abgeschafft werden und durch eine Friedensgesetz ersetzt werden! Das ist die einzige Alternative und dafür sollten alle den Frieden liebenden Menschen kämpfen. Dieser Kampf ist der einzige humane Kampf

    • am 19.10.2019 um 17:44 Uhr
      Permalink

      Heute beschliesst man eine Ächtung und „morgen“ findet man einen Grund, um ganz schnell auszusteigen.

    • am 21.10.2019 um 08:41 Uhr
      Permalink

      Zynische Bemerkung: dann hoffe ich doch, dass diese Maschinen lernen, immer auf die Bosse zu schiessen, diejenigen, die sie in Auftrag gegeben haben und andere damit sterben lassen wollen.
      Es ist schon unglaublich, was sich – sicher zumeist Männer – die Menschen einfallen lassen, nur um noch erfolgreicher zu töten.

    • am 21.10.2019 um 11:06 Uhr
      Permalink

      Die «autonomen» Waffen werden wie die ominösen «autonomen» Fahrzeuge über hochleistungsfähige Funksysteme gesteuert, das darf nicht vergessen werden: 5G ist hierzu der Anfang; seine deklarierte Zielsetzung (Rohde&Schwarz, DE) ist beispielsweise bei Olympia 2020 in Tokyo das als «crowd control"umschriebene Analysetool zu haben: also innerhalb eines vollbesetzten Stadions Individuen oder kleinere Gruppen zu identifizieren, die auf eine bestimmte Weise sanktioniert werden sollen. Das ist dank der grossen verfügbaren Datenmenge zu uns funkaffinen Menschen und der verfügbaren Rechenleistung bereits heute problemlos möglich. Jene, die den ganzen Apparat dazu betreiben, können sich komplett im Dunkeln halten und müssen sich nirgends rechtfertigen.

    • am 25.10.2019 um 15:22 Uhr
      Permalink

      Zugegeben, ich habe von Philosophie keine Ahnung. Aber in meinem einfachen Verständnis ist das evt. wichtigste, ethische Gebot, niemanden zu töten. Wofür ein Killerroboter, dessen Ethikprogramm ihn am killen hindert? Mir scheint, dass diese Ethikdiskussionen geführt werden, um zu beruhigen und unethisches Verhalten recht zu fertigen. Oder ich verstehe das ganz falsch und es bedeutet vor allem: «Alles gut, wir geben den Robotern Ethik. Uns töten die damit nicht, höchstens euch."

      Private und staatliche Institutionen könnten Gelder, die sie nicht benötigen, Menschen geben welche die Gelder benötigen. Aber stattdessen wird es verwendet um Killermaschinen zu bauen. Wer damit wohl getötet werden soll? Die Geschichte liefert Hinweise:

      https://www.parlament.ch/de/ratsbetrieb/suche-curia-vista/geschaeft?AffairId=20103165

      https://de.wikipedia.org/wiki/Landesstreik#Die_Frage_ausl%C3%A4ndischer_Einfl%C3%BCsse

      https://de.wikipedia.org/wiki/Unruhen_von_Genf_1932

    Comments are closed.

    Ihre Meinung

    Lade Eingabefeld...