Sind autonome Kampfroboter ethisch vertretbar?

Der Roboter zieht in den Krieg
i34_cp1607-12-streitfaelle_01_web.jpg

Foto: Ola Torkelsson / Kontinent / laif

Übung mit der Kampfdrohne: So sieht ein Mensch für den aus, der tötet

Darf eine Maschine über Leben und Tod entscheiden? Was wie Science-Fiction klingt, ist eine reale Möglichkeit

chrismon: Die Vereinten Nationen (UN) diskutieren, ob autonome Kampfroboter ethisch vertretbar sind...

Peter Dabrock: Als Christ habe ich bei so einer Diskussion immer einen Kloß im Hals. Einerseits gilt: „Du sollst nicht töten!“ Andererseits gibt es Kriege, und Verteidigung ist legitim. Zudem gilt leider: Die Tötungsinstrumente der Menschen haben sich seit der Erfindung des Keils immer dem jeweiligen Stand der Technik angepasst.

Was ändern autonome Systeme?

Zunächst: Sie funktionieren nur vermeintlich autonom. Es gibt ­immer noch Menschen, die im Hintergrund Verantwortung tragen, hier: Programmierer und Kommandeure. Die Verantwortung rückt immer nur eine Ebene weiter nach hinten. Das Prekäre an dieser Entwicklung ist, dass der Abstand zwischen Waffe und Verantwortlichen immer größer wird.

Was heißt das für den Ethiker?

Bei sogenannten autonomen Tötungsmaschinen ist ganz klar eine Grenze überschritten, weil sie – einmal losgelassen – den Auftrag eigenständig ausführen können. Bei ferngesteuerten Drohnen gibt es schon eine Distanz, aber der Mensch kann immer noch ein­greifen, beispielsweise wenn auf einmal ein Kind ins Anschlagsziel gerät oder kurz vor dem geplanten Angriff Frieden ausgerufen wird. Die „autonomen“ Waffen geben dem schrecklichen Krieg eine noch schrecklichere und kältere Fratze.

Forscher, die sich mit künstlicher Intelligenz beschäftigen, schlagen vor, eine Art roten Knopf einzubauen, mit dem der Mensch den Roboter jederzeit stoppen kann.

Bei „autonomen“ Systemen muss es so eine Möglichkeit geben. ­Mit diesen Kampfrobotern wird es möglich, nur durch das Ein­programmieren des Namens oder der Ortungsdaten des Handys eine Tötung in Auftrag zu geben. Man muss nichts mehr weiter tun als abwarten. Das ist sehr zynisch.

"Ich wünsche mir, dass die UN diese neuen Waffen ächten"

Befürworter meinen, die Fehlerquote der Roboter läge unter der des Menschen.

Halten wir fest: Töten ist schrecklich. Unter dieser Voraussetzung gilt: Waffen sollen möglichst geringe Kollateralschäden anrichten. Das ist Teil einer „humanitären“ Kriegsführung und ethisch geboten. Das darf aber nicht dazu führen, dass wir eine „autonome“ Kriegsmaschinerie in Gang setzen. Letztlich sollte immer ein Soldat die Situation abwägen und die letzte Entscheidung treffen, ob er tötet.

Ein anderes Argument der Befürworter ist, dass durch den ­Einsatz solcher Roboter weniger Menschen in den Kampf geschickt würden und es weniger traumatisierte Rückkehrer gäbe.

An einer solchen Debatte sieht man, wie teuflisch der Krieg ist. ­Natürlich ist jede Mutter froh, wenn ihr Kind möglichst weit von der Front entfernt ist. Aber Waffen sollen immer jemanden töten und „autonome“ Kampfroboter sorgen nicht dafür, dass das Töten aufhört. Weil die eine Mutter sich nicht mehr um ihr Kind an der Front sorgen muss, heißt das nicht, dass eine andere nicht um ihre ge­töteten Kinder trauert.

Breitet sich der Krieg durch Kampfroboter schneller aus?

Das kommt darauf an, wer welchen Krieg führt. Krieg ist ein sehr vielfältiges Phänomen. Wer „autonome“ Kampfroboter besitzt, neigt vielleicht schneller zu einem präventiven Krieg. Aber es könnte auch, wie bei der Atomrüstung, zu einem Gleichgewicht des Schreckens kommen. Da wagt niemand den ersten Schritt aus Angst vor dem Gegenangriff.

Lässt sich der Forschungsdrang durch ethisch motivierte, ­poli­tische Entscheidungen langfristig aufhalten?

Ich wünsche mir, dass die UN diese neuen Waffen ächten. Ich bin jedoch sehr skeptisch, dass es dazu kommt. Deshalb ist schon jeder völkerrechtliche Vertrag, der ihnen Grenzen aufzeigt, ein wichtiger Schritt in die richtige Richtung. Trotzdem darf man die Hoffnung nicht aufgeben. Wir sollten uns entsprechend engagieren. Der Einsatz solcher „autonomer“ Kampfmaschinen wäre schrecklich. 

Peter Dabrock

Peter Dabrock, Jahrgang 1964, ist evangelischer Professor für Ethik im Fachbereich Theo­logie der Universität Erlangen. Sein wissenschaftlicher Schwerpunkt: Bioethik und Gerechtigkeitstheorie. Dabrock ist Vorsitzender des Deutschen Ethikrates und unter anderem Mitglied der Kammer für öffentliche Verantwortung der EKD.
Foto: Marion Hammer

Leseempfehlung

Wieder ein Massaker! Und Amerikaner kaufen die Waffenläden leer
In der Ukraine ist Krieg, anderthalb Millionen sind auf der Flucht. Alle sind irgendwo untergekommen
Es ist höchste Zeit, alle Waffenexporte in die Golfregion einzustellen!

Neue Lesermeinung schreiben

Wir freuen uns über einen anregenden Meinungsaustausch. Wir begrüßen mutige Meinungen. Bitte stützen Sie sie mit Argumenten und belegen Sie sie nachvollziehbar. Vielen Dank! Damit der Austausch für alle ein Gewinn ist, haben wir Regeln:

  • keine werblichen Inhalte
  • keine Obszönitäten, Pornografie und Hasspropaganda
  • wir beleidigen oder diskriminieren niemanden
  • keine nicht nachprüfbaren Tatsachenbehauptungen
  • Links zu externen Webseiten müssen zu seriösen journalistischen Quellen führen oder im Zweifel mit einem vertretbaren Prüfaufwand für die Redaktion verbunden sein.

Die Redaktion behält sich das Recht vor, Beiträge zu bearbeiten, macht dies aber stets kenntlich. Wir zensieren nicht, wir moderieren.
Wir prüfen alle Beiträge vor Veröffentlichung. Es besteht kein Recht auf Publikation eines Kommentars.

Lesermeinungen

"Autonome Kampfmaschinen" ist nur ein neues Wort für alte Technik: Schon die Torpedos gegen Ende des zweiten Weltkrieges suchten sich ihre Ziele selbst. "Fire and Forget" war die Bezeichnung für die entsprechenden Luft-Luft- und Luft-Seeziel-Raketen der 1980er Jahre...
Den Umstand, daß die neuste Generation dieser Waffen etwas genauere Sensorenwerte auswerten und damit hoffentlich weniger zu "Kollateralschäden" (=zivilen Opfern) neigen dürfte man kaum als Nachteil ansehen.