Werden Kriege durch autonome Waffensysteme schrecklicher?
Florian Rötzer
28.11.2012
Ein Bericht der Menschenrechtsorganisation Human Rights Watch warnt vor dem "Verlust der Menschlichkeit" und verklärt das Verhalten und die Emotion der Menschen
Figure 01 -- Armed Talon MAARS robot (Foster-Miller
Figure 02 -- Future Combat Systems
die Menschenrechtsorganisation einen Bericht, der sich dagegen wendet, dass autonome Kampfroboter entwickelt werden. Im Hintergrund der Kritik steht auch hier wie üblich die Annahme, dass mit den kalten und unbarmherzigen Robotern Kriege schrecklicher werden würden, als wenn Menschen andere Menschen beschießen oder mit anderen Mitteln angreifen. "Losing Humanity" ist der Bericht überschrieben, der letztlich fordert, dass Menschen weiter Roboter steuern sollen, um Zivilisten im Krieg zu schützen, und dass die Entwicklung, die Herstellung und der Einsatz von autonomen Kampfrobotern völkerrechtlich verboten werden sollte.
Von KI gesteuerte Roboter hätten, so die Begründung,
nicht die "menschlichen Qualitäten, die erforderlich sind, um die Regeln
des internationalen humanitären Rechts einhalten zu können". Einmal
selbst angenommen, alle Menschen hätten diese "Qualitäten", so werden
diese doch massenhaft verletzt. Menschen steuern wie jetzt US-Soldaten
oder CIA-Mitarbeiter unbemannte Kampfdrohnen und töten dabei auch
Zivilisten, ganz zu schweigen davon, dass sich Regierungen das Recht
herausnehmen, Verdächtige in einer militärisch verkleideten
Willkürjustiz auch dann zu exekutieren, wenn sie keine unmittelbare
Bedrohung darstellen. Und wenn man den Blick auf Syrien wirft, dann sind
keine autonomen Kampfroboter notwendig, um schwere
Menschenrechtsverletzungen und gnadenlose Bombardierungen zu begehen.
Roboter, so heißt es bei Human Rights Watch, würden
nicht zurückgehalten von "menschlichen Emotionen und der Fähigkeit des
Mitleidens", aber Menschen können auch andere Menschen quälen, foltern
und niedermetzeln, mitunter auch an der Lust, den Mitmenschen zu
erniedrigen, Herr über den anderen zu sein, Schmerzen zuzufügen und Lust
am Leiden zu empfinden. Und haben die Menschen nicht auch kaltblütig
und dennoch besessen, systematisch Völkermord begangen, als wären sie
Maschinen? Haben nicht Menschen Atombomben über Millionenstädten
abgeworfen und massenhaft Zivilisten getötet, verwundet und ihnen durch
die Radioaktivität Leid zugefügt? Menschen mit Emotionen kapern
Passiermaschinen und steuern sie in Hochhäuser oder sie sich durch
Sprengstoff oder andere Mittel möglichst viele Mitmenschen in den Tod zu
reißen.
Was heißt ihr "Angemessenheit" von Angriffshandlungen im
Rahmen des Kontextes? Verklärt werden die Menschen, denen im Gegensatz
zu den Robotern und ihrer KI unterstellt wird, sie könnten gleichzeitig
rational und emotional die Regeln einhalten, die sie einhalten sollen.
Das tun sie nicht und können sie nicht. Nach der Logik und Argumentation
von HRW müsste es eigentlich nicht darum gehen, autonome Waffensysteme
zu verbieten, sondern Kriege überhaupt, egal ob zum Töten ausgebildete
Menschen, von Menschen kontrollierte oder autonome Waffensysteme
eingesetzt werden.
weiterlesen:
Keine Kommentare:
Kommentar veröffentlichen