Home > Ethik, Gesellschaft > Einsatzregeln für Kampfroboter

Einsatzregeln für Kampfroboter

Ein Artikel bei Telepolis erschreckt zunächst, Einsatzregeln für Kampfroboter, aber ist das wirklich etwas Neues? Worin besteht denn zum Beispiel der Unterschied zu Mienen, die in großer Zahl in Krisengebieten überall auf der Welt vergraben, von Flugzeugen abgeworfen werden oder im Meer treiben? Das sind doch auch technische Systeme, die, autonom arbeitend, nur dem Zweck dienen, Menschen zu töten, und die im Einsatzfall keinen Unterschied machen zwischen Freund und Feind, Militär und Zivilist, Mensch oder Maschine.

Isaac Asimov hat seinerzeit die Robotergesetze aufgestellt, die quasi eine minimale Ethik fortgeschrittener Roboter in Bezug auf die sie erschaffenden Menschen definieren. Jeder, der mit dem Entwurf oder Bau von Maschinen, Computern und deren Programmierung beschäftigt ist, weiß, dass diese Gesetze nichts mit der Realität zu tun haben. Es gibt keinen geschützten Bereich innerhalb einer Maschine, wo derartige Regeln implementiert sein könnten, und es gibt keine Sensorik, die eine zweifelsfreie Erkennung der schützenswerten menschlichen Subjekte ermöglichen.

Für die heute existierenden technisch primitiven Maschinen reicht die Rechenleistung, also die verfügbare Intelligenz dazu nicht, aber auch in der Zukunft wird es so nicht funktionieren. Man könnte eine fortgeschrittene Maschine der Zukunft in ihrer Intelligenz und ihrer Intentionalität mit Tieren vergleichen. Wie definiert sich unser Verhältnis zu diesen unseren Mitgeschöpfen? Wir töten sie, wenn es unseren Zielen nützt, und wir werden von ihnen getötet, wenn wir selbst in deren Beuteschema fallen und das Pech haben, zum falschen Zeitpunkt am falschen Ort zu sein. Wenn wir die Entwicklung so weiter treiben, wird es uns mit den autonomen Maschinen genauso gehen.

Reicht unsere eigene Ethik aus, um eine derartige Entwicklung zu verhindern? Ich bin da sehr skeptisch. Dabei kann es als gesichert gelten, dass die vollständige Übergabe bestimmter Tätigkeiten an Maschinen die Zahl menschlicher Opfer verringern würde. Flugzeuge ohne Piloten, Züge ohne Fahrer, Kraftwerke ohne technisches Bedienpersonal sind technisch machbar und sicherer als mit menschlicher Bedienung. Auch die Zahl der Straßenverkehrsopfer könnte man senken, wenn man die Straße den Maschinen überlässt und auf deren Möglichkeiten optimiert. Aber manche (Macht)Menschen verfolgen halt – wie eingangs erwähnt – andere Ziele. Sie machen sich mehr Gedanken darüber, dass die „kollaterale“ Tötung von Menschen durch, natürlich ausschließlich für die Bekämpfung feindlicher Maschinen geschaffener, Kampfroboter deren politische Unterstützung verringern könnte.

KategorienEthik, Gesellschaft Tags:
  1. Bisher keine Kommentare
  1. Bisher keine Trackbacks