HOME

Militärroboter: Wo Kampfroboter Ethik lernen

Roboter, die über Leben und Tod entscheiden. Die ultimative Vision von Militärstrategen: Bei Robotern mit eingebautem Ethik-Programm käme es gar nicht erst zu Kriegsverbrechen. Doch dieser Wunsch bereitet Robotikwissenschaftlern wie Ethikern und Philosophen enormes Kopfzerbrechen.

Von Eva Schatz

Vorsichtig rollt ein kleines, wendiges Raupenfahrzeug auf einen Hauseingang zu. Es ist mit Lasern, Kameras und einer Reihe weiterer Sensoren bestückt, die jede Veränderung in der Umgebung sofort wahrnehmen und an das Rechnersystem melden. Auf den ersten Blick wirkt der nur knapp 45 Kilogramm schwere Roboter nicht sehr bedrohlich - doch oben aufmontiert ist ein Maschinengewehr. Um potenzielle Angreifer sogleich zum Aufgeben zu bewegen, gibt der Metallsoldat erst einige Warnschüsse ab, bevor er ins Innere des Hauses eindringt. Wenige Minuten später kommt er wieder heraus, ohne einen weiteren Schuss abgefeuert zu haben. Statt der gesuchten Terroristen waren nur unschuldige Zivilisten zu finden - diese zu erschießen wäre gegen die ethischen Grundsätze des Roboters gewesen. Was sich anhört wie der neueste Science-Fiction-Streifen, ist Planziel vieler Militärs.

Vorstufen gibt es bereits: Im Sommer 2007 setzte die US-Armee zum ersten Mal drei dieser wahlweise mit Maschinengewehren, Granat- oder Raketenwerfern bestückten Roboter im Irak ein. Noch müssen die Roboter des Typs TALON SWORDS von Menschen ferngesteuert werden und können keine eigenen Entscheidungen treffen. Die Realität auf dem Schlachtfeld ist zu komplex, um von Computern verstanden zu werden. Denn etliche der wichtigsten Voraussetzungen für intelligentes Handeln bereiten Robotern - im Gegensatz zu Menschen - noch erhebliche Schwierigkeiten: Wie lassen sich Objekte erkennen und Situationen richtig interpretieren? Wie findet man sich in der Welt zurecht?

Das menschliche Gehirn kann Sinneseindrücke meist ohne Probleme einordnen und die richtigen Schlüsse ziehen. Wer einmal verinnerlicht hat, wie ein Bleistift aussieht, der erkennt solch einen Gegenstand auch dann als Schreibgerät wieder, wenn Kappen, Quasten oder aufgesetzte Radiergummis das ursprüngliche Bild verändern. Für einen Roboter ist die Sache ungleich schwieriger. Sämtliche Sensoreindrücke müssen klassifizierbar sein. Sobald sich zu viel auf einmal ändert, steht auch der schnellste Rechner vor einem unlösbaren Rätsel.

Türen sind Probleme

"Für einen Roboter ist es relativ einfach, den Mars zu erforschen, denn dieser Planet ist relativ einfach strukturiert", erklärt Professor Hugh Durrant-Whyte vom Australian Centre for Field Robotics das Dilemma. "Eine Tür zu öffnen ist dagegen viel komplizierter, denn Türgriffe unterscheiden sich sehr stark voneinander und sind schwierig zu bedienen." Wer schon einmal gegen eine Tür gelaufen ist, weil sie anders als erwartet aufging, dem dürfte dieses Problem nicht unbekannt sein.

Mit diesem Bild vor Augen ist es schwer vorstellbar, wie bewaffnete Blechsoldaten bald in Krisenherde entsandt werden sollen. Zumal es um deren Akzeptanz in der Öffentlichkeit nicht sonderlich gut steht. Bei einer Online-Umfrage des Georgia Tech College of Computing, Atlanta, unter Robotik-Forschern, Militärangehörigen, Politikern und Normalbürgern lehnte mehr als die Hälfte aller Teilnehmer es strikt ab, autonome Roboter mit tödlichen Waffen auszustatten.

Laut der "Unmanned Systems Roadmap 2007-2032" verfolgt das US-Verteidigungsministerium dieses "äußerst kontroverse Thema" daher mit der sogenannten "crawl-walk-run"-Herangehensweise (kriechen, gehen, rennen): Unbemannte mobile Roboter sollen nur schrittweise mit tödlichen Waffen ausgestattet werden - in dem Maße, wie ihre Fähigkeit zu selbständigem Handeln zuverlässiger wird. Nur wenn unbemannte Systeme zunehmend autonom agieren können, so die Vision der "Roadmap", werde sich die Fähigkeit der US-Armee verbessern, mit komplexen Missionen in einer dynamischen Umwelt fertig zu werden.

Ohne Roboter geht nichts mehr

Schon jetzt geht beim Minenräumen und bei Aufklärungsmissionen ohne semi-autonome Roboter nichts mehr. Sie müssen ran, wenn es um Jobs mit den drei "D" geht: "dull, dirty, dangerous" (langweilig, dreckig, gefährlich). Ende des Jahres 2006 waren im Irak über 4000 unbemannte Bodenfahrzeuge unterwegs. Zwei Jahre zuvor hatte deren Zahl gerade einmal 162 betragen. Bis zum Jahr 2015 soll gemäß einer Vorgabe des US-Kongresses ein Drittel aller Bodenfahrzeuge der Armee unbemannt eingesetzt werden. Dasselbe Ziel ist für tief fliegende Flugzeuge sogar fünf Jahre früher angepeilt.

Auch andere Länder setzen immer mehr auf automatisierte Kriegsführung: Im September 2007 ließ Südkorea Roboter-Wachposten patentieren, die entlang der entmilitarisierten Zone an der Grenze zu Nordkorea zum Einsatz kommen sollen. Mit den geplanten 1000 Einheiten lässt sich viel Personal einsparen - und die Roboter sind ihren menschlichen Kollegen nicht nur in punkto Durchhaltevermögen überlegen: Das Zielverfolgungsystem funktioniert bei Tageslicht bis zu zwei Kilometer weit, nachts einen Kilometer. Der Überwachungsradius ist sogar doppelt so groß. Wer ohne gültiges Passwort auf einen dieser mit Mikrofon, Lautsprechern und Spracherkennung ausgestatteten Grenzposten trifft, muss nach 20 Sekunden entweder mit Gummigeschossen oder scharfer Munition rechnen.

Entscheidung über Leben und Tod

Noch treffen auch bei diesem System Menschen über Fernsteuerung die Entscheidung über Leben und Tod. Doch Hersteller Samsung ließ mitteilen, dass der robotische Wachposten SGR-A1 auch über einen autonomen Modus verfügt. Damit Roboter in solch schwierigen Situationen wie Kampfeinsätzen eigenständig handeln können, müssen sie nicht nur ihre Umwelt mindestens ebenso zuverlässig wie Menschen wahrnehmen können. Auch ihre kognitiven Fähigkeiten müssen sich der menschlichen Denkweise anpassen. Professor Ronald Arkin vom Georgia Tech College untersucht derzeit für das US-Verteidigungsministerium Möglichkeiten, Roboter mit ethischem Denken auszustatten.

Arkins Überlegung: Es ist nur eine Frage des richtigen Programms, um Morde an Zivilisten, brutale Vergeltungsmaßnahmen und andere Kriegsverbrechen zu verhindern. Da Roboter keine Gefühle haben, können sie ultimativ menschlicher handeln als Menschen es in Kriegssituationen für gewöhnlich tun. So gesehen ist ein Roboter immer im Vorteil: Er kann Informationen unbeeinflusst, zuverlässig und schnell bewerten. Außerdem muss er sich nicht erst durch die gesamte Ethiklehre des christlichen Abendlandes arbeiten, sondern verfügt mit einem Mix aus Kriegsrecht, spezifischen Einsatzregeln und internationalen Abkommen wie den Genfer Konventionen über ein klares Handlungsmuster.

Arkin betont, dass sich mittels Kampfrobotern sogar Menschenleben auf beiden Seiten retten ließen: Da ein Roboter sein eigenes Leben nicht schützen muss, kann er sich näher an den Gegner heranwagen und so zur Kapitulation auffordern. Unbemannte Flugzeuge können die Gefahr eingehen tiefer zu fliegen und damit ihre Zielsicherheit erhöhen. Das Konzept klingt verlockend. Schließlich scheitern Menschen ständig daran, sich ethisch korrekt zu verhalten. Eine Untersuchung innerhalb der im Irak stationierten US-Streitkräfte aus dem Jahr 2006 zeigte, dass weniger als die Hälfte der befragten Soldaten zustimmten, unbeteiligte Zivilisten seien mit Würde und Respekt zu behandeln. Mehr als ein Drittel sah den Einsatz von Folter als gerechtfertigtes Mittel zum Zweck an, und nicht einmal die Hälfte aller Befragten würde einen Kameraden wegen Mordes an einem Zivilisten anzeigen.

Arkin gibt offen zu, dass die Vorstellung vom ethisch korrekten Roboter momentan noch nicht realistisch ist: Zuverlässig zwischen Kriegsteilnehmern und Zivilisten zu unterscheiden ist derzeit technisch noch nicht möglich. Und das ist bei weitem nicht das einzige moralische Dilemma: Wie soll ein Roboter die Grenze ziehen zwischen einem Kämpfer als legitimem Ziel und einem soeben Verwundeten, der dadurch den Status eines Kriegsgefangenen und Anrecht auf ärztliche Versorgung hat? Wie ist ein Steine werfender Teenager zu behandeln, der vielleicht niemanden umbringen wollte, es aber tun könnte? Sollte ein Roboter trotz eingebauter Ethik-Software fälschlicherweise jemanden töten, wer würde dafür die Verantwortung übernehmen? Der Programmierer, der Einsatzleiter oder der Befehlshaber der Armee? Lässt sich noch von gerechter Kriegsführung sprechen, wenn nicht klar ist, wer die Verantwortung für den Tod Unschuldiger trägt?

Kaum Protest

Im Irak bleibt der Tod von Zivilisten beim Einsatz von unbemannten Predator-Drohnen ungeahndet - was auch mit dem Prinzip des Doppel-Effekts des US-Militärs vereinbar ist: Der Tod von Unbeteiligten ist straffrei, solange er unbeabsichtigt ist, selbst wenn dieser Kollateralschaden absehbar war. Bisher protestieren dagegen nur Menschenrechtsgruppen, von der Öffentlichkeit weitgehend unbemerkt. Doch das könnte sich ändern, sobald Bilder von schießenden Killerrobotern in den Abendnachrichten zu sehen sind. Optimisten hoffen sogar, mit dieser Technologie Kriege zu verhindern, da Staaten ohne Kampfroboter im Nachteil und damit eher auf den Verhandlungsweg angewiesen sind. Oder werden Länder ohne Zögern ihre Roboterarmeen losschicken, da mangels eigener Verluste kaum Protest an der Heimatfront zu erwarten ist?

Auch wenn die ethischen Probleme keineswegs gelöst sind, die Entwicklung robotischer Waffensysteme mit Automatik-Modus läuft auf Hochtouren. Selbst vermeintlich unmilitärische Forschungsprojekte lassen sich leicht umfunktionieren. Professor Durrant-Whyte macht sich da keine Illusionen: "Jemand entwickelt eine Methode zur Objekterkennung, und jemand anderes macht ein elektronisches Zielsystem daraus. Dagegen lässt sich nicht viel tun. Das muss man als Gesellschaft entweder akzeptieren oder Forschung ganz aufgeben." Angesichts so vieler Grauzonen wächst bei vielen Robotik-Wissenschaftlern das Bedürfnis, sich Gedanken zu machen, in welche Richtung sich ihr Fach weiterentwickelt. Das "European Robotics Network" (Euron) hat 2006 mit der "Roboethics Roadmap" eine erste Annäherung an dieses Thema unternommen: Der Report beschreibt Problembereiche, zählt mögliche Entwicklungen auf und gibt einige, wenn auch recht knapp gehaltene Empfehlungen. Mit konkreten Richtlinien ist noch lange nicht zu rechnen - zu neu ist dieses Forschungsfeld. Immerhin soll das auf zehn Jahre ausgelegte Projekt dabei helfen, ethische Vorgaben bereits in den Entwicklungsprozess mit einfließen zu lassen - solange der Geist noch in der Flasche steckt.

Möglichkeiten und Verantwortung

Das Thema Militärroboter ist allerdings nur eines von vielen. Immerhin sind sich die Forscher um den italienischen Roboethik-Pionier Gianmarco Verrugio einig, dass Diskussionen über die Rechte von menschenähnlichen Robotern momentan noch zu vernachlässigen sind. Auch die EU hat erkannt, dass die Robotik als eines der wichtigsten Technologiefelder des 21. Jahrhunderts nicht nur neue Möglichkeiten, sondern auch neue Verantwortung mit sich bringt. Mit "Ethicbots" fördert die EU erstmals ein Projekt zum Thema Technologie und Ethik. Im April 2008 wird die interdisziplinäre Gruppe - ein Zusammenschluss aus Ingenieuren, Informatikern, Anthropologen und Philosophen - die Ergebnisse ihrer zweieinhalbjährige Studie vorlegen und damit maßgeblich die Forschungspolitik der EU beeinflussen.

Aber nicht nur die Europäer sind mittlerweile aktiv geworden. So haben die beiden Länder mit der weltweit größten Roboterbegeisterung ihre eigenen Ansätze geliefert: Japan sieht das Thema eher praktisch und stellte im April 2007 eine Reihe von Sicherheits-Empfehlungen für den Betrieb von Robotern vor. Unter anderem soll eine zentrale Datenbank geschaffen werden, um Schäden und Verletzungen zu dokumentieren. Kurz zuvor hatte Südkorea angekündigt, ebenfalls an einer Ethik-Charta zu arbeiten, die bis zum Ende des vergangenen Jahres fertig sein sollte und bis jetzt noch auf sich warten lässt. Vor allem Südkoreas Bemühungen wurden von Robotikwissenschaftlern eher kritisch aufgenommen. Denn das dortige Gremium, bestehend aus Zukunftsforschern und einem Science-Fiction-Autor, nannte die Robotik-Gesetze von Isaac Asimov (siehe Kasten) als eine ihrer Grundlagen.

Bruch der Gesetze

Zwar klingen die Gesetze des Science-Fiction-Schriftstellers auf den ersten Blick einfach und einleuchtend, doch in der Realität erweisen sie sich häufig als unbrauchbar - selbst Asimov musste sie in seinen Geschichten mehrfach brechen. Dass Roboter überhaupt jemals über die nötige Intelligenz verfügen, um mit den ethischen Problemen der realen Welt fertig zu werden, sei sehr fraglich, schreibt Bruce McLaren, der an der Pittsburgher Carnegie Mellon Universität künstliche Intelligenz erforscht. Doch dieses Manko werde Militärstrategen nicht davon abhalten, so bald wie möglich autonome Roboter einzusetzen, warnt Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität von Sheffield. Politiker und Militärs hätten oft keine klare Vorstellung von den Möglichkeiten und Grenzen künstlicher Intelligenz.

Somit stünden Wissenschaftler in der Pflicht, auf der Jagd nach Regierungsgeldern keine falschen Begehrlichkeiten zu wecken. Sharkey hofft dagegen auf neue internationale Abkommen - am besten wäre seiner Meinung nach ein totales Verbot autonomer Killerroboter: "Roboter sind nichts weiter als Maschinen, die stumpfsinnig einprogrammierte Befehle ausführen. Ihre kognitiven Fähigkeiten sind so eingeschränkt, dass man sie nicht einmal dumm nennen kann. Sollten wir ihnen wirklich Entscheidungen über Leben und Tod anvertrauen?"