HOME

Stern Logo Technik

Ächtung autonomer Waffen: Das Ende der Moral - im nächsten Krieg werden Roboter kämpfen

Wissenschaftler boykottieren die Entwicklung von Künstlicher Intelligenz fürs Militär. "Human Rights Watch" fordert nun ein Verbot autonomer Waffen. Ohne Aussicht auf Erfolg, denn Länder wie Russland und Südkorea treiben die Entwicklung voran.

Auch die Marines arbeiten an kleinen autonomen Kampfmaschinen.

Auch die Marines arbeiten an kleinen autonomen Kampfmaschinen.

Hersteller

Vollständig selbstständig agierende Waffen sind keine Fantasie. Die Hardware gibt es bereits, was fehlt, ist eine Künstliche Intelligenz um diese Systeme zu steuern. Im Mai rebellierten Google-Mitarbeiter gegen die Unterstützung des US- bei der Entwicklung von KI-Fähigkeiten für Drohnen. Unlängst haben 2400 Forscher versprochen, nicht an der Entwicklung autonomer Waffen mitzuarbeiten.

Nun hat die Organisation "Human Rights Watch" (HRW) einen Bericht (Heed the Call) veröffentlicht, der ein Verbot autonomer Waffen fordert, weil sie gegen grundsätzliche Gebote der Humanität verstoßen. Die Waffen würden die genannte Martens-Klausel verletzten, so HRW. Diese Bestimmung des humanitären Völkerrechts verlangt, dass neue Technologien nach den "Grundsätzen der Menschlichkeit" und dem "Urteil des öffentlichen Gewissens" beurteilt werden, sollen.

Ende moralischer Standards beim Militär

"Die Zulassung der Entwicklung und des Einsatzes von Killerrobotern würde etablierte moralische und rechtliche Standards untergraben", sagte Bonnie Docherty, leitende Waffenforscherin bei , die die Kampagne gegen Killerroboter koordiniert. "Länder sollten zusammenarbeiten, um diese Waffensysteme präventiv zu verbieten, bevor sie sich auf der ganzen Welt vermehren."

Es gibt viele Gründe einen internationalen Vertrag zum autonomer Waffen abzuschließen. Ein ganz praktischer wäre, dass die Großmächte mit Roboterarmeen noch stärker als bisher versucht sein könnten, anderen Staaten gewaltsam zu ihren Willen aufzuzwingen, wenn nur noch Roboter und keine Soldaten fallen könnten.

Verbot von Killer-Robotern ohne Aussicht auf Erfolg

Dennoch hat so ein Vertrag wenig Aussicht auf Erfolg. Die Fähigkeiten von Künstlicher Intelligenz nehmen auch im zivilen Bereich zu. Niemand kann die Entwicklung leistungsfähiger Systeme unterbinden, es ist aber ein Leichtes die zivile KI auf militärische Aufgaben umzuschwenken. Auch in Waffen mit menschlicher Besatzung wird KI den Menschen immer mehr zuarbeiten, etwa bei der Zielerkennung und Zielerfassung. Es ist eine Grauzone inwieweit der Mensch überhaupt noch gebraucht wird.

Andererseits werden moderne Großwaffen wie der T-14 Armata Panzer schon heute von der menschlichen Besatzung komplett elektronisch angesteuert. Die Besatzung nimmt die Umgebung des Panzers ausschließlich über Sensoren und Kameras wahr. Ihre Aufgabe könnte auch ein Computer übernehmen, so wie es der bereits angekündigt hat.

Wenn von Killer-Robotern die Rede ist, denkt man sofort an . Russland bekennt sich offensiv zur Entwicklung autonomer Waffen. Spitzenpolitiker wie Medwedew posieren neben den Prototypen von Killerrobotern, Wladimir Putin hat mehrfach die zentrale Rolle von künstlicher Intelligenz für das Militär von Morgen hervorgehoben. "Künstliche Intelligenz ist die Zukunft, nicht nur für Russland, sondern für die gesamte Menschheit", sagte Putin. "Sie birgt enorme Chancen, aber auch schwer vorhersehbare Gefahren. Wer in dieser Sphäre zum Anführer wird, wird zum Herrscher der ganzen Welt."

Eklat: Südkorea-Uni entwickelt autonome Waffen 

Aber auch ein eher unauffälliges Land wie Südkorea liegt weit vorn, was den Einsatz autonomer Waffensysteme angeht. Während die Vereinten Nationen über ein internationales Abkommen nachdenken, hat Südkorea Anfang des Jahres eine große Investition in künstliche Intelligenz und militärische Systeme angekündigt. Das Besondere dabei: Südkorea verlässt dabei den abgeschirmten Bereich der reinen Rüstungsindustrie. Die neue Anlage ist ein Gemeinschaftsprojekt von Südkoreas führendem Rüstungsunternehmen Hanwha Systems mit der staatlichen Universität KAIST (Korea Advanced Institute of Science and Technology).

Nach der Ankündigung unterzeichneten 50 führende KI-Wissenschaftler ein Schreiben, in dem zum Boykott des KAIST und seines Partners Hanwha Systems aufgefordert wurde. Die Forscher sagten, sie würden nicht mehr mit der Universität zusammenarbeiten, weil sie befürchteten, dass sie so "den Rüstungswettlauf zur Entwicklung autonomer Waffen beschleunigen" würden. Wie man es auch von Israel annimmt, hat Südkorea an der Grenze zum Norden bereits Killerautomaten im Einsatz, wenn es sich auch nicht um furchteinflößende Roboter im Terminator-Stil handelt. Die SGR-A1 von Samsung ist eine Art vollautomatischer Wachsoldat.

Kann man den Menschen abschalten?

Das System kann Menschen selbstständig wahrnehmen und als Ziel identifizieren und sie mit der montierten Waffe bekämpfen. Der Wachroboter hat allerdings eine vergleichbar einfache Aufgabe. Er ist nicht beweglich, sondern in einem Turm untergebracht. Die Zone entlang der innerkoreanischen Grenze ist frei von Zivilsten. Wenn keine eigene Patrouille unterwegs ist, ist jede erfasste Person ein Feind. Das System wird auch exportiert, zu den Kunden gehören die Vereinigten Arabischen Emirate und Katar. Der Hersteller sieht kein moralisches Dilemma, das das entscheidende Go von einem Menschen via Fernbedienung kommen muss. Das ist allerdings ein abschüssiger Pfad, da diese letzte Sicherung auch einfach abgeschaltet werden kann, wenn die Software modifiziert wird.

Autonome Waffen in Russland

In Russland hat Kalaschnikow im Sommer 2017 einen voll automatisierten Geschützturm als Prototypen vorgestellt. 

Lesen Sie hierzu: "KI auf der Rüstungsmesse - Kalaschnikows neuer Kampfroboter entscheidet selbst, ob er schießt - oder nicht"

In Syrien hatte der Kreml den Mini-Panzer Uran-9 bereits im echten Gefechtseinsatz. Uran-9 ist allerdings kein autonomes System, sondern wird ferngesteuert. In welchen Situationen diese Waffen eingesetzt worden sind, ist nicht bekannt. Nur zu einem Einsatz gab es unbestätigte Gerüchte. Dabei sollen mehrere Mini-Panzer auf eine Stellung der Rebellen vorgerückt sein, um so die Verteidiger zu Abwehrfeuer zu zwingen. Als diese ihre exakten Positionen verraten hatten, sollen sie mit Artillerie ausgeschaltet worden sein.

Der Uran-9 soll auch bei Anti-Terroreinsätzen genutzt werden. Die Idee ist relativ simple. Der kleine Panzer kann eine Schützengruppe auch in engen Gassen begleiten und ihnen dort Feuerschutz geben. Mit seiner Maschinenkanone von 30 Millimetern verfügt Uran-9 über eine herausragende Feuerkraft, wenn man sie mit der eines leichten Maschinengewehrs vergleicht. Eine Waffe, die so eine Gruppe normalerweise mit sich führt. Auf der russischen Sicherheitskonferenz "Actual Problems of Protection and Security" in St. Petersberg wurden im April allerdings zahlreiche Probleme des Drohnen-Panzers benannt.

Hauptproblem ist die Fernsteuerung. Im urbanen Gelände sank die Reichweite der Verbindung auf Entfernungen von 300 bis 500 Meter. Das heißt, die Bedienungsmannschaft in ihrem auffälligen Kommandomodul müsste sich im unmittelbaren Kampfgebiet aufhalten und waren selbst der Einwirkung von gegnerischen Infanteriewaffen ausgesetzt. Teilweise kam es sogar zum vollständigen Abreißen der Verbindung.

Zudem arbeiteten die Sensoren des Mini-Panzers fehlerhaft und taten sich schwer bei der Identifizierung von Zielen. Hinzu kamen Probleme bei der Mechanik. Mehrmals fiel die Maschinenkanone aus. Selbst das Fahrwerk erwies sich als fehleranfällig.