Es ist eine Vorstellung, die den Menschen nicht erst seit "Terminator" Angst macht: Seit es Roboter gibt, fürchten sie sich davor, dass die Maschinen irgendwann ein Leben nehmen könnten. Die Polizei in San Francisco will genau dafür nun die rechtlichen Grundlagen schaffen. Obwohl dabei keine automatische Killer-Maschine entstehen soll, wirft das Projekt Fragen auf.
Der Vorstoß ist Teil eines neuen Regelentwurfs des San Francisco Police Department (SFPD). Bislang war nicht konkret geregelt, ob die bereits vorhandenen Roboter der Ordnungskräfte auch tödliche Gewalt anwenden dürfen. In einem Vorentwurf sollte das verboten werden. Den entsprechenden Satz hat die Polizei nun streichen lassen. Statt eines generellen Tötungsverbots soll es nur eine Einschränkung geben: "Roboter werden nur dann für tödliche Gewalt eingesetzt, wenn eine konkrete Gefahr für das Leben von Bürgern oder Beamten besteht und es die beste bestehende Option ist", heißt es in dem neuen Entwurf. Im Klartext bedeutet das: Unter bestimmten Umständen sollen Roboter Menschen das Leben nehmen dürfen.
Keine Entscheidung der Maschine
Die Kritik war wenig überraschend groß. "Wir leben in einer dystopischen Zukunft, in der wir debattieren, ob die Polizei Roboter einsetzen darf, die Bürger ohne Verfahren, Jury oder Richter exekutieren dürfen", klagte die Bürgerrechtsanwältin Tifanei Moyer gegenüber "Mission Local". "Das ist nicht normal. Und kein Rechtsexperte oder normaler Einwohner sollte so tun, als ob es normal ist."
Dabei geht es nicht einmal um den extremsten Schritt: Bei den Robotern des SFPD handelt es sich nicht um autonom agierende Maschinen, denn sie werden weiter von einem Menschen gesteuert. Anders als etwa bei der Polizei von New York City, die bereits selbstständig entscheidende Roboter einsetzt, steckt also letztlich immer ein Mensch hinter den Aktionen der Maschine – und müsste auch den Todesschuss abgeben.
Der neue Entwurf wurde innerhalb des Regelkomitees der Stadt ohne Gegenstimme verabschiedet. Komitee-Mitglied Aaron Peskins erklärte seine Entscheidung damit, dass die Lage vorher schlicht ungeklärt war. Zudem habe die Polizei dargelegt, "dass es Szenarien gibt, in denen die Anwendung tödlicher Gewalt die einzige Option ist."
Es bleiben offene Fragen
Wie genau die Polizei in San Francisco ihre aktuell 17 Roboter diese tödliche Gewalt anwenden lassen würde, ist dabei nicht geklärt. Die manuell gesteuerten Roboter sind in erster Linie für den Umgang mit gefährlichen Situationen wie der Entschärfung von Sprengstoffen im Einsatz. Laut Polizei-Sprecher Robert Rueca gebe es "keine konkreten Pläne", wie sie für Gewaltanwendung eingesetzt werden könnten.
Beispiele dafür gibt es allerdings bereits. In Denver hatte bereits 2016 ein Polizei-Roboter mittels einer Sprengladung einen verschanzten Scharfschützen in den Tod gerissen, der zuvor fünf Beamte erschossen hatte. In Oakland hatte die Polizei vorgeschlagen, eine für das Auslösen von Sprengstoffladungen gedachte Abschussvorrichtung mit scharfen Patronen zu bestücken – nur um später doch davon abzurücken. Auch für vollautomatisch agierende Roboter sind bereits Aufsätze vorgestellt worden, die sie quasi zu einem selbstlaufenden Gewehr machen würden (hier erfahren sie mehr).
Die wohl schwierigste Frage ist aber letztlich die der Verantwortlichkeit. Wie schon beim Drohneneinsatz in Kriegsgebieten würde auch beim Polizei-Einsatz ein Mensch die Entscheidung treffen und den Abzug drücken müssen. Was aber, wenn sich ein Schuss versehentlich löst? Oder eine Situation falsch eingeschätzt wird? Genau davor warnt auch die Bürgerrechts-Bewegung ACLU. Die eingeschränkte Sensorik der Roboter könnte eine Fehleinschätzung deutlich wahrscheinlicher machen. Und so das Risiko erhöhen, dass die Gewalt "unangemessen oder gegen die falschen Ziele" angewendet werde, so ihre Einschätzung. Angesichts der Debatte um Polizeigewalt nicht nur in den USA sind diese Fragen noch dringender.
Quellen:Entwurf des SFPD, Mission Local