Stellen Sie sich vor, ein System aus Kameras könnte Sie jederzeit erkennen, ihren Spuren folgen und bewerten, ob Sie eine Gefahr sind. Was vor wenigen Jahren noch Stoff eines Spionage-Thrillers hätte sein können, wird seit letztem Jahr von Amazon als Dienstleistung angeboten. Die umstrittene Software Rekognition hat nicht nur im Konzern selbst eine hitzige Diskussion über die Grenzen der Moral bei Software ausgelöst. Und das neue Feature dürfte das noch anheizen.
Die Pressemitteilung klingt wie bei jedem anderen Tech-Produkt: "Heute führen wir Verbesserungen an der Genauigkeit und Funktionalität unserer Gesichtsanalysefunktionen ein", heißt es bei Amazon. Auch dass die Software "Metadaten zu erkannten Gesichtern" erstellt, klingt auf den ersten Blick harmlos. Dabei heißt es nichts anderes, als dass sie Menschen genau einordnen kann. Nach Alter, Geschlecht. Besonders die Stimmungserkennung hat Amazon verbessert, so die im fröhlichen PR-Ton gehaltene Nachricht. Und: Nach guter Laune, Wut und anderen Emotionen hat Rekognition nun eine weitere gelernt. Die Software erkennt nun, ob jemand Angst hat.
Die Ursachen der Angst
Für die Behörden ist die Erkennung von Emotionen durchaus ein nützliches Feature. Wirkt eine Person in einer Menschengruppe ohne Grund nervös, kann das etwa ein Warnsignal sein, dass diese Person etwas verbotenes vorhat. Oder auch, dass sie gerade Opfer eines Verbrechens wird. Wertet man die Emotionen aller Personen in Gruppen aus, kann man so Verbrechen theoretisch automatisiert erkennen, während sie geschehen - und sofort eingreifen.
Experten warnen allerdings davor, dass die Emotionserkennung kaum zuverlässig funktionieren kann. Weil verschiedene Kulturen auch ihre Emotionen unterschiedlich ausdrücken, ist die Gefahr von falsch erkannten Gefühlen sehr hoch. "Es ist kaum möglich mit Zuverlässigkeit aus einem Lächeln gute Laune, aus einem finsteren Blick Wut oder aus Stirnrunzeln Traurigkeit zu erkennen", erklärte etwa eine Gruppe von Forschern jüngst.
Menschen als Daten
Die Macht des Systems ist allerdings auch ohne die Emotions-Erkennung erschreckend groß. Rekognition kann bis zu 100 Personen in Gruppen automatisiert erkennen und dann entsprechend über mehrere Kameras verfolgen. Reine Theorie ist das längst nicht mehr: Viele US-Städte sind Kunden bei Amazons Dienst, überwachen mit dem Programm öffentliche Plätze und Einkaufszentren. Dabei werden nicht nur gesuchte Verbrecher erkannt. Erst im Juli wurde bekannt, dass die Bundespolizei FBI und die Einwanderungsbehörde systematisch Führerscheindaten in Gesichtserkennungsprogramme einpflegten.
Dieser Grad der Überwachung wird selbst den technikfreundlichen Amerikanern gerade zu viel. Rekognition und die Konkurrenten von Google, Microsoft und Facebook haben dort eine erhitzte Debatte entfacht. Die große Frage: Wollen die Bürger tatsächlich immer erkannt und auf Schritt und Tritt automatisiert überwacht werden?
Der Widerstand wächst
Neben den extremen Einschränkungen der Privatsphäre warnen die Kritiker auch vor möglichen Falscherkennungen - und daraus resultierenden Anklagen von Unschuldigen. Wie schnell das gehen kann, zeigte ein Experiment: Bürgerrechtler luden die Bilder von 535 US-Abgeordneten in Rekognition. 28 von ihnen wurden als Verbrecher erkannt.
Der größte Widerstand kommt ausgerechnet von Menschen, die es wissen müssen. Bei Google, Amazon und Microsoft gab es unter den Mitarbeitern lautstarke Proteste gegen die Programme der eigenen Konzerne. Amazon-Mitarbeiter und -Aktionäre versuchten etwa, den Verkauf der Software an die umstrittene Einwanderungsbehörde ICE zu verhindern, bei Google gab es Protestzüge gegen die Nutzung der Gesichtserkennung durch das Militär. Und die Silicon-Valley-Metropole San Francisco hat gerade die Gesichtserkennung im gesamten Stadtgebiet verboten.
In Deutschland (noch) kein Thema
Auch wenn Deutschland noch weit davon entfernt ist, seine Bürger mit Gesichtserkennung zu überwachen: Erste Schritte zur automatisierten Verbrechenserkennung gibt es bereits. So setzt die Polizei in Frankfurt etwa auf die umstrittene Software von Palantir, einem Unternehmen des Paypal-Gründers Peter Thiel. Die Programme werten konstant Datenberge aus sozialen Medien, Handy-Verbindungen, Kriminalfällen und vielem mehr aus und warnen so vor möglichen Gefahren. Auch Hamburg legt in seinem gerade überarbeiteten Polizeigesetz Grundlagen für die Nutzung einer solchen Software. Die Gesichtserkennung wäre eine konsequente Ausweitung dieser Programme.
Noch deutlich weiter als die USA ist etwa China. 170 Millionen Sicherheitskameras gibt es im meistbevölkerten Land der Welt, viele von ihnen mit Gesichtserkennung ausgestattet. Seit Anfang letzten Jahres können auch einzelne Polizisten per Sonnenbrille Verbrecher erkennen. Die speziell ausgestatteten Brillen können Bilder von Personen schießen, die dann im Rechenzentrum live ausgewertet werden. Der Polizist weiß dann sofort, wen er vor sich hat.
Quellen: Amazon, Sage Journal