VG-Wort Pixel

Überwachung Gefährliche Anwendung - Apps können die "Rasse" im Vorbeigehen bestimmen

Bald keine Vision mehr: Die Überwachungskamera analysiert die Kunden und auf dem Handy erscheinen die richtigen Einkauftipps.
Bald keine Vision mehr: Die Überwachungskamera analysiert die Kunden und auf dem Handy erscheinen die richtigen Einkauftipps.

© FG Trade / Getty Images
Ohne es zu wissen, wird unsere ethnische Abstammung von Programmen mit künstlicher Intelligenz analysiert. Das kann zielgenauer Werbung dienen, hilft aber auch bei staatlichen Unterdrückungsmaßnahmen.

Wie wichtig ist ethnische Herkunft? Eine Zeit lang glaubte die fortschrittsselige Moderne, dass die Ethnie immer unwichtiger werde. Doch mehr als ein Dutzend Unternehmen arbeiten inzwischen an Erkennungsprogrammen, bei denen die KI die ethnische Zugehörigkeit ermittelt. Das berichtet das "Wall Street Journal".

Im Groben gibt es zwei Anwendungsbereiche. Zuerst einmal dienen die Programme dazu, große Datenmengen bei der Suche durch ethnische Merkmale einzugrenzen. So arbeiten die Überwachungssysteme in China. Und die andere Anwendung ist Marketing, denn beim Konsum spielt die Ethnie eine große Rolle. Tatsächlich verhalten wir uns nicht so individuell wie wir denken. Diese Art von  Gesichtsanalyse ist "für Vermarkter nützlich, weil die Menschen in Kohorten kaufen und sich in Kohorten verhalten", sagte Brian Brackeen, Gründer einer Analysefirma zum "WSJ".

Ein einfaches Beispiel für die Nützlichkeit: Die Ethnie ist in den USA politisch ein hochbrisantes Thema. Eine entsprechende Software würde es im US-Wahlkampf möglich machen, politische Botschaften nach diesem Kriterium abzustimmen. Ein Weißer bekommt dann einen anderen Slogan zu sehen als ein Latino. Frauen andere Banner als Männer.

Nicht so individuell wie wir denken

Die "Rassenerkennungssoftware" ist ein Teil der Gesichtsanalyse. Die künstliche Intelligenz scannt und sortiert die Gesichter auf Basis einer Reihe von Merkmalen und versucht so Geschlecht, Alter, Ethnie und Emotionen zu ermitteln. Das in New York ansässige Unternehmen Haystack AI Inc. sagt, dass seine Kunden die Funktion zur "Rassenklassifizierung" für Add-Targeting, Marktforschung und als Hilfe bei der Authentifizierung der Identität einer Person nutzen. Auch deutsche Firmen bieten ähnliche Programm an. Wissenschaftler der Ruhr-Universität Bochum schrieben in der Fachzeitschrift "Machine Learning", ihr Algorithmus könne mit 99-prozentiger Genauigkeit abschätzen, ob ein Gesicht weiß, schwarz, asiatisch, hispanisch oder "anders" sei. Die größte Firma in diesem Segment dürfte Face++ aus China sein, sie wurde 2019 mit vier Milliarden Dollar bewertet. Hier dient die Funktion der "Rassenerkennung" zur Analyse des Verbraucherverhaltens und wird für zielgenaue Reklame genutzt. China setzt die Erkennungssoftware allerdings auch gezielt bei der Unterdrückung der Uiguren ein. Peking greift dabei auf das Netz an staatlichen Überwachungskameras zurück.

Im Westen zögern Firmen, die Ethnie ihrer Kunden bestimmen zu lassen. Sie nutzen die Module der Programme zur Alters- und Geschlechtsbestimmung, verzichten aber auch eine Auswertung nach dem Kriterium der ethnischen Zugehörigkeit. Zu nahe liegt der Verdacht, ein rassistisches Profiling zu betreiben. Der PR-Schaden wäre enorm.

Enttäuschte Nutzer

Brian Brackeen stieß auf ein weiteres Problem: Was geschieht, wenn die App zwar korrekte Ergebnisse liefert, die aber dem Selbstbild der Nutzer widersprechen? Brackeen ist selbst schwarz und veröffentlichte 2017 eine kostenlose App, die die eigene Ethnizität nach Anteilen bestimmt. Bei einer Mischbevölkerung wie in den USA oder in Brasilien sollte das Ergebnis eine verbindende Erfahrung sein. "Ich hatte gehofft, dass die Menschen ihr zehn Prozent "Schwarz" sehen und so die Menschlichkeit in anderen Menschen erkennen würden." Stattdessen gab es wütende Proteste, weil die Ergebnisse vielen Usern nicht "weiß" genug waren.

Quelle: WSJ


Wissenschaft


Mehr zum Thema


Wissenscommunity


Newsticker