Als ein Vater aus San Fransisco an seinem Sohn im Kleinkindalter einen Ausschlag im Intimbereich beobachtete, machte er davon Fotos, um den Verlauf festzuhalten. Zwei Tage später war sein Google-Account gesperrt. Der Grund: Als die Fotos automatisch in der Cloud gespeichert wurden, hatte Google sie als Kindesmissbrauchs-Material eingestuft und seinen Zugang gesperrt. Das berichtete die "New York Times", in der der betroffene Vater nur als "Mark" auftritt – er befürchte, dass sein Ruf sonst geschädigt werde.
Der Vorfall trug sich bereits im Februar 2021 zu, mitten in der Pandemie – daher konsultierten Mark und seine Frau ärztliche Hilfe für ihren Sohn per Videochat. Die Krankenschwester habe seiner Frau im Vorfeld per Telefon dazu geraten, ein Foto des Ausschlages für den Arzt zu schicken, um die Diagnose zu erleichtern. Also lud sie die Fotos, die ihr Mann zuvor gemacht hatte, in das Messenger-System der Praxis hoch. Das System von Google las die Fotos aber nicht aufgrund dieser Interaktion aus, sondern weil Marks Handy die Fotos bei ihrer Erstellung automatisch in der Cloud, und damit auf die Server von Google, hochgeladen hatte.
Google will Sperrung von Account nicht aufheben
Als er zwei Tage später die Benachrichtigung auf seinem Handy sah, dass sein Account wegen "schädlicher Inhalte" gesperrt wurde, habe er sofort befürchtet, dass die Fotos seines Sohnes der Grund dafür sein könnten, sagte Mark gegenüber der "New York Times." Er hatte selbst als Software-Entwickler an einer automatisierten Erkennung gearbeitet, die Inhalte automatisch entfernen sollte, die von Nutzer:innen als problematisch gemeldet wurde. Da er wüsste, dass Menschen die Einschätzungen solcher Technologien begleiten und auch korrigieren würden, sei er aber davon ausgegangen, dass seine Sperrung nur vorübergehend sei, berichtete er.
Auf einen Schlag hatte er alle Daten der vergangenen Jahre samt Kontakten, Fotos und E-Mails verloren. Auch die Polizei ermittelte kurzzeitig gegen ihn. Zwar kam es nicht zu einer Strafverfolgung, da kein Vergehen festgestellt werden konnte – Google hält aber bis heute weiterhin an der Sperrung seines Accounts fest. Man folge dem US-Recht bei der Definition, was sogenanntes CSAM (Child Sexual Abuse Material) ausmache, zitiert der "Guardian" eine Google-Sprecherin zu dem Vorfall. Bei der Erkennung des Materials benutze man eine Kombination aus der sogenannten Hash-Matching-Technologie und künstlicher Intelligenz. Nachdem Mark ein Formular ausgefüllt und die Situation darin erklärt hatte, antwortete Google ihm nur, dass die Sperrung bestehen bleibe – ohne weitere Erklärung. Dass er später auch noch den Polizeibericht einreichte, der seine Unschuld bekräftigte, änderte daran nichts.
Expert:innen kritisieren Vorgehen von Google
Die "New York Times" berichtet von einem weiteren Fall eines Vaters aus Texas, der dem von Mark sehr ähnelt. Insgesamt habe Google allein letztes Jahr 270.000 Konten gesperrt, nachdem es das Auffinden von Missbrauchs-Material vermeldet hatte – darunter könnten sich noch weitere Fälle wie der von Mark befinden, vermutet Jon Callas, ein Technologe einer Organisation für digitale Bürgerrechte. Dass Google mit seiner Technologie private Fotoalben durchsuche sei ein Eindringen in die Privatsphäre von Nutzer:innen, die mit dieser Überwachung ihrer privaten digitalen Fotos nicht rechneten, kritisiert er.
Die Zusammenarbeit von Technologieunternehmen und Strafverfolgungsbehörden sei zwar unverzichtbar, um tatsächliche Fälle von Kindesmissbrauch aufzudecken, zitiert die Zeitung die Jura-Professorin Carissa Byrne Hessick. Ebenso wichtig seien aber Korrekturen bei Fehleinschätzungen durch die Technologien. Es sei schwierig, eine genaue rechtliche Definition dafür zu finden, was sexuell missbräuchliche Inhalte ausmache. Fotos, die zu medizinischen Zwecken gemacht würden, sollten aber nicht in diese Kategorie fallen. Kate Klonick, ebenfalls Juraprofessorin, bekräftigt diese Einschätzung. Falsche Treffer seien bei den Unmengen an Daten wohl unvermeidbar und könnten beim Kampf gegen Kindesmissbrauch auch als notwendiges Übel angesehen werden. Unternehmen bräuchten aber dringend einen verlässlichen Prozess, um unschuldige Personen nach einer Fehleinschätzung zu rehabilitieren – gerade, weil es auch um potentielle Strafverfolgung gehe.
Die Verschmelzung von Mensch und Maschine - in 48 Smartphones um die Welt

Auch Apple wollte KI für Suche nach Missbrauchs-Material nutzen
Auch Apple hatte letztes Jahr mit einer Ankündigung für Aufsehen gesorgt, mithilfe einer Künstlichen Intelligenz die Clouds von iPhones und iPads automatisch nach Kindesmissbrauchs-Material durchsuchen zu wollen. Als Reaktion auf die Kritik aus der Politik, von Bürgerrechtler:innen und Sicherheitsexpert:innen hatte der Konzern diese Funktion aber zunächst doch nicht umgesetzt. Laut einem Bericht von Heise Online sei es derzeit unklar, ob und wann sich das ändern soll – Apple habe Nachfragen von US-Medien dazu bisher unbeantwortet gelassen.
Quellen: New York Times, The Guardian, Heise Online I, Heise Online II