Unterstützung der US-Behörden Paradigmenwechsel? Apple durchsucht iPhones automatisiert nach Kinderpornografie

Über den Facetime-Fehler lässt sich das Mikro eines iPhones über einen einzelnen Anruf heimlich anschalten (Symbolbild)
Durch die neuen Maßnahmen sollen auch Jugendliche selbst vom Verschicken sexueller Inhalte abgehalten werden (Symbolbild)
© ljubaphoto / Getty Images
Um die Behörden beim Kampf gegen kinderpornografisches Material zu unterstützen, scannen iPhones in den USA bald ihren Speicher nach bekannten Fotos. Die Privatsphäre der Nutzer bleibt dabei geschützt, betont der Konzern. Kritiker fürchten, dass sich das schnell ändern könnte.

Seit Jahren wirbt Apple mit einem besonderen Schutz der Privatsphäre auf seinen Geräten. Und macht sich damit nicht nur Freunde. Eine neue Maßnahme könnte nun aber einen Paradigmenwechsel darstellen, fürchten Kritiker. Dabei dürfte sie zunächst einmal für die allermeisten Menschen gut klingen: Apple will automatisch Missbrauchsdarstellungen von Kindern auf seinen Geräten finden.

Das kündigte der Konzern am Donnerstag (Ortszeit) an. Die als "Erweiterte Kinderschutzmaßnahmen" angekündigten Funktionen werden als Teil von iOS 15 im Herbst erscheinen, so der Konzern. Dabei werde man Eltern beim Verschicken potenziell problematischer Fotos ihrer Kinder über iMessage warnen, auf dem iPhone gespeicherte Missbrauchsbilder erkennen sowie Suchen nach problematischen Begriffen unterbinden, erklärt die Mitteilung, die auch von ausführlichen technischen Erklärungen begleitet wird.

Abgleich ohne Bildauswertung

Besonders die zweite Maßnahme lässt aufhorchen: Um mögliche Missbrauchsdarstellungen zu entdecken, soll das iPhone automatisch die Bilder auf dem Gerät mit entsprechenden Datenbanken abgleichen, sobald die Fotosicherung über iCloud eingeschaltet ist, erklärt Apple in einem Dokument. Das iPhone prüft also automatisch alle auf dem Gerät gespeicherten Bilder und Videos.

Betrachtet man die Maßnahme im Detail, zeigt sich allerdings, dass Apple die Privatsphäre seiner Nutzer dabei durchaus bedenkt. Statt die Bilder selbst auszuwerten, wird ein sogenannter Hashwert mit einer Datenbank bekannter Missbrauchsdarstellungen abgeglichen. Dabei handelt es sich um eine Art individuellen Fingerabdruck, der für jedes Bild einzeln berechnet wird.

Schutz vor falschem Verdacht

Das Vorgehen hat für Apple zwei Vorteile: Zum einen muss der Konzern nicht die Bilder seiner Nutzer selbst auswerten, sondern nur Werte abgleichen, der Inhalt der eigenen Bilder bleibt also geheim, die Privatsphäre gewahrt. Zum anderen muss Apple selbst keine Sammlung von kinderpornografischem Material zum Abgleich auf seinem Server lagern. Stattdessen wird die Datenbank von der amerikanischen Kinderschutzorganisation National Center for Missing and Exploited Children (NCMEC) zugeliefert. 

Um Falschmeldungen unschuldiger Nutzer durch zufällig gleiche Hashwerte zu vermeiden - Apple nennt dafür eine Wahrscheinlichkeit von eins zu einer Billionen -, hat der Konzern zudem eine weitere Sicherheitsmaßnahme eingebaut. Das System schlägt nicht sofort bei einem einzelnen Treffer Alarm, sondern erst wenn eine nicht näher genannte Mindestmenge erreicht wird. Erst dann wird der Account Mitarbeitern zur manuellen Prüfung markiert. Werden dann tatsächlich Missbrauchsdarstellungen bestätigt, gibt es eine Accountsperre und eine Meldung an die Strafverfolgungsbehörden.

Angst vor dem Dammbruch

Trotzdem sehen Privatsphäre-Advokaten die Maßnahme extrem kritisch. "Sie setzen damit ein (sehr einflussreiches) Signal, dass es in Ordnung ist, die Telefone der Nutzer nach verbotenen Inhalten zu durchsuchen", schrieb Informatik-Professor Matthew Green vom Johns-Hopkins-Institut bei Twitter. "Diese Nachricht senden sie an die Konkurrenz, an China und an Sie."

Kurzbefehl
Diesen Kurzbefehl fürs iPhone sollte jede Frau auf dem Nachhauseweg kennen.
© wochit
Für den dunklen Nachhauseweg: Diesen Kurzbefehl auf dem iPhone sollte jede Frau kennen

Die am häufigsten geäußerte Befürchtung betrifft die Datenbank für Hashwerte. Zwar wird sie aktuell von einer Nichtregierungsorganisation zu einem klaren Zweck zur Verfügung gestellt. Technisch ist es aber kein großer Aufwand, die Infrastruktur auch mit anderen Daten zu füllen, etwa mit Bildern von politischen Protesten oder die in vielen Staaten verbotene Darstellung homosexueller Sexualität. Ist die technische Voraussetzung geschaffen, dürfte es Apple schwerer fallen, sich gegen entsprechende Regelungen einzelner Staaten zu wehren, so die gängige Argumentation. "Das wird den Damm brechen - Regierungen werden das von allen verlangen" ist Green gegenüber "Financial Times" überzeugt.

"Das ist eine Hintertür"

Auch bei der Schutzfunktion beim Verschicken von möglichen Nacktbildern durch Minderjährige gibt es kritische Nachfragen. Nach Angaben von Apple wird sie automatisch aktiviert, wenn ein iPhone als Teil der Familienfunktion mit Kinderschutzmaßnahmen eingerichtet wurde. Verschickt man nun ein Bild, wird es als mögliches Nacktbild gescannt und die Kinder werden gewarnt, dass die Eltern nach dem Versenden informiert werden. Die Idee dahinter ist nachvollziehbar: Das Versenden von Nacktbildern Minderjähriger ist in den USA selbst dann illegal, wenn sowohl Sender als auch Empfänger selbst nicht volljährig sind, zahlreiche Jugendliche bekamen deshalb bereits ernste rechtliche Probleme.

Doch auch hier sehen Kritiker Missbrauchspotenzial. "Es ist unmöglich, ein Scan-System zu bauen, das nur für sexuelle Materialen von Kindern genutzt werden kann", kritisierte etwa die etablierte Electronic Frontier Foundation (EFF) bei Twitter. "Selbst eine gut gemeinte Umsetzung stellt die Grundzüge der Verschlüsselung in Frage und öffnet eine Hintertür für anderweitigen Missbrauch des Systems."

Nicht jeder geht so hart mit Apple ins Gericht. Das System wäre durch den Scan direkt auf dem Gerät weniger invasiv, als wenn die Bilder erst auf den Servern gescannt werden, erklärt etwa der Computersicherheits-Experte Alan Woodward von der Universität von Surrey gegenüber der "Financial Times". Andere Dienste wie Facebook würden erst beim Upload nach problematischen Inhalte suchen. Apples Ansatz sei da vorzuziehen, glaubt Woodward. "Dieses dezentralisierte Vorgehen ist das denkbar beste, wenn man in diese Richtung gehen will."

PRODUKTE & TIPPS