Apple will den Schutz von Kindern und Jugendlichen auf seinen Geräten mit neuen Funktionen verbessern. Unter anderem wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt.
Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt, wie Apple erläuterte. Der Konzern erfährt nichts davon.
Eine weitere Neuerung, die im Herbst zunächst nur für US-Nutzer eingeführt wird, soll helfen, kinderpornografisches Material im Besitz der Nutzer zu identifizieren. Dabei werden Fotos auf den Geräten von Nutzern vor dem Hochladen in Apples Online-Speicherdienst iCloud mit einer Datenbank bereits bekannter kinderpornografischer Bilder abgeglichen. Für den Abgleich soll auf die Geräte eine Datei mit sogenannten «Hashes» solcher Fotos geladen werden – eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich ein ähnliches Foto erkennen, es kann aus dem Hash aber nicht wiederhergestellt werden.
Bei einer Übereinstimmung wird ein verdächtiges Bild mit einem Zertifikat versehen, dank dem Apple es nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Wird dabei tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann.
Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems und wird auf alle iPhones geladen, auf denen diese Version der Software installiert wird. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.