iOS 16 Beta 4

„Nacktfotoscanner“ für iPhones startet in Deutschland

11.08.2022 von Thomas Hartmann
Die aktuelle vierte Beta-Version für iOS 16 bringt unter anderem Änderungen für deutsche User – vorerst wird das Update jedoch nur für Entwickler freigeschaltet, die sich für das Testprogramm angemeldet haben.
Apple hat ein neues Feature eingeführt, um Kinder vor sexuellen Inhalten zu schützen.
Foto: Rawpixel.com / Shutterstock

Dies berichtet Research Snipers. Demnach hat Apple nun auch den sogenannten Nacktscanner für Fotos in der Nachrichten-App freigegeben, der als Kindersicherung innerhalb der Familienfreigabe funktioniert und dafür eigens in den Einstellungen freigeschaltet werden muss. Apple startete diese Option jetzt für User der iOS 16 Beta in Deutschland, aber auch in Frankreich.

„Spiegel Online“ informiert zu Verfahrensweise und Hintergründen: Der sogenannte Nacktscanner benachrichtigt nach Freischaltung das Kind selbst, wenn es über die Nachrichten-App ein als von Apple eingestuftes Nacktbild empfängt – dann werde dieses verwischt und es erscheinen weitere Vorschläge, wie damit umzugehen wäre. Der Kontakt lasse sich durch das Kind blockieren, es kann jemand anderen informieren oder auch nach ausdrücklicher Bestätigung doch den Inhalt ansehen. Versucht das Kind dagegen selbst, ein als Nacktfoto eingestuftes Bild zu verschicken, erhält es eine Warnung.

Apple wolle damit verhindern, dass jemand Kinder überredet, eigene Nacktfotos zu versenden oder sich solche Bilder anzusehen. Dies dient der Prävention von sexuellem Missbrauch und sogenanntem „Cybergrooming“, bei dem Pädokriminelle Minderjährige gezielt auf sozialen Netzwerken ansprechen und motivieren wollen, Bilder von sich zu verschicken. Auch dazu hat „Spiegel Online“ in seiner Rubrik „Netzwelt“ einen ausführlichen Artikel.

Scanner nur lokal auf dem iPhone

Die entsprechende Überprüfung der Bilder soll ausschließlich lokal auf dem iPhone erfolgen, „Client-Side“ Scanning genannt. Weder Apple noch die Eltern sollen automatisch erfahren, ob die Software fragliches Material identifiziert habe. Was Apple selbst unter „Nacktheit“ genau versteht, ist nicht ganz klar – im Herbst des vergangenen Jahres sei noch von „explizit sexuellen Fotos“ die Rede gewesen. Apple habe nun auf Nachfrage konkretisiert, dass auch die bloße Sichtbarkeit von Genitalien für einen Hinweis ausreichen könnte.

Kontroverse über iCloud-Kinderpornografie-Scanner

Bereits vergangenes Jahr wurde über den sogenannten Kinderpornografie-Scanner von Apple, der mit iOS 15.2 dann aber schon „entschärft“ tatsächlich auftauchte, kontrovers diskutiert. Auch hier gibt es bereits eine optional aktivierbare Nacktscanner-Funktion. Doch ursprünglich ging es darum, dass Fotos, die etwa automatisch in der iCloud gespeichert werden, mit einer Art Datenbank, die wiederum nur auf dem iPhone vorliegen sollte, abgeglichen würde und nach entsprechenden Kriterien Alarm ausgelöst werden konnte: Der Inhalt sollte manuell überprüft und das Konto eines Users gesperrt werden. Apple hätte die Bilder dann an das National Center for Missing & Exploited Children gemeldet, das sie an die Strafverfolgungsbehörden weiterleitete. Kritik kam unter anderem auf, weil repressive Staaten dies auch zur Überwachung von Bildern Oppositioneller und anderem hätten missbrauchen können, so jedenfalls die Befürchtung. Apple hat das abgestritten. Wir berichten. (Macwelt)