Apple sagt kinderpornografischen Inhalten in den USA den Kampf an. Der Tech-Konzern will mit dem System „neuralMatch“ Geräte und iCloud unter die Lupe nehmen und verspricht, den Datenschutz einhalten zu wollen.
Mit „neuralMatch“ gegen Kinderpornografie
Apple will ab Herbst 2021 die Geräte seiner Nutzer:innen sowie die in der iCloud gespeicherten Dateien auf kinderpornografisches Material prüfen. Das berichtet die Financial Times. In der Zwischenzeit sind die Fakten bestätigt worden.
Dafür hat der Tech-Konzern das System mit dem Namen „neuralMatch“ entwickelt. Entdeckt das System illegale Bilder, werden automatisch menschliche Prüfer benachrichtigt. Diese sollen dann „die Strafverfolgungsbehörden kontaktieren“.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Mitarbeiter (m/w/d) Marketing mit Schwerpunkt Social Media und Videoproduktion meinestadt.de in Weimar |
||
Social Media Manager (m/w/d) IG Metall in Frankfurt am Main |
Wie funktioniert neuralMatch?
Apple hat neuralMatch für den Einsatz mit 200.000 Bildern des National Center for Missing & Exploited Children trainiert.
Für die Erkennung von problematischem Material will Apple Hashes einsetzen. Damit können Bilder auf iPhones oder in der iCloud mit bereits bekannten, kinderpornografischen Bildern abgeglichen werden.
Laut der Financial Times will Apple „jedes Foto, das in den USA auf iCloud hochgeladen wird, mit einem Safety Voucher“ versehen. Darin verschlüsselt das System, ob es sich bei der Datei um einen verdächtigen Inhalt handelt oder nicht.
Von Apple über eine NGO zu den Strafbehörden
Kommt es hier zu Übereinstimmungen, kennzeichnet Apple das jeweilige verdächtige Bild mit einem Zertifikat. Ist dies der Fall, darf Apple die Dateien zur weiteren Prüfung öffnen.
Jedoch kommt es erst zu einer Prüfung, wenn eine bestimme Anzahl erreicht wird – wie hoch diese genau ist, hat der Konzern nicht bekanntgegeben.
Kommt es bei einer Prüfung zu einer Übereinstimmung, informiert Apple die NGO National Center for Missing & Exploited Children. Die wiederum informiert dann die Strafverfolgungsbehörden.
Apple will Nutzer:innen, bei denen der Konzern kinderpornografisches Material entdeckt, nicht informieren. Allerdings verlieren die User den Zugriff auf ihr Konto bei Apple.
Apple bereitet Geräte weltweit vor
Die Checks sollen zwar zunächst nur in den USA durchgeführt werden. Apple bereitet sich aber mit dem Update auf die Betriebssysteme iOS 15, iPadOS 15, watchOS 8 und macOS Monterey weltweit auf eine mögliche Einführung vor.
Denn mit den Updates auf die neuen Betriebssysteme landet die Hashes-Datei auf allen Apple-Geräten weltweit. Doch ob und wann die Überprüfung auch außerhalb der USA eingeführt wird, steht noch nicht fest.
Auch interessant: