In den letzten Tagen ging ein großer Aufschrei durch Medien. Grund dafür ist niemand anderes als Apple, das mit seinen neuen Scan-Methoden wohl einen gefährlichen Präzedenzfall für die Überwachung von Nutzern schafft. Denn mit iOS 15 sollen zwei neue Funktionen ihren Weg auf alle iOS-Geräte finden: Einerseits sollen sämtliche Fotos der Nutzer:innen automatisch auf Kinderpornografie überprüft (sofern iCloud aktiv ist), andererseits sollen auch iMassage-Nachrichten auf Erwachseneninhalte kontrolliert werden.
Apple selbst gesteht sich nach wie vor keine Fehler ein, selbst nachdem Mitarbeiter:innen und Bürgerrechtsorganisationen den Schritt scharf kritisierten. Man arbeite gerne mit Sicherheitsforschern zusammen um Probleme und Fehler in dem System zu finden. Das widerspricht sich aber mit rechtlichen Schritten, die Apple seit einigen Monaten gegen das Tool Corellium unternimmt. Denn Corellium ermöglicht es Forschern erst auf Fehlersuche zu gehen.
Denn um das Betriebssystem auf Herz und Nieren prüfen zu können, müssen Experten bisher entweder ein iPhone aus dem Handel jailbreaken oder aber Software zur Virtualisierung nutzen. Letzteres bietet Corellium an und erleichtert derlei Prüfungen ungemein. Apple möchte das Tool verbieten lassen, da es das eigene Copyright verletzt, Corellium beruft sich darauf ein Produkt anzubieten, das den Regelungen von „Fair Use“ folgt. So oder so könnte ein Verbot einen Rückschlag für die Sicherheit von iOS bedeuten.
Denn zwar gibt es auch offizielle Programme von Apple, bei denen Sicherheitsforscher mit Tools des Unternehmens Lücken finden und melden können, die Regelungen und Rahmenbedingungen sind trotzdem sehr strikt und stärken nicht gerade Vertrauen in die Software. Apple schlägt daher einen nicht nachvollziehbaren Weg ein und möchte transparent sein, gleichzeitig aber alles unter Kontrolle behalten. Das passt gerade beim Aufdecken von Lücken nicht zusammen.
[mg_blockquote]With their left hand, they make jail-breaking difficult and sue companies like Corellium to prevent them from existing. Now with their right hand, they say, ‘Oh, we built this really complicated system and it turns out that some people don’t trust that Apple has done it honestly—but it’s okay because any security researcher can go ahead and prove it to themselves.’[/mg_blockquote]Eigene Meinung:
Die aktuelle Vorgehensweise von Apple schockiert mich ein wenig. In der Vergangenheit stellte sich der Konzern meist als Retter der Privatsphäre vor die Öffentlichkeit, das CSAM-System verfolgt zwar einen guten Zweck, die Nachteile könnten aber langfristig den Vorteilen überwiegen. Gerade unabhängige Sicherheitsforscher könnten beim Schließen von Lücken helfen, wird denen aber der Weg dorthin versperrt, dann kann sich Apple nur noch selbst helfen. Es bleibt also spannend, ob iOS 15 mit dem neuen System kommt oder aber Apple langfristig zurückrudern wird.