Öffnet Apple die Büchse der Pandora?

Originaltitel: explosion-123690_1920 // Urheber: Gerd Altmann // Lizenz: Pixabay Lizenz // Quelle: Pixabay

Originaltitel: Apple Computer Logo rainbow.svg // Urheber: Apple Inc. / Rob Janoff // Lizenz: gemeinfrei (CC0 1.0 Universal) // Quelle: Apple Inc. / Wikipedia.org

Zusammengeführt und bearbeitet durch Dragondeal

Mit dem neuen Betriebssystem, dass ab Herbst zur Verfügung stehen soll, will Apple drei neue Funktionen (zunächst nur in den USA) einführen. Natürlich verfolgt Apple mit den neuen Funktionen ein hehres Ziel, wie so oft geht es um Kinder und Jugendschutz. Alle drei Funktionen sollen direkt auf den Endgeräten (iPhone, iPad, Apple Watch, Macs) ausgeführt werden. Die ersten beiden Funktionen betreffen iMessages und müssen von Eltern nach bisherigem Kenntnisstand explizit aktiviert werden. Ist das so geschehen, werden zum einen ankommende Bilder und zum anderen verschickte Bilder gescannt. Entdeckt der Algorithmus sexuelle Inhalte, wird zunächst ein Warnhinweis eingeblendet. Zudem können zusätzlich die Eltern informiert werden.


Das ist für den ein oder anderen Teenie sicherlich schon unangenehm, aber problematisch ist insbesondere die dritte Funktion namens neuralMatch. Mit ihr sollen alle(!) Bilder, die in die iCloud gehen, auf dem Endgerät mittels neuralHash-Verfahren überprüft und mit einer Kinderpornographie-Datenbank abgeglichen werden. Ab einem unbekannten Schwellenwert von Treffern können sich dann Apple-Mitarbeiter die Bilder anschauen und ggf die Behörden einschalten. Das Verfahren hat laut Kritikern (und davon gibt es viele) aber gleich mehrere Fallstricke. Erstens sind Hash-Werte nicht exklusiv. Bilder mit völlig verschiedenen Inhalten können den gleichen Hash-Wert haben. Zweitens kann Apple, wenn den Mitarbeiter bei Verdacht die Bilder anschauen können, ganz offensichtlich die Verschlüsselung der User umgehen und direkt auf die Kundengeräte zugreifen. Drittens ist es laut Matthew Green, Professor an der John Hopkins University und Verschlüsselungsexperte, durchaus möglich, unbedarften Usern passend gefakte Fotos unterzujubeln und so den Alarm auszulösen und diese User zu diskreditieren. Und viertens lässt sich dieses System natürlich auch auf ganz andere Inhalte anwenden, so z.B. Karrikaturen von autoritären Herrschern. Und Apple ist aufgrund von Geschäftsinteressen durchaus auch schon vor Regierungen eingeknickt, so wurde erst vor kurzem das soziale LGBTQ+-Netzwerk Hornet aus dem türkischen App-Store verbannt.


Persönliche Meinung: Alles, was wir hier bezüglich Datenschutz-Grundverordnung und Netzwerkdurchsetzungsgesetz diskutieren, ist Kinderkacke dagegen.