Apple gegen Kindesmissbrauch: Neues Hash-System in iCloud

Apple gegen Kindesmissbrauch

Apple will Kindesmissbrauch mit verschiedenen Kontrollsystemen bekämpfen, die in die Bibliothek selbst integriert sind. Dies ist eine wirklich komplizierte Angelegenheit, die zu kommentieren ist, da sie die Privatsphäre der Benutzer untergraben kann. In diesem Artikel verraten wir Ihnen alle Details zum neuen Tracking-Hash, den Apple in das Betriebssystem integrieren möchte.

So würde Apples Trace-Hash funktionieren

Kindesmissbrauch ist zweifellos ein globales Problem, das mit allen notwendigen Mitteln bekämpft werden muss. Apple will sein Sandkorn mit dem notwendigen Tools, um nach Kinderpornografie suchen zu können. Dies wurde in verschiedenen inoffiziellen Berichten veröffentlicht, obwohl alles darauf hindeutet, dass es in den kommenden Wochen endlich bekannt gegeben wird. Dieses System wird auf dem Geräte-Client im Datenschutzbereich installiert. Eine Menge von Fingerabdrücke, die illegale Inhalte darstellen, werden heruntergeladen, um jedes Foto in der Galerie zu überprüfen . Anschließend wird eine manuelle Überprüfung durchgeführt, um eine so wichtige Entscheidung nicht einem einfachen Algorithmus zu überlassen.

App-Fotos

Diese Techniken sind für das Ökosystem nicht neu. Derzeit werden sie in der iCloud-Bibliothek verwendet, um die Fotos je nach Inhalt kategorisieren zu können. Aus diesem Grund wird die gesamte Überprüfung immer auf dem Gerät und nicht auf den Servern des Unternehmens durchgeführt, um Datenschutz und Sicherheit zu gewährleisten. Obwohl Sie immer verhindern können, dass iCloud Ihre Fotos speichert, würde dies dieses System blockieren. Darüber hinaus können diese Tools Verbesserung der bereits implementierten Machine-Learning-Funktionen eine viel adäquatere allgemeine Erfahrung bieten. Obwohl all diese Funktionen auf die Bekämpfung von Kinderpornografie ausgerichtet sind, müssen die Rechtsvorschriften der einzelnen Länder hinsichtlich der Datenschutzpolitik berücksichtigt werden. Ausschlaggebend sind auch die Rechtswege, die bei einer positiven Übereinstimmung in einem der Fotos zu befolgen sind.

Es ist kein unfehlbares oder perfektes System

Sicherheit Experten haben nach Kenntnis dieser Berichte unterschiedliche Aussagen gemacht, die besagten, dass dieses System nicht unfehlbar ist. In vielen Fällen Hashing-Algorithmen kann ein falsch positives Ergebnis geben da die Erkennung eines Bildes als Kinderpornografie aufgrund der großen Vielfalt von Bildern, die möglicherweise existieren, komplex sein kann. Auch die geopolitischen Implikationen, die dieses Algorithmensystem haben kann, sollten untersucht werden. Es muss berücksichtigt werden, dass die Informationen den Regierungen zur Verfügung gestellt werden und daher für andere Aufgaben verwendet werden können, beispielsweise zur Unterdrückung des politischen Aktivismus in Ländern, in denen es keine vollständige Demokratie gibt.

Eliminieren Sie Objekte aus Ihren Fotos mit Fotos

Es ist auch zu beachten, dass derzeit die Fotos, die zur Sicherung in die iCloud hochgeladen werden, nicht als solche verschlüsselt, sondern verschlüsselt gespeichert werden. Apple kann einer Regierung jederzeit die Schlüssel zum Entschlüsseln dieser Inhalte zur Verfügung stellen und die gesamte Bibliothek eines bestimmten Benutzers anzeigen, obwohl dies bei allen Diensten der Fall ist. Aber wie bereits erwähnt, ist dies eine erste Idee, die in einem Bericht gesammelt wurde. Dies bedeutet, dass es sich radikal ändern kann, wenn es offiziell bekannt gegeben wird.