Apple Against Child Abuse:iCloudの新しいハッシュシステム

児童虐待に対するアップル

Apple ライブラリ自体に統合されているさまざまな制御システムを使用して、児童虐待に取り組みたいと考えています。 これは、ユーザーのプライバシーを損なう可能性があるため、コメントするのは非常に複雑な問題です。 この記事では、Appleがオペレーティングシステムに統合することを計画している新しい追跡ハッシュのすべての詳細を説明します。

これはAppleのトレースハッシュがどのように機能するかです

児童虐待は間違いなく地球規模の問題であり、必要なすべてのツールを使って戦わなければなりません。 アップルは砂の粒を 児童ポルノを検索できるようにするために必要なツール。 これは非公式であるさまざまなレポートで公開されているものですが、すべてが今後数週間で最終的に発表されることを示しています。 このシステムは、デバイスクライアントのプライバシーセクションにインストールされます。 一連の ギャラリー内のすべての写真を確認するために、違法なコンテンツを表す指紋がダウンロードされます 。 その後、そのような重要な決定を単純なアルゴリズムの手に委ねないように、手動のレビューが実行されます。

アプリの写真

これらの手法は、エコシステムにとって新しいものではありません。 現在、これらはiCloudライブラリで使用されており、コンテンツに応じて写真を分類できます。 そのため、すべてのレビューは常に会社のサーバーではなくデバイスで行われ、プライバシーとセキュリティを保証しようとします。 iCloudがあなたの写真を保存するのをいつでも防ぐことができますが、このシステムをブロックする何か。 さらに、これらのツールは すでに実装されている機械学習機能を改善する はるかに適切な一般的な経験を提供します。 これらの機能はすべて児童ポルノとの戦いを目的としていますが、データプライバシーポリシーに関しては各国の法律を考慮に入れる必要があります。 写真のいずれかに肯定的な一致がある場合に従わなければならない法的チャネルも決定的です。

それは間違いのない、または完璧なシステムではありません

セキュリティ 専門家は、これらの報告を知った後、このシステムは間違いのないものではないと述べて、さまざまな声明を出しました。 多くの場合、ハッシュアルゴリズム 誤検知を引き起こす可能性があります 児童ポルノとして画像を検出することは、存在する可能性のある画像の多様性のために実行が複雑になる可能性があるためです。 このアルゴリズムシステムが持つ可能性のある地政学的影響も調査する必要があります。 情報が政府に利用可能になることを考慮に入れる必要があり、それが完全な民主主義がない国での政治活動を抑制するなどの他のタスクに使用できる理由です。

写真で写真からオブジェクトを削除する

現在、バックアップのためにiCloudにアップロードされている写真は、そのように暗号化されていませんが、暗号化された方法で保存されていることにも注意してください。 Appleは、このコンテンツを政府に復号化し、特定のユーザーのライブラリ全体を表示するためのキーをいつでも提供できますが、これはすべてのサービスで発生します。 しかし、前述したように、これはレポートに収集された最初のアイデアです。 これは、正式に発表された時点に根本的に変わる可能性があることを意味します。