Apple は数か月間、児童性的虐待資料 (CSAM) のスキャンに取り組んできました。 iCloudにアップロードされる場合、児童の性的虐待を描いた画像やビデオを識別する必要があります。その目的は、企業自身だけでなく法的当局によっても、より迅速な検出とその後の措置を確保することでした。
Apple、iCloud の CSAM スキャンを中止
スキャン自体は良いアイデアのように思えます。結局のところ、児童虐待を防止し、関連する画像の配布を防ぐことが目的です。それにもかかわらず、Apple の計画が知られるとすぐに批判が生じましたが、それには十分な理由がありました。

このような機能を使用するには、カリフォルニア州クパチーノの会社が、iCloud にアップロードするすべての素材を検査する必要があります。これが、疑わしい画像やビデオを確実に発見できる唯一の方法です。このような措置がユーザーのプライバシーに関して多大な懸念を伴うのは当然のことです。

「昨年提案した児童保護の取り組みについてのフィードバックを集めるために専門家と広範な協議を行った結果、2021年12月に初めて利用可能にした通信安全機能への投資をさらに深めている」と同社はWIREDに語った。
「また、以前に提案した iCloud 写真用の CSAM 検出ツールを追求しないことも決定しました。企業が個人データを精査しなくても子どもたちは保護できます。当社は今後も政府、児童擁護団体、その他の企業と協力して若者を保護し、プライバシーの権利を守り、インターネットを子どもたちと私たち全員にとってより安全な場所にしていきます。近い。”
アップル(WIREDより)

データ保護の促進
エドワード・スノーデンにとって、CSAMスキャンは「暗い未来の始まり」を意味していた。 2021年半ば、元NSA職員は「自社のデバイスにスパイウェアをこれほど堂々と公に配布した」企業は他にないと語った。データ保護の擁護者たちは、Apple が物議を醸している iCloud 用ツールの開発を中止したことに、ますます安心しているはずだ。

Apple が CSAM の蔓延に対抗するためのこれまでの取り組みをどの程度までさらに発展させるかは、現時点では不明です。 Googleが今後どのような措置を講じるのか、またどのような措置を講じるのかという問題もある。
