モバイル

Appleが非難殺到の「iPhone内の児童ポルノ検出システム」について詳細説明資料を新たに公表


Appleが新たに発表した「CSAM(児童性的虐待資料)拡散防止のための試み」に対して非難が殺到したことを受け、新たに詳細説明資料を発表しました。報道によると、Appleは今回の取り組みについて「誤解を受けている」と判断しているとのことです。

Apple to only seek abuse images flagged in multiple nations - Security - Cloud - Software - iTnews
https://www.itnews.com.au/news/apple-to-only-seek-abuse-images-flagged-in-multiple-nations-568625

Apple Outlines Security and Privacy of CSAM Detection System in New Document - MacRumors
https://www.macrumors.com/2021/08/13/apple-child-safety-features-new-details/

2021年8月5日、Appleは新たなCSAM拡散防止のための試みとして、「メッセージアプリで性的に露骨な画像を送受信する際には警告を表示する」「SiriでCSAMに関連する検索を行った際には警告を表示する」「iCloudに保存された画像をスキャンして既知のCSAM画像が存在するかどうかをチェックする」という3種の施策を導入する予定だと発表しました。

AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE


しかしこの3種のうち、iCloudに保存された画像をスキャンするという施策について、ユーザーのセキュリティやプライバシーを損なうものであると非難が殺到。社外だけではなく社内からも反発の声が挙がったほか、「画像照合を行うデータベースをCSAM画像のものから置き換えることによって、事実上どんな種類の画像をも検閲するシステムになりかねないのでは」という批判も大きく報じられました。

Appleの「iPhoneの写真やメッセージをスキャンする施策」が世界各国の監視&検閲の強化につながるとの指摘 - GIGAZINE


こうした声を受け、Appleは既存の公式発表公式FAQに加え、新たに「詳細説明資料」を発表しました。

Protections Against Attacks and Misuse of Apple's Child Safety Features - Security_Threat_Model_Review_of_Apple_Child_Safety_Features.pdf
(PDFファイル)https://www.apple.com/child-safety/pdf/Security_Threat_Model_Review_of_Apple_Child_Safety_Features.pdf


この詳細説明資料の内容は基本的にはすでに発表済みの公式発表と同様で、主には問題の施策は「iCloudのフォトライブラリーの写真を実際にスキャンするのではなく、写真のフィンガープリントを既知の児童ポルノ画像のフィンガープリントと照合する」というものでしたが、新たに「人間による目視確認を実施するためのフィンガープリント一致枚数のしきい値は30枚を予定しているが、今後このしきい値は少なくなる可能性がある」「本機能をサポートするiOS・macOSシステムの各バージョンについて、CSAMハッシュデータベースのルートハッシュなどを含むサポートドキュメントをウェブサイト上で公開する」といった内容が追加されています。

2021年8月13日にThe Wall Street Journalが行ったソフトウェアエンジニアリング担当上級副社長のクレイグ・フェデリギ氏のインタビューで、同氏は問題の施策について「人々に懸念を与えた最大の要因は、同社によるその計画の発表方法がまずかったことにある」と語っており、今回の発表は改めて計画の詳細を説明することでプライバシーなどの問題に対する懸念を払拭する目的があるとみられています。

この記事のタイトルとURLをコピーする

・関連記事
AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE

Appleが発表した児童の性的搾取を防ぐための「iPhoneの写真やメッセージをスキャンする取り組み」は国ごとの法律にのっとり行われる予定 - GIGAZINE

Appleが「児童性的虐待資料検出はプライバシーを損なうものではない」とFAQを発表 - GIGAZINE

Appleが表明した「iPhoneの写真・メッセージスキャン」については社内からも懸念の声が挙がっている - GIGAZINE

Appleの「iPhoneの写真やメッセージをスキャンする施策」が世界各国の監視&検閲の強化につながるとの指摘 - GIGAZINE

in モバイル,   ネットサービス, Posted by darkhorse_log

You can read the machine translated English article here.