headless 曰く、
Apple が 9to5Mac の Ben Lovejoy 氏に対し、iCloud メールでは既に児童性的虐待素材 (CSAM) のスキャンを実施していると伝えたそうだ(9to5Mac の記事)。
この話のきっかけとなったのは Epic Games が Apple を訴えている裁判で、提出された証拠の山から The Verge が発見した Appleの Eric Friedman 氏の発言だ。Friedman 氏は機械学習により詐欺や不正からユーザーを守る Fraud Engineering, Algorithms, and Risk (FEAR) の責任者。Friedman 氏は昨年 2 月、Apple がプライバシーを重視するあまり児童ポルノの配布に最も適したプラットフォームになっているなどと Apple 内部の iMessage スレッドで述べている。
そのため、まだ CSAM をスキャンしていないならなぜ断言できるのかと Lovejoy 氏は疑問を呈していた。Lovejoy 氏の調査によると、Apple が先日公開した CSAM スキャンを含む子供を守る取り組みのページとは別に、子供を守る取り組みで児童虐待画像をスキャンすると述べる法的情報ページを最近まで公開(Internet Archive のスナップショット)していたことが判明する。また、昨年 1 月の The Telegraph 記事では、Apple のプライバシー責任者 Jane Horvath 氏 がこのページと同様の説明をしている。
Apple が Lovejoy 氏に伝えたところによれば、iCloud メールで 2019 年から CSAM のスキャンを実施しているが、iCloud 写真ではまだ実施していないという。そのほかのデータについても非常に小規模なスキャンを実施しているとも述べており、具体的なデータの内容には言及しなかったものの、iCloud バックアップは含まれないと明言したそうだ。
Apple による CSAM の通報件数は年に数百件の規模であり、Friedman 氏の発言は具体的な数字を根拠にしたものではなく、iCloud 写真で CSAM が野放しになっている可能性を指摘したものではないかと Lovejoy 氏は考えているようだ。
| YRO
| クラウド
| アップル
| プライバシ
|
関連ストーリー:
デバイス上で児童性的虐待コンテンツをスキャンするAppleの計画に反対する公開書状、7,000人以上が署名
2021年08月13日
Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開
2021年08月12日
Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化
2021年08月08日