もっと詳しく

Apple が子供を守る取り組みに関する Web ページで、児童虐待コンテンツ (CSAM) に言及する記述をすべて削除している (Mac Rumors の記事Internet Archive 新旧比較)。

8 月に公開されたこの Web ページは米国向けで、Apple デバイスで子供を性的虐待から守る取り組みの強化を紹介している。取り組みの中心となるのは CSAM の拡散防止であり、iOS / iPadOS デバイスで写真を iCloud 写真へ保存する際にデバイス上でスキャンを行うなどの対策が示されていた。しかし、プライバシーなどの面で強い懸念が示され、9 月には計画延期が発表された。

今回の変更では CSAM への言及がすべて削除されたことに伴い、iCloud 写真に写真を保存する際の 対応も削除された。また、検索に関する取り組みでも CSAM への言及が削除されたほか、「メッセージ」アプリで検出する写真の種類が「露骨に性的な写真 (sexually explicit photos)」から「ヌード写真 (nudity)」に変更されている。

すべて読む

| アップルセクション

| スラッシュバック

| アップル

| プライバシ
|
この記事をTwitterでつぶやく
この記事をFacebookで共有
この記事をGoogle Plusで共有
このエントリーをはてなブックマークに追加

関連ストーリー:

Apple、デバイス上での児童性的虐待素材スキャンなどの計画を延期
2021年09月05日

Apple、iCloud メールでは既に児童性的虐待素材をスキャンしている
2021年08月25日

デバイス上で児童性的虐待コンテンツをスキャンするAppleの計画に反対する公開書状、7,000人以上が署名
2021年08月13日

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開
2021年08月12日

Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化
2021年08月08日