Appleは児童に対する性的搾取コンテンツの拡散を防止するために、ユーザーのiCloud Photosに保存されている「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」画像をスキャンし、公的機関に報告するという新しい安全機能を2021年8月5日付けで発表しました。この新機能が「ユーザーのプライバシーを損なう」と大きな反発を呼んだことを受け、Appleは新機能のリリースを延期すると発表しました。 続きを読む…