もっと詳しく

Appleは 3 日、子供を性的虐待から守る取り組みの強化計画を延期すると発表した(Apple – Child SafetyThe Guardian の記事The Verge の記事9to5Mac の記事)。

Apple が 8 月初めに発表した計画では、子供が「メッセージ」アプリで性的に露骨な写真を送受信しようとすると警告したり、iCloud 写真へ写真を保存する際に既知の CSAM 画像のハッシュと照合したりといった児童性的虐待素材 (CSAM) の拡散防止を取り組みの中心としていた。

写真のスキャンはデバイス上で行われるが、誤検知や悪用を懸念する声が数多く出ている。そのため Apple では今後数か月かけ、子供を守るための非常に重要な機能をリリースする前にさらなる情報収集と改善を行うとのことだ。

すべて読む

| アップルセクション

| セキュリティ

| YRO

| スラッシュバック

| アップル

| プライバシ
|
この記事をTwitterでつぶやく
この記事をFacebookで共有
この記事をGoogle Plusで共有
このエントリーをはてなブックマークに追加

関連ストーリー:

英国、オンラインでの子供のプライバシー保護を目的とする法律が施行
2021年09月05日

Apple、iCloud メールでは既に児童性的虐待素材をスキャンしている
2021年08月25日

デバイス上で児童性的虐待コンテンツをスキャンするAppleの計画に反対する公開書状、7,000人以上が署名
2021年08月13日

Apple、波紋を呼んだ児童虐待画像(CSAM)の検出技術に関してFAQを公開
2021年08月12日

Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化
2021年08月08日