Appleは、児童の性的な虐待を防止するため、児童の性的な画像(Child Sexual Abuse Material:CSAM)などを検出する3種類の機能を、同社製品であるiOS 15、iPadOS 15、watchOS 8、およびmacOS Montereyに、2021年後半より順次実装していくと発表した。
Appleは、児童の性的な虐待を防止するため、児童の性的な画像(Child Sexual Abuse Material:CSAM)などを検出する3種類の機能を、同社製品であるiOS 15、iPadOS 15、watchOS 8、およびmacOS Montereyに、2021年後半より順次実装していくと発表した。