Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessageアカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。 Read More
Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessageアカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。 Read More