【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

 先にAppleは、同社の端末を使う児童の安全性の向上を目的とした一連の新機能を発表した。これらの機能は、未成年の保護と児童性的虐待画像の拡散を抑えることをも目的としており、良い機能として受け入れられているものの、アップルが採用しているやり方に疑問の声が上がっている。 Read More

アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

 Apple(アップル)は、子どもがMessages(メッセージ)アプリを通じて性的に露骨な写真を送受信した場合、子どもと親に警告する新しいツールを、今年後半に導入すると発表した。この機能は、アップルのプラットフォームやサービスにおける児童性的虐待素材(Child Sexual Abuse Material:… Read More

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

 Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessageアカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。 Read More