もっと詳しく

 Appleは児童ポルノを摘発するための取り組みとして、スマートフォン「iPhone」内の画像を自動でスキャンし、該当画像があればAppleや法執行機関に報告する機能の実装を計画している。この機能の中核は、送信前にデータをスキャンしてテンプレートと照合する技術「クライアントサイドスキャン」(CSS:Client-Side Scanning)だ。この機能に対して専門家チームが論文を発表し、同社の取り組みと機能設計に問題があることを主張した。

 当初のAppleの計画では、画像スキャン機能は「知覚ハッシング」技術を利用して、クラウドストレージサービス「iCloud」内の画像と、政府が供給した指紋画像のライブラリを照合するものだった。知覚ハッシング技術とは、画像をビット単位で厳密に一致しているかどうかを調べるのではなく、類似性を調べる技術を指す。

 「NeuralHash」は、Appleが2021年8月に発表した、児童ポルノ画像を安全かつ確実に検出するための技術だ。だがNeuralHashが誤検知をすることや、この技術をリバースエンジニアリングして悪用可能なことを、同社の画像スキャン機能に批判的な研究者チームが実証した。

 研究者チームは、iPhoneのOS「iOS 14」に組み込まれたNeuralHashを2週間でリバースエンジニアリングした。その結果、画像スキャンの回避や誤検知が発生した。NeuralHashが全く異なる2つの写真画像を「一致する」と判断した例を、あるチームが示したことで、NeuralHashは評判を落とすことになる。その発表の1カ月後、AppleはNeuralHashの取り組みを後退させた。

 画像スキャン機能が利用する機械学習は「さらに脆弱(ぜいじゃく)だ」と、Appleを批判する論文を発表した専門家チームは考える。機械学習のモデルとトレーニングエンジンは、膨大な数のクライアントデバイスでの運用を通じて洗練される。これを悪用した攻撃者が、特別な細工を施したデータセットで、トレーニングアルゴリズムを汚染させる恐れがあるからだ。

 これらの理由から、専門家チームは「人々のプライバシーと安全を不当な危険にさらすことなく、法執行機関に大きなメリットを提供する機能を設計することは難しい」という見解で一致している。技術の「段階的変化」であるクライアントサイドスキャンに対して、専門家チームは「保護を著しく損ない、われわれ皆の安全と安心を揺るがす」と述べた上で、「これは危険な技術だ」と結論付ける。

Computer Weekly発 世界に学ぶIT導入・活用術

米国TechTargetが運営する英国Computer Weeklyの豊富な記事の中から、海外企業のIT製品導入事例や業種別のIT活用トレンドを厳選してお届けします。