もっと詳しく
フェイスブックが顔認識AIの有色人種バイアス問題で謝罪、黒人が登場する動画に「霊長類」とタグ付け

Sundry Photography via Getty Images

FacebookのAIが、黒人男性が映っている動画に「霊長類」とラベル付けし、ユーザーに「さらに霊長類の動画を視聴しますか?」といった内容の定型メッセージを表示していたことがことがNew York Timesによって報道されています。Daily Mailが6月に投稿したこの動画には、警察官を含む白人が黒人男性と向き合って話しているという構図でしたが、霊長類(動物分類学上での霊長目)はそこには映っては居ません。

FacebookはすぐにAIによる投稿推薦機能をすべて無効にし、New York TimesにはAIの行動を「受け入れがたいエラー」と表現する謝罪の声明を出しました。「当社はAIを改善してきましたが、いまだ完璧ではない」としついつ、当面はこの機能を停止し「このようなことが二度と起こらないようにする」ため「さらに進歩させる」ための方法を研究する必要があるとしました。そして「このような不快なリコメンドをご覧になった方にお詫び申し上げます」と述べました。

AIによる顔認識は、しばしば有色人種においてその認識精度が低くなることが伝えられています。2015年にはGoogleのAIが黒人の写真の認識において「ゴリラが写っている」と答えを返し、Googleは後に謝罪しました。

米国では4月、米連邦取引委員会(FTC)が人種や性別の認識精度に偏りのあるAIツールがクレジットカードや雇用、住居ローン審査などに関する意思決定に使われれば、それは費者保護法に違反する可能性があると警告しています。

(Source:New York TimesEngadget日本版より転載)