ILLUSTRATION BY SAM WHITNEY; GETTY IMAGES
フェイスブックの元社員による内部告発により、Facebookがシリコンヴァレーから遠く離れた場所の危険なコンテンツの監視に苦労している状況が明らかになった。パキスタンやエチオピアで話される言語に対するモデレーションのアルゴリズムが不十分であると懸念する声が、社内から上がっていたのだ。また、アラビア語のさまざまな方言に対してシステムを調整するトレーニングデータが不足していることも憂慮されていた。訪れるのはメタヴァースの時代か、それとも「メタの時代」なのか:フェイスブックの社名変更がもたらす仮想世界のこれからFacebookを運営するメタ・プラットフォームズは現在、一部のタスクのための新しいAI(人工知能)モデレーションシステムを配備したと説明している。これは従来のシステムと比べて必要とするトレーニングデータがはるかに少ないことから、新しいガイドラインに即したモデレーション作業に素早く対応できるという。「Few-Shot Learner(FSL)」と呼ばれる新しいシステムは100言語以上に対応しており、テキストだけでなく画像でも機能するとメタは発表している。FSLを利用すれば、新しいモデレーションルールの自動適用にかかる期間を約6カ月から約6週間に短縮できると、Facebookは説明している。投稿内容が完全な嘘でなくても、新型コロナウイルスのワクチン接種を思いとどまらせるような内容のコンテンツを禁止するルールが今年9月に導入されたが、このルールを徹底させる上でもシステムが役立っているという。またFacebookは、今年前半に初めて配備されたFSLが、プラットフォーム内のヘイトスピーチの減少に寄与したとも説明している。ヘイトスピーチは2020年半ばから今年10月まで世界中で蔓延した。なお、Facebookは新システムの成果の詳細については、明らかにしていない。
この新システムは、Facebookにおけるコンテンツモデレーションを巡る問題をすべて解決するわけではない。だが、この問題に取り組む上で、FacebookがAIに大きく依存していることを示す一例になっている。Facebookは人々を結びつけると主張し、世界を席巻した。ところが、そのネットワークは同時に憎しみや嫌がらせ行為の温床にもなった。国連の報告によると、ミャンマーのイスラム教徒であるロヒンギャの虐殺も、Facebookが助長したとされている。Facebookは広大なネットワークを監視する唯一の実用的な方法がAIであると、長年にわたって主張してきた。しかし、最近のテクノロジーの進歩にもかかわらず、AIは人間のコミュニケーションの機微を理解するには、まだほど遠い。こうしたなかFacebookは最近になって、50種類以上の言語でヘイトスピーチやテロを助長するコンテンツを見つけるシステムを自動化したと発表した。しかし実際のところ、Facebookのサーヴィスは100種類以上の言語で利用されている。
次ページは:副作用にも懸念最終更新:WIRED.jpナビゲーションリスト
憎しみや嫌がらせ行為の温床カテゴリー
関連記事
ホット記事