FacebookはAIを使用してコンテンツをすばやくモデレートします

FacebookはAIを使用してコンテンツをすばやくモデレートします

ソーシャルネットワークのFacebookは、新しいマシン学習アルゴリズムを使用して、ユーザーが投稿したコンテンツをモデレートします。アルゴリズムの最初のタスクは、その後の削除のために最もトラウマ的な出版物を見つけることです。

今日、ソーシャルメディアのルールに違反するコンテンツ(スパム、憎悪の扇動、暴力の宣伝など)は、通常、ユーザー自身または機械学習アルゴリズムによってタグ付けされています。システムは、プラットフォームのルールに違反する投稿を削除したり、このコンテンツを公開したユーザーのアカウントをブロックしたりするなど、最も明白なケースを自動的に処理します。残りのケースは、モデレーターによるさらに詳細な検証のためにキューに入れられます。

Facebookには現在、世界中に約15,000人のモデレーターがいます。ソーシャルネットワークは、プラットフォームの管理がそれらを十分にサポートしておらず、より多くのスタッフを雇用していないという事実について繰り返し批判されてきました。モデレーターの仕事は、苦情のある投稿を整理し、ソーシャルネットワークのルールに違反しているかどうかを判断することです。

以前は、モデレーターは投稿が公開されたときにレビューしていました。 Facebookは、より多くのリーチを獲得し、したがってより多くの害を及ぼすことができる投稿を最初に確認するために、アプローチを変更することを決定しました。人工知能(AI)モデルは、最も有害な出版物を選択するために3つの基準を使用します。それは、バイラル性、出版物のストーリー、およびルールに違反する可能性です。その後、AIはそのような出版物にマークを付けて、モデレーターの検討順序で上位に上がるようにします。

「ソーシャルネットワークのルールに違反するすべてのコンテンツは引き続き人々に表示されますが、新しいシステムを使用すると、このプロセスでより効果的な優先順位付けが可能になります」とFacebookにコメントしました。

ソーシャルネットワークによると、新しいアプローチは、より迅速に対応し、広範囲に及ぶ出版物の規則違反に対処するのに役立ちます。