米Facebookは同社サービスに投稿される不適切なコンテンツの削減に努めているとしているが、どのような判断基準を用いているかは公表していない。英Guardianは、Facebookのコンテンツ監視に関する規約およびガイドラインを入手したと、現地時間2017年5月21日に報じた。

 Guardianが「Facebook Files」と呼ぶ一連の資料には、Facebookのコンテンツ監視要員(モデレーター)が暴力、ヘイトスピーチ、テロ、ポルノ、人種差別、自傷行為といった内容のコンテンツを削除するか判断するために使用する研修マニュアル、スプレッドシート、フローチャートなど100点以上が含まれる。

 あるモデレーターの話によると、規約およびガイドラインの一部は一貫性がなく、首をかしげるものもあるという。リベンジポルノなど性的なコンテンツに関する削除判断は最も面倒だという。

 また、「誰かトランプ(米大統領)を撃って」という発言の投稿は削除されるが、「殺してやる」や「失せろ、死ね」は単に嫌悪やフラストレーションを表すもので現実的な脅威ではないため削除されない。

 児童虐待(性的虐待を除く)の写真は削除されない場合がある。その理由は、該当する子どもを特定して救助するのに役立つケースがあるためとしている。

 自傷行為のライブストリーミングは遮断措置を受けない。これについてFacebookは、「精神疾患を持つ人々の投稿を検閲したり罰したりするつもりはない」と説明している。

 Guardianの取材によると、モデレーターは作業量があまりに多いため、わずか10秒で判断しなければならないことも頻繁にあるという。

 FacebookのMark Zuckerberg最高経営責任者(CEO)は今月、従来のモデレーター4500人に加え、新たに3000人を雇用して監視体制を強化する計画を明らかにしている(米CNET)。