\r\n\r\n
フェイスブックは、初めてコミュニティ基準を全面的に公開しました。これは、Facebookとそのモデレーションチームが、どのコンテンツを削除し、ソーシャルネットワークにコンテンツを投稿したユーザーに何が起こるかを決定するために使用する内部ガイドラインです。
約20億人のユーザーを持つFacebookは、モデレートすべきコンテンツがたくさんあります。このため、ソーシャルネットワーク**には、コンテンツを審査し、それがFacebookのコミュニティ基準に違反しているかどうかを判断することを職務とするモデレーターが何千人もいます。
これで、モデレーターがどのようなガイドラインで判断しているかがわかりました。
Facebookは何年も前からコミュニティーの基準を設けていますが、実際には変わっていません。しかし、変わったのは、Facebookが何を許し、何を許さないかをオープンにしようとする姿勢です。しかし、Facebookの社内ガイドラインはすでに20ページ以上あるので、注意が必要です。
暴力の脅威やいじめ、自傷行為、**など、幅広い問題を扱っています。そして、これらの問題のいくつかについて、Facebookはそのルールを一貫して適用していないと見られているため、同社はコミュニティにその裏側を闇雲に見せたいと考えているのです。
Facebookが「コミュニティ基準プロフィール」で説明している通りです。
「私たちは、Facebookが人々のコミュニケーションの場として重要であることを認識しており、不正使用を防止するための私たちの役割を真剣に受け止めています。そのため、Facebookで何が許され、何が許されないかをまとめた「コミュニティ基準」を策定しています。"
Facebookはさらに、コミュニティ基準が「表現を奨励し、安全なコミュニティを作る」ためのものであり、Facebookが "コミュニティとテクノロジーや公共安全などの分野の専門家 "の助けを借りて作成したと説明しています。
Facebookは、コミュニティ基準に関するより多くの情報を明らかにすることに加え、「**/性的行為、ヘイトスピーチ、生々しい暴力が原因で削除された投稿」に対するアピールプロセスも開始しました。訴えが成功した場合、あなたの投稿、写真、動画は復活します。
取材するジャーナリスト以外の人が、本当にわざわざガイドラインを全部読むとは思えません。しかし、ソーシャルネットワークがあなたの投稿を削除したり、最悪の場合、あなたのFacebookの使用を禁止したりする場合に便利なはずです。
写真提供:Dr. Les Sachs/Flickr