Facebook有史以来第一次,公布了他们对删除不良内容的内部指南。过去一年中,Facebook深陷麻烦,而本月初,Facebook的CEO马克·扎克伯格在国会听证时,大部分问题都是关于删除内容的政策。公布对于监管不良内容的内部指南是Facebook向更加透明化走出的又一步。

如果你懒得读完这份27页长的文件,我们帮你总结了一下这份文件的要点。

审查员

Facebook披露了他们依靠人工和人工智能的结合来审查并删除有害信息。现在,有超过7500名人工审查员在Facebook工作,比去年这个时候增加了40%的人工审查员,如今,这些审查员以40种不同语言在全球工作。

Facebook由于在非英语地区的审查制度不严格而收到诸多责难,比如之前在缅甸的罗星亚人穆斯林的种族屠杀问题上,Facebook因为他们的政策不周受到了很多批评。以更多语言工作代表Facebook会更有效地监测全世界范围内的内容。这非常重要,尤其是在有些地区,Facebook就等于因特网的全部,就像在中国,微信是统治市场的一样。

政策

这份文件终于向用户提供了Facebook公司对于一些言论的定义,比如暴力威胁、仇恨言论、性别剥削这些有害内容。他们也提供了一定的背景信息来解释这些指南背后的合理性。

Facebook全球政策管理主管Monika Bicker说,“我们被问到的一个问题是,我们怎样决定Facebook允许怎样的内容。这些决定是我们需要做的决定中最重要的,因为他们对于保证Facebook既有一个安全的环境,也是一个可以自由表达不同观点的地方非常关键。”

Facebook表示他们公布内部指南有两个出发点,第一个原因是帮助人们理解在某些事情上的准线在哪里,第二个原因是Facebook希望得到用户和不同行业的专家的反馈,可以让他们改善指南。

审查过程

除了公布他们的内容审查的内部准则外,Facebook还拱了他们将更新审查过程。明年,用户将可以有权对被删除内容的决定提出申诉。一旦申诉,Facebook社区团队中的人工审查员将对申诉内容进行审查,如果人工审查员判断之前删除内容出错,那么他们将通知用户,并恢复原帖内容;审查过程也会被延长,原帖将会保持原样以保证申诉。

Bickert说用户将会有机会可以向Facebook说,“再看一遍这个内容”。我们希望新的社区标准能让用户拥有工具,能够决定是否需要申诉。

论坛

为了能够征求更多的反馈,Facebook也公布了他们将在这个夏天主办的一系列公众峰会。这系列峰会命名为“Facebook论坛:社区标准”,将在德国、法国、英国、印度、新加坡、美国和其他国家剧版。Facebook声明说今后将每周或每隔两周更新一次内容审查指南。这些更新将会反映用户和行业专家给出的反馈,做出的变更也会出现在政策的公共版本中。

根据Bicker所说,Facebook的高管层从之前就想向公众分享内部指南,延迟的原因是因为他们想重新组织一下指南,将其翻译成大众可以理解的语言。

结论

尽管Facebook正越来越透明化,公众对于这家科技巨鳄任然缺乏那么点信任。当他们的用户像很多人预言的一样纷纷离去,顾忌和疑心萦绕着Facebook。明确的公布内部指南只是一个开始,而现在既然Facebook已经清楚地把规则都列出来了,接下来他们需要做的就是严格地执行它们了。