Facebook正在继续移动,以加强其平台,以便与其用户和广告商建立信任。
仅在2019年,他们就在打击虚假信息和提升平台发布内容的权威性方面取得了巨大进展。
本周,他们在自己的Newsroom博客上发布了一系列声明,说明他们已经采取的措施,以及计划采取哪些措施来限制“假新闻”、仇恨言论和其他违反Facebook规定的内容的传播社区标准。
从本质上讲,Facebook计划先建立“删除、减少、通知”的流程宣布在2016年。
为了更好地理解“三步走”计划的基本内容,以下是Facebook最初发布公告时制作的一段简短视频:
以下是Facebook希望如何扩展这一过程,以加强其控制平台上误导或有害内容的能力:
删除有害内容
虽然Facebook已经采取了很多措施来防止违反社区标准的内容被发布,但仍有一些会被忽略。
当这种情况发生时,目标是尽可能快地捕获并移除它——但这样做存在挑战。
这个问题在封闭的Facebook群组中最常见。Facebook确实有系统可以捕获约95%的此类违规行为,但它的团队需要做更多的工作,让Groups对维护Facebook社区标准负责。
作为回应,他们已经提出了两个新的标准。
首先,他们添加了一个“最近更新”标签到他们社区标准地点。此选项卡将显示在过去两个月内添加或更新的任何标准。
由于Facebook的条款经常更改,因此用户能够获得最新的信息,了解哪些内容被认为是违规行为,这一点非常重要。
为了提高依从性,Facebook让违反社区标准的群组管理员承担更多责任。
“从未来几周开始,当审查一个小组决定是否将其撤下时,我们将审查该小组的管理员和主持人的内容违规,包括他们已经批准的成员的帖子,作为该小组违反我们标准的一个更强烈的信号。”
此外,Facebook还推出了一款名为“群体质量”的新工具,以提高其社区标准的透明度。
该功能将显示已被删除或标记违规内容的历史概况,并将显示群组中发布的任何虚假新闻的一个区域。目前还不清楚是否只有组管理员可以看到这个功能,或者所有小组成员可以查看它。
减少误导内容
本节是指问题或烦人的内容,如“Clickbit,垃圾邮件或假新闻”,但不一定违反Facebook的社区指南。
例如,你可以分享一篇关于“科学研究”的博客文章,内容是关于为什么地球是平的,即使内容不真实,也不违反Facebook的标准。
这片介于误导和真正有害之间的“灰色地带”,正是Facebook在限制错误信息在其平台上传播方面如此艰难的原因。
而虚假新闻在社区指导方针中引用,它还解释了为什么这一直是平台的斗争,以及Facebook如何接近这个问题:
“减少Facebook上虚假新闻的传播是我们认真对待的一项责任。我们也认识到,这是一个具有挑战性和敏感性的问题。我们希望帮助人们在不扼杀富有成效的公共话语的情况下保持消息灵通。假新闻和讽刺或观点之间也有一条微妙的界线。基于这些原因,我们不会从Facebook上删除虚假新闻,而是通过在动态消息流中显示较低的虚假新闻,大幅减少其分布。”
与普遍的看法相反,言论自由的权利并不适用于像Facebook这样的私营公司(直到我看到Twitter对这条新闻的回应,我才意识到有必要这么说)。
因此,虽然Facebook希望允许所有用户在平台上表达自己的观点,但他们有权制定额外的指导方针,以加强发布到平台上的内容。
为了扩大这些努力,他们制定了以下新标准:
- 与外部专家合作,加强事实核查工作:错误信息迅速传播的主要原因是,世界上有很多人在世界上没有足够的眼睛来保持一切。为了创建一个真正诋毁虚假新闻和促进值得信赖的内容的策略,Facebook正在咨询学者,事实上检查专家,记者,调查研究人员和民间社会组织,建立一个有效的系统。他们在下面的视频中进一步解释了这个过程:
- 扩大第三方事实核查程序字体现在,美联社将“加大力度,揭露美国Facebook上出现的虚假、误导性视频、虚假信息和西班牙语内容”。
- 限制那些反复分享错误信息的群体的影响力:通过事实 - 检查误导性物品核对者持续标记的群体不会在会员的新闻饲料中获得尽可能多的曝光。这为管理员提供了额外的激励措施,以其自行警察此内容,并限制成员从查看帖子,除非他们在团体本身中寻求它们。
- 将“Click Gap”介绍进入他们的新闻饲料排名系统:“点击间隙”是一个新功能,它将帮助决定帖子如何在你的feed中显示。对于SEO专业人士来说,这与谷歌如何评估指向你网站页面的入站和出站链接非常相似。Facebook表示:“Click-Gap搜索的是那些对外访问的Facebook点击数量与其在网页图表中的位置不成比例的域名。这可能是一个信号,表明该域名在News Feed上取得了成功,但它并没有反映出它在外部建立的权威,而且正在生产低质量的内容。”
通知Facebook社区
为了真正产生影响,重要的是不仅限制错误信息的传播,而且还教育了公众通知自己的观点。
社交媒体和整个互联网的问题在于,如果你看到一个标题或读到一个统计数字,你倾向于相信它。
因为Facebook用户可以发布任何他们想要的内容,这使得区分哪些是可信的,哪些是不可信的变得困难。
因此,在人们决定相信这些消息之前,重要的是要知道这些消息来源的可信度,而不是简单地采取反应措施,通过删除和限制非Facebook的错误信息的曝光。
在过去的一年中,Facebook增加了一些功能,帮助用户自行确定消息来源的可信度。现在,他们已经宣布了这些工具的扩展,将为这些资源提供更多的透明度。
首先,Facebook的上下文按钮正在获取一些新功能。该工具于2018年4月首次启动,并为人们提供有关在其新闻源中出现的出版商和文章的更多背景信息,因此他们可以更好地决定读,信任和分享的内容。
现在,Facebook将信任指标添加到上下文按钮中。这是由信托项目,由新闻组织协会组成,致力于公平,准确性和新闻报道中的透明度。向前迈进,Facebook的文章将被评估信任指标八个核心标准评估的可信度。此外,上下文按钮现在将适用于已被第三方检查器审查的照片。
Facebook的页面质量选项卡还将获得新信息,以帮助用户更好地了解页面是否有偏见或值得信赖。随着时间的推移,这将是不断更新的,因为确定了新信息 - 但Facebook正在本月开始,通过更新页面的状态,了解他们发布“ClickBit”文章的频率。
最终的想法
不管是不是Facebook的错,不可否认的是,错误信息的传播已经失控了。
确实,每个人都有权获得自己的意见,但人们必须根据事实提出得出结论,而不是虚假信息。
这些更新以及对营销人员的重要意义。如果我们希望前景和客户信任我们的信息,我们应该注意我们所在的团体,我们分享的文章以及我们推出的内容。
例如,如果您发布了一篇文章,则从Facebook有可能标记可能标记的源统计数据或信息的文章,它可能会反映出来您的品牌即使您认为在发布之前是事实。
这些更新提醒我们,这个行业正在发生变化,社交媒体很可能很快就会有与有线电视类似的限制。这未必是件坏事,但确实有可能颠覆你目前使用社交媒体营销业务的方式。
所以,一如既往地,保持在变化的顶端,并积极地调整你的策略。