> 文章列表 > 脸书将改变算法 降级几乎违反政策的边缘内容

脸书将改变算法 降级几乎违反政策的边缘内容

脸书将改变算法 降级几乎违反政策的边缘内容

Face将改变其News Feed算法,并对内容进行降级,这几乎违背了其禁止虚假信息、仇恨言论、暴力、欺凌和点击Beit的政策,因此即使它非常吸引人,也会被更少的人看到。这一变化可能会大大降低煽动性政治团体、假新闻小贩以及Face book上更多最糟糕的事情的影响。它允许公司在互联网上隐藏他们不想要的东西,而不采取强硬立场。它必须为违反规则的内容辩护。

在马克扎克伯格(Mark Zuckerberg)今天发表的一封5000字的信中,他解释了如何存在“基本激励问题”,即“当不受约束时,人们会不成比例地接触到更耸人听闻和挑衅性的内容。我们的研究表明,无论我们在哪里画出允许的限制,当一些内容接近这个限制时,人们平均会更多地参与其中——即使他们事后告诉我们他们不喜欢它。

在没有干预的情况下,与边际内容的接触看起来像上面的图表,并且随着它越来越接近政策线而增加。所以Face book是在干预人为压制这类内容的新闻提要分发,所以参与情况看起来如下图。

【更新:虽然扎克伯格在一个案例中提到了过去式的变化,但Face book告诉我,边际内容降级只在有限的情况下有效。该公司将继续重用其人工智能技术,并积极减少违反其政策的内容,以便找到并降级接近这些政策限制的内容。

Face不仅会惩罚News Feed,还会惩罚它的所有内容(包括群组和页面本身),以确保它不会通过推荐人们加入社区来使他们变得激进,因为他们非常愿意参与这项政策。扎克伯格指出:“差异化的群体和页面仍将助长两极分化。

但是,有目的地想要查看边缘内容的用户将有机会选择加入。扎克伯格写道:“对于那些想自己做这些决定的人,我们认为他们应该有这个选择,因为这种内容并没有违反我们的标准。”例如,Face book可能会为不同文化规范的裸体等内容类型设定灵活的标准,比如有些妓女如何禁止女性在照片中暴露大量皮肤,而另一些则允许在网络电视上出现裸体。正如扎克伯格所说,Face book首先要训练它的人工智能,这样才能够可靠地检测出哪些内容已经越界或者有目的地逼近了边界线。

Face之前已经更改了算法来降级clickbait。从2014年开始,它的链接排名下降,人们点击它,但它很快反弹回来,没有回到Face book上的帖子。到了2016年,正在分析头条常见的点击广告词,今年禁止点击广告词的不真实行为。但现在它已经降低了其他类型的耸人听闻的内容。这可能意味着带有暴力的帖子不能显示身体伤害,或者生殖器覆盖很少的淫秽图片,或者帖子表明人们应该出于某种原因使用暴力而不直接告诉他们。

脸书最终可能会受到批评,尤其是来自边缘政治团体的批评,他们依靠边缘内容来煽动他们的基础和传播他们的信息。然而,随着两极分化和耸人听闻的言论猖獗,撕裂了社会,Face book确定了一项政策,可能会试图维护言论自由,但用户没有资格放大言论。

以下是扎克伯格关于边缘内容的完整书面陈述:

社交网络面临的最大问题之一是,如果不加以控制,人们将不成比例地接触到更多耸人听闻和挑衅性的内容。这不是什么新现象。它在今天的有线新闻中非常常见,一个多世纪以来已经成为小报的主要内容。在尺度上,会破坏公共话语的质量,导致两极分化。对我们来说,这也会降低我们的服务质量。

[图表显示,接触的增加导致了政策方向,然后受阻]

我们的研究表明,无论我们在哪里画出允许的线,当一些内容接近这条线时,人们平均会更多地参与其中——即使他们事后告诉我们他们不喜欢它。

这是一个基本的激励问题。我们可以惩罚边缘内容,让它得到更少的分发和参与。通过使分布曲线看起来像下面的图表,下面的分布随着内容变得更加耸人听闻而下降,人们将被激励不要尽可能靠近线创建挑衅性的内容。

[图表显示,直线下降的接触导致政策线,然后被封锁]

调整此曲线的过程类似于上述主动识别有害内容的过程,但现在的重点是识别边缘内容。我们训练人工智能系统来检测边缘内容,这样我们就可以减少这些内容的分布。

我们最关心的类别是点击诱饵和错误消息。人们总是告诉我们,这些类型的内容会让我们的服务变得更糟——即使他们与他们接触。正如我上面提到的,防止错误消息传播的最有效方法是删除生成错误消息的假帐户。第二个最有效的策略是减少它的分布和病毒。(我在关于[准备选举]的解释中更详细地谈到了这些方法。

有趣的是,我们的研究发现,这种边缘内容获得更多参与的自然模式不仅适用于新闻,也适用于几乎每一种内容。例如,接近裸线的照片,如暴露的衣服或性暗示姿势,在我们改变分布曲线以阻止这种情况之前,平均会获得更多的参与。不属于我们仇恨言论定义范围但仍然令人厌恶的帖子也是如此。

这种模式可能适合人们加入的群体和他们关注的页面。这一点尤其重要,因为尽管社交网络通常会让人们接触到更多不同的观点,群体通常会鼓励宽容和接受,但分裂的群体和页面仍然会鼓励两极分化。为了管理这一点,我们需要应用这些分布变化,不仅是为了提供排名,也是为了我们所有的推荐系统和您应该添加的内容。

一个普遍的反应是我们不应该

该减少分配,而应该简单地移动定义可接受的内容的线。在某些情况下,这是值得考虑的,但重要的是要记住,这不会解决潜在的激励问题,这往往是更大的问题。这种参与模式似乎存在,无论我们在哪里划出界限,所以我们需要改变这种激励,而不仅仅是删除内容。

我相信这些努力在我们的系统中的潜在激励是我们在整个公司做的一些最重要的工作。我们在过去的一年里取得了重大进展,但我们仍有很多工作要做。

通过在我们的服务中解决这个激励问题,我们相信它会创造一个良性循环:通过减少各种形式的耸人听闻,我们将创造一个更健康、更少两极分化的话语,让更多的人感到安全参与其中。