假新聞的科學

文化批评与研究
·
·
IPFS
·
我們把“假新聞”定義為捏造的信息,在形式上而不是組織過程或意圖上模仿新聞媒體內容。

假新闻的科学

THE SCIENCEOF FAKE NEWS

 作者:大卫·拉泽尔(David Lazer,东北大学),马修·鲍姆(Matthew Baum,哈佛大学),约凯·本克勒(Yochai Benkler,哈佛大学),亚当·伯因斯基(Adam Berinsky,哈佛大学),凯莉·格林希尔(Kelly Greenhill,塔夫斯大学),菲利波·门采尔(Filippo Menczer,印第安纳大学),米利亚姆·梅茨格(Miriam Metzger,加州大学圣塔芭芭拉分校),布伦丹·尼汉(Brendan Nyhan,达特茅斯学院),戈登·彭尼库克(Gordon Pennycook,耶鲁大学),大卫·罗斯柴尔德(David Rothschild,微软研究院),米歇尔·舒德森(Michael Schudson,哥伦比亚大学),斯蒂夫·斯洛曼(Steve Sloman,布朗大学),卡斯·桑斯坦(Cass Sunstein,哈佛大学),艾米丽·索尔森(Emily Thorson,波士顿学院),邓肯·瓦茨(Duncan Watts,微软研究院),乔纳森·齐特林(Johnathan Zitterian,哈佛大学)

译者:陈*钢

来源:Science09,Mar 2018: Vol. 359, Issue 6380, pp. 1094-1096 DOI:10.1126/science.aao 2998.

致谢
We acknowledge support from the ShorensteinCenter at the Harvard Kennedy School and the NULab for Texts, Maps, andNetworks at Northeastern University. D.M.J.L. acknowledges support by theEconomic and Social Research Council ES/N012283/1. D.M.J.L. and M.A.B. contributedequally to this article. Y.B. is on the advisory board of the Open ScienceFoundation. C.R.S. has consulted for Facebook. K.M.G. acknowledges support bythe National Endowment for the Humanities.

虚假新闻的兴起,突显了长期存在的制度壁垒对互联网时代错误信息的侵蚀。对这个问题的担忧是全球性的。然而,个人、机构和社会对蓄意行为者的控制缺陷,仍有许多未知之处。(我们)需要一种新的保障制度。接下来,我们讨论现存社会科学和计算机科学对假新闻笃信及假新闻传播机制的研究。假新闻历史悠久,但我们关注的是悬而未决的科学问题,这些问题由近来时政导向的具体体现引发。除了文中选定的参考资料,还建议在补充资料中做进一步阅读。


什么是假新闻?

WHAT IS FAKE NEWS?

我们把“假新闻”定义为捏造的信息,在形式上而不是组织过程或意图上模仿新闻媒体内容。相应地,假新闻发出者缺乏新闻媒体的编辑规范和程序,以确保信息的准确度和可信度。假新闻与错误信息(misinformation,虚假或误导性信息)和谣言(disinformation,故意散布欺骗人的虚假信息)有重叠之处。

 假新闻主要在时政背景下引发切近的关注,但它也报道疫苗、营养、股票价值等话题。格外恶性的地方在于,它依附于合规的新闻发出者,受惠于它们的同时,损害着它们的信用度。

 由于将假新闻用作政治武器[1],一些(媒体)——特别是“初稿”(First Draft)和“脸书”(Facebook)——偏爱“假新闻”这一术语。我们之所以留用它,是出于它作为一种科学建构的价值,也因为它的政治特性引发了对一个重要主题的关注。

 历史背景

THE HISTORICAL SETTING

由于新闻工作者强烈反对第一次世界大战期间广泛使用的宣传手段(特别是他们自己在宣传中扮演的角色),以及20世纪20年代企业公共关系的兴起,新闻的客观性与平衡性标准出现了。

20世纪主要的信息传播技术(印刷术和广播)创造了地方和国家的寡头垄断。互联网降低了竞争的准入门槛,其中一些新晋竞争者拒绝新闻规范,侵蚀了公信力和可靠性很高的传统新闻来源的商业模式。

 大众媒体的普遍信任度在2016年跌入历史谷底,尤其在政治权利上,(只有)51%的民主党人和14%的共和党人表示,“相当”或“非常”信任把大众媒体作为新闻源。[2]

 美国经历了一场同时进行的地缘政治和社会政治的演变。在过去40年间,党派偏好的地理划分愈发显著,因此减少了交叉政治互动的机会。同质化的社交网络反过来减少了对其它观点的容忍度,放大了态度上的极端化,更可能接受与意识形态相容的新闻,并逐渐将新信息拒之门外。对“另一方”(“other side”)的厌恶(情感的极端化)也在上升。

 这些趋势造就了一个假新闻能够吸引大量受众的环境。

盛行率和影响

PREVALENCE AND IMPACT

假新闻有多普遍,对个人有何影响?对于这些基本问题,几乎没有科学的答案。

 在评估假新闻的盛行率时,我们提倡将注意力放在原始资料上——发布者而非单一新闻报道——因为我们认为假新闻的界定要素是发布者的意图和过程。对发布者的关注也避免了我们去艰难地评估每一则新闻报道的准确性。

一项研究分析了主要虚假新闻报道的传播。2016年“美国大选”前的那个月里,美国人从已知的假新闻发布者那里平均获取一至三篇报道。[3] 这可能是保守估计,因为研究只跟踪了156条假新闻。

另一项研究表明,“推特”上的虚假信息通常有更多人转发,比真实信息传播更迅速,尤其是时政类话题。尽管没有提供分析细节,但“脸书”估计,蓄意行为者的操纵行为最多只占平台上分享的公民内容的1%。[5]

 通过点赞、分享和搜索信息,机器人(模仿人类的自动账号)以几何量级扩大假新闻的传播。近来,对“推特”活跃账号进行基于分享行为、关系数量和语言特点等可观察特征的分类评估后发现,有9%至15%是机器人。[6] 寄生在“脸书”上的机器人预计达6,000万。[7]

 它们负责在2016年“美国大选”期间发布数量可观的时政内容,并且一批相同的机器人被试图用来影响之后的2017年“法国大选”。[8] 

机器人也被用来操纵算法,以便在一个较大的人口范围内预测内容的潜在流量。事实上,一份“脸书”的白皮书表明,2016年“美国大选”期间这类操纵布局广泛。[5]

 然而,如果没有方法追寻到特定平台上机器人和人类代表性样本的源头,那么任何有关机器人盛行率的估值(point estimates)都必须谨慎解释。机器人检测一直是“猫鼠游戏”,有大量未知的仿人机器人无法检测到。

 反过来说,任何成功的检测都启发了机器人制造者未来的应对措施。因此,识别机器人是一项重要而持续的研究挑战。

 我们知道,与合法新闻一样,假新闻报道已经在社交媒体上流传开来。然而,知道有多少人遇到或分享了一则假新闻和知道有多少人阅读了一则假新闻并受其影响是两回事。

 针对暴露在假新闻中对政治行为的中长期影响(如是否/如何投票)的评估基本没有在文献中出现。影响也许很小,因为证据显示政治宣传对个人的影响有限。[9] 然而,通过社交媒体成为中介的诸多假新闻可能加重它的影响,因为分享暗示着支持

 除了对选举的影响,我们所了解的媒体的影响更普遍地显示出许多潜在的影响途径——从越来越愤世嫉俗、情感淡漠到鼓励极端主义。假新闻在这些方面的影响缺乏现有评估。

可能的干预手段

POTENTIAL INTERVENTIONS

 什么样的干预措施可以有效阻止假新闻的传播和影响?我们找到了两类干预措施:

  1. 旨在强化个体,以评估自己遇到的假新闻的干预;
  2. 旨在一开始就防止个体暴露在假新闻面前的结构性改变。

强化个体EMPOWERING INDIVIDUALS

真相审查(fact checking)有多种形式,包括网站评估新闻报道的事实诉求(如“政治真相”[PolitiFact]和Snopes)(号主注:通俗地说就是证明新闻的真伪,比如Snopes就是美国著名的新闻辟谣网站,他们从发布者的意图上判断该新闻报道是否具有真实性诉求)、可信度高的新闻媒体的评估(如《华盛顿邮报》[Washington Post]和《华尔街日报》[Wall StreetJournal])、由中介媒体(intermediaries)插入和内容有关的背景信息(如“脸书”使用的那些信息)。

 除去真相审查光鲜的外表,支持其效用的科学充其量是混杂的。这可能反映了集体认知(collective cognition)中更广泛的倾向,以及我们社会结构的变化。个人往往不会质疑信息的可信度,除非违背了他们的既有认识,或者他们被刺激(去质疑)。否则,他们可能会不加批判地接受信息。人们也倾向于将他们的信念与他们社群的价值观捆绑在一起。

 研究还进一步表明,人们更偏爱那些佐证他们先前已有态度的信息(选择性曝光),查看与他们先前已有信念相一致的信息,接受取悦他们的信息(社会意识偏差[desirability bias])——这些信息比不悦耳的信息更具说服力(确认偏差[confirmationbias])

原先的党派或意识形态信仰可能会阻碍去核查一篇虚假新闻报道的真相。

 在某些情况下,真相核查甚至可能适得其反。对政治的熟练度和亲近感的研究表明,人们倾向于在记住信息或感受的同时,忘记他们所处的背景。更甚的是,他们会把熟悉的信息等同于真实信息。[10]

 因此存在这样的风险——即使在真相核查的语境中,不断重复的错误信息也会增加个人信以为真的可能性。真相核查中,关于有效性证据是不断被重复的。

 尽管实验和调查研究证实,错误信息的重复会增加信以为真的可能性,但是如果这错误信息与一则有效的撤稿声明同时出现,那么上面的事就不会发生。一些研究表明,在更正错误之前重复错误信息可能有好处。需要进一步研究来调和这些矛盾,并确定真相核查这一干预措施最有效的条件。

 另一种长期的做法是通过教育提高个人对信息来源质量的评价能力。向中小学注入关键信息技能培训的尝试不断增加。[12] 然而,这种努力是否能改善对信息可信度的评估,还需一段时间才能确定。对假新闻的强调也可能造成计划外的后果,即降低真实新闻发布者的可信度。非常有必要对不同的教育干预措施进行严格的教育评估。 

基于平台的检测与干预:算法和机器人PLATFORM-BASED DETECTION AND INTERVENTION: ALGORITHMS AND BOTS

互联网平台已经成为假新闻最重要的推动因素和主要渠道。创建一个具有专业新闻组织标识的网站并不贵。通过在线广告和社交媒体的传播,也很容易将内容货币化。互联网不仅提供了发布假新闻的媒介,也提供了积极促进传播的工具。

 约47%的美国人经常或有时从社交媒体获取新闻,到目前为止“脸书”是最主要的来源。[13] 社交媒体是假新闻站点的关键渠道。的确,最新的国会证言显示,俄罗斯在2016年“美国大选”期间成功操纵了所有主要平台。

 互联网和社交媒体平台如何帮助减少假新闻的传播和影响?“谷歌”、“脸书”和“推特”时常扮演我们与新闻媒体关系的调停者,也是我们与亲朋关系的调停者。通常,它们的商业模式依赖于广告收入。它们使用复杂的统计模型来做预测,并将内容参与度(流量)最大化。[14]应该有可能调整这些模型,以增加对高质量信息的重视。

 这些平台可以向访问者提供消息源质量的标识,这些标识可被纳入内容算法排名中。相较于其它内容,它们能够将时政资讯的个性化降到最低。(号主注:减少所谓的“回音壁效应”[echo chamber],即在信息传播过程中,人们倾向于承认和接受与自己观点相近的信息,因此某些信息,无论真伪,都很容易在社交媒体的传播过程中被重复、修改和夸大。)

 突出时下热点内容的功能可以通过热点内容来排除机器人活动。更普遍地说,平台能够限制由机器人和半机器人(无论是否阅读,都从信息源不经思索地共享新闻的用户)造成的新闻内容的自动传播。尽管在可预见的将来,机器人制造者有可能设计出有效的对策。

 平台尝试了这些步骤和其它步骤。[5,15] “脸书”宣布有意将算法转移到内容精选过程的“质量”上。“推特”宣布其封锁了某些与俄罗斯方面错误信息有关的账号,并告知用户他们可能被骗了。然而,这些平台没有提供足够的细节供研究团队评估,也没有将调查结果提交同行评审(peer review),给政策制定者或公众的使用带来疑虑。

 我们敦促各平台与独立学者合作,评估假新闻问题的范围,并评估干预措施的方案和有效性。目前鲜有关于假新闻的研究,也没有全面的数据收集系统针对假新闻的渗透机制如何演进提供动态的解释。

 不可能再现2010年的“谷歌”了。即使有底层代码,“谷歌”本身也无法这样做,因为模式出现在代码、内容和用户之间的复杂交互中。然而,有可能记录下2018年的“谷歌”正在做什么。更普遍的是,研究人员需要对主要平台如何过滤信息进行严格、持续的审查。

 从工业和学术界的角度看,科学合作面临挑战。然而,各平台有一种超越市场力量的道德和社会责任,用他们独有的数据为假新闻的学术助一臂之力。

 基于平台政策的合理有效性可能指向政府对平台的监管,也有可能指向平台的自我监管。政府的直接监管在新闻敏感地带有其自身的风险,受宪法限制或别的一些原因。

例如,监管者能够在限定(define)、推行(impose)和强制执行(enforce)方面保持公正吗?一般而言,任何政府的直接干预或平台对内容的阻止都会引发人们对政府审查或企业审查的担忧。

 政府直接监管的一种替代性办法是侵权诉讼。比如那些被假新闻的传播直接而具体地损害名誉的人。某种程度上,一个在线平台帮助传播一则明显的虚假新闻报道(即使令人信服,但它是假的),就可能存在与现行宪法相一致的责任途径,这反过来又会迫使平台加强干预。

 然而,在美国的背景下,1996年《通信规范法案》(CDA)中的一项条款为由其他人撰写的虚假或可诉声明提供了近乎全面的豁免权。对该法案的任何更改都将引发棘手的问题,如平台内容(和精选内容的判断)在多大程度上应该受到声称受害的人的事后揣测(second-guess)。搜索引擎中,欧洲的“被遗忘权”(right to be forgotten)正考验着这些问题。

 (号主注:“被遗忘权”被视作互联网时代个人隐私权的一部分。2012年,欧盟出台了一项有关个人信息保护的法案,主张民众有权要求相关机构删除有关他们的个人数据。早在1967年1月,《纽约时报》记者VancePackard就发表了题为《不能告诉计算机》的文章。他写道:“当政府把我们每一个人的信息和日常生活的细节都放置于某个中央级的数据银行,我们便会受控于坐在电脑机器前面的那个人和他的按钮。这令人不安,这是一种危险。)

 结构性干预通常会引发尊重私人企业和人类能动性(human agency)的担忧。但是,正如20世纪媒体公司造成了个体无处遁形的资讯一样,越来越庞大的互联网寡头已经在全球范围内塑造了人类的经验。摆在我们面前的问题是,这些巨大的力量如何存在,该怎样行使,以及如何让这些庞大的公司承担责任。

 未来议程

FUTURE AGENDA

我们呼吁促进跨学科研究,以减少假新闻的传播,并解决它所揭示的潜在病理。20世纪初,美国新闻媒体的失败导致了新闻规范及其实践的兴起。尽管不算完美,但力求提供客观而可靠的信息,对我们大有裨益。

 我们必须在21世纪重新设计信息生态系统。这一努力必须在全球范围内展开,因为许多国家尚未发展出稳健的新闻生态系统,面临着比美国更严重的真假新闻的挑战。更广泛地说,我们必须回答一个根本性问题:我们如何才能创造一个珍视和促进真相的新闻生态系统和文化?


CC BY-NC-ND 2.0 授權

喜歡我的作品嗎?別忘了給予支持與讚賞,讓我知道在創作的路上有你陪伴,一起延續這份熱忱!