最新消息: 大屏互动软件全新升级为 6.0 啦,启用了新的网址,还是永久免费,但有更多惊喜。点击立即体验

专家 方师师从Facebook偏见门看平台媒体互动的算法机制与价值观

新闻 乐宝 187浏览 0评论
本文通过分析“Facebook偏见门”事件,剖析平台型媒体动态新闻推送的算法机制,探讨该机制对当下社会可能产生的潜在影响。文章发现,Facebook的动态新闻算法是一种基于用户社交使用的协同过滤机制,目的在于过滤出对于用户“有意义”的信息;该机制有可能会在当前的社会条件下产生算法审查、信息操控与平台偏向,从而影响受众态度。而这样的推送机制也挑战了传统的新闻价值观。目前,针对平台型媒体的算法规范仍旧空白,但如“算法可信任原则”可以作为一种探索实践用以维护对于公众有用的信息透明度。
一、巨兽恐慌:“Facebook偏见门”中的问题争议
2016年5月初,两篇来自科技博客Gizmodo的文章——《想知道Facebook是如何对待记者的?雇佣之后就知道!》(5月3日)、《前Facebook员工:我们常规性地压制保守派新闻》(5月9日)点燃了Facebook“偏见门”的引线。这两篇由前负责Facebook“趋势话题”(Trending Topics)的合同工(contractor,非正式员工)匿名提供材料形成的文章显示:“趋势话题”拥有一个约二、三十人的专业编辑团队;年轻的编辑大多毕业自常青藤名校或东海岸的私立大学,有在美国主流媒体从业的经验;他们可以获取Facebook算法浮现的结果,然后决定该部分话题的优先性和分级列表;该版块常规性地压制美国右翼保守派的媒体及其报道,有些话题被人为“注入”(inject)话题框架,避免提及Twitter是内部不成文的规定;这一版块操作起来如同传统媒体的新闻编辑室,会体现出了工作人员和公司急迫的偏见。
虽然“趋势话题”只是Facebook网站上一个很小的版块,在手机终端上还不太看得到,但恐慌却在蔓延:这同Facebook之前声称自己是一个“中立开放”的说法大相径庭。《纽约时报》在5月17日以《Facebook正在拯救新闻业还是毁了它?》为总标题,刊发了一组4篇由来自专业期刊、大学机构等业内学界专家的评论:《被操控的新闻业,对读者无益有害》,《Facebook曾促使新闻民主化,但新变化背道而驰》,《提供平衡的信息并非Facebook的目标》以及《喜欢或不喜欢,Facebook现在是一家媒体公司》,几乎将Facebook推到了平台公正、信息平衡、信息民主等准则的对立面。虽然也有媒体认为这有些小题大做了,但“偏见门”的争议依然在发酵,正反方向的意见彼此交织,《Facebook效应》的作者大卫·科特帕特里克(David Kirkpatrick)近日接受采访时表示,“新闻偏见门”对Facebook构成了前所未有的挑战。
从根源上看,此次的“偏见门”来自公众对于自身从Facebook平台上获取的信息,其来源方式产生了质疑。要明晰这个问题,我们首先要分析Facebook的基础架构与算法机制,对于新兴的原创互联网公司来说,基础架构和算法机制从根本上决定着公司的业务与风格。
虽然算法听起来更多的是一种非人为的决策方式,但实际上多种人为因素的影响都会内嵌在算法规律之中,例如判断标准的选择、数据提取、语用分析和结果解读等。因此,任何针对算法的研究都必须将算法视作是人为创造物,并将创造者或其从属的团体或机构的意图纳入考量范围。News Feed是Facebook新闻推送业务的核心项目,之前News Feed的算法经历过三个主要阶段:
◆ 第一阶段:边际排名算法(EdgeRank Algorithm)
从2006年9月开始,Facebook采用边际排名算法(EdgeRank Algorithm)。2010年4月在Facebook的F8 会议上,该算法的初始工程师RuchiSanghvi和Ari Steinberg对其进行了说明:每个出现在你新闻源里的内容被称作Object,与Object互动行为被称作一个Edge,每一个Edge有3个至关重要的组成要素,分别是:U:亲密程度(Affinity Score),W:边类权重(Edge Weight)和D:时间衰变(Time Decay)。对Edge产生的影响的因素叠加在一起,则会增加Edge的分数,然后就产生了EdgeRank。分数越高,你的内容就更容易出现在用户的News Feed里面。
◆ 第二阶段:机器学习与算法更新
2011年之后News Feed的排序算法全面转向了机器学习,用优化理论来决定每个因素的权重。News Feed排名工程部经理Lars Backstrom表示,该系统约有10万个独立项的权衡因素。除了最原始的3个EdgeRank要素之外,新加入的包括:关系设定、贴文种类、隐藏贴文/检举粉丝专页、点击广告和观看其它内容的时间轴、装置与科技、故事颠簸(Story Bumping)和最近行动者(Last Actor)。
图片来源:https://www.singlegrain.com/facebook-news-feed/facebooks-news-feed-algorithm/
在强化机器学习的同时,NewsFeed团队重新考虑了人和算法之间的关系,他们的目的是要“把用户真正最关心的内容找出来”,建立“有意义的体验”,而不仅仅是“提高点击率”。为此,他们设置了一套协同过滤机制。每周二,20多名算法工程师和数据科学家都会来到Facebook的加州总部工作室,他们会对数以亿万的点赞、评论和点击进行重估使之更为有用;在田纳西州的诺克斯维尔,30名合同工坐在房间的电脑前,日以继夜地查看他们的News Feed推送是否与他们的个人喜好相匹配,而他们的评估,连同全美其他700多名评阅者的意见,都会反馈给Facebook的加州总部,供新的算法来参考调整新闻推送的精度和准度。
此次使Facebook身陷“偏见门”的“趋势话题”(Trending Topics),主要是放在News Feed栏目的右上角,为用户自然搜索(Organic Search)做参考。虽然有证据证明这一设置确实增加了用户的相关自然搜索,但是“时间轴”这样的社交架构的作用更加重要,因为如果已经过去很长时间了,用户很少会去主动搜索相关主题。
2016年6月29日,Facebook再次改进了News Feed的算法,虽然这只是一个小小的改动:你将看到更多基于真人的推送,而类似与群组、媒体、品牌或其他来源的信息都会被弱化。但更重要的是,配合这次改动,Facebook有史以来第一次发布了对于自身算法的理念说明:News Feed新闻价值观(News Feed Values)。如果用一句话来概括,那就是所谓的“3F原则”(Friends and Family First):友谊家庭大过天。这一价值观的主要内容包括:社交优先、“有用的信息”是关键、不要忘记娱乐、推崇多元观点、真实性很重要。
纽约大学新闻学专业的杰伊·罗森(Jay Rosen)教授在他个人的知名博客网站PressThink上评论说,这是新闻价值的一个“新开始”:你的社交网络成了第一位的,而不是公共世界。Facebook倡导“选择什么样的新闻,我们是让‘用户的选择’这只看不见的手来做决定。”而用户需要做的,就是要帮助Facebook“更好地了解你的意图是什么,你想要什么样的过滤?你希望什么样的玩家一起来玩?”
三、社会风险:算法审查、信息操控与平台偏向
最近一次的算法改进Facebook在以往协同过滤的机制基础上,进一步强调了用户对于最终内容的选择权。如果说之前在社交媒体中的信息生产方式还存在着产销一体(Prosume),现在则变成了“选择即生产”(SelectPro,Select + Produce)。相比以往经由传统媒体把关的“精英筛选”,该举措实际上二次建构了受众的信息接触环境,媒体建构现实世界,平台建构个人世界。这样一种机制的核心是建立在受众参与的基础上,算法的改进只是工具性地将这一机制更加完善地予以执行。
同时,这就意味着用户需要更深地卷入到社交媒体的使用当中,“用的越多,越是你想要的”。Facebook也不再讳言自身的价值与利益,新闻的“真实性”取决于用户的“需要”,“客观”的外部化标准让位于具体情境下平台与用户的共谋与互建。那么问题是,这样的信息或者新闻生产方式潜藏着怎样的社会风险?
1. 内循环的“算法审查”易形成“自生审查”
2014年,北卡罗莱纳大学情报与图书馆学院的助理教授泽纳普·图菲克奇(ZeynepTufekci)在一项研究中发现,Facebook的新闻推送算法十分重视用户的意见和共享,而这种基于点赞和评论的算法会淹没掉像“弗格森案”这样的重要新闻,原因可能是因为该案件并不是很受欢迎也不好评论。她将这一现象称为Facebook对于新闻信息的“算法审查”(Algorithmic Censorship)。之所以会形成这样的算法审查,这同Facebook的新闻源推送算法逻辑密切相关。这种算法的设计标准在于,无论是欢天喜地还是暴怒生气,不管是阴谋恶作剧还是晒娃自拍,重要的是该则新闻是否可被规模化地讨论。而如果没有“人气”,哪怕是一条非常重要的信息,也有可能不会出现在特定用户的界面上,由此就形成了用户的“自生审查”循环。
2. 内容与数量上的协同过滤或导致信息操控
从Facebook的算法机制中可以看出,编辑团队实际上已经作为协同过滤机制的一部分内嵌在与原始算法、机器学习等技术因素同等重要的系统当中。即使在今天公众变得越来越熟悉社交媒体平台上对数据的处理,但仍然很容易认为类似“趋势”这样的术语,指代的是通过系统算法公正地揭示真正的用户活动与活动模式。偏见门之后,为了解决这一问题,Facebook分别在今年6月底和8月底修改并更新了推送算法,表示来自朋友的优先推送会导致新闻机构的推荐流量下降,并宣布Trending News功能由以往的编辑人工筛选编写摘要改为全部由机器算法执行,希望由此降低主观因素对于推荐内容的影响。通过改变算法,Facebook勾勒出了新闻机构未来在社交网络中发展的初步路线图:在社交网络中的流动的信息就是用户希望了解的信息。虽然Facebook并不一定“承认”自己是一家媒体,但在实际的业务中,对于用户的信息流操控确实存在逐渐增强的“定向引流”情况,并且从内容到数量,Facebook都实现了对于用户信息接触的实质性导引。
但讽刺的是,Facebook刚刚解散这个拥有19名“消息策展人”(curator)和7名文字编辑(copyeditor)的编辑团队,热门话题就开始推送假新闻和不雅视频。这在之前人工编辑存在的时候是不可能出现的。
3. “平台偏向”经由传播效果会影响受众态度
“偏见门”事件爆出之后,5月18日扎克伯格邀请了16位保守派思想人士来到Facebook位于硅谷的总部进行会谈。来自右派保守阵营的意见普遍认为,必须确保尊重所有类型的观点,并使得Facebook继续作为思想自由的文化市场。会谈之后,扎克伯格也在Facebook再次重申了对多元文化思想的承诺:“我知道很多保守派人士不相信我们的平台表面上不带政治偏见的内容,我想亲自听听他们的关切,并对我们如何才能建立起信任开诚布公。我会尽我所能确保我们的团队坚持我们产品的完整性。”
今年4月的F8会议上,扎克伯格曾发表演讲含蓄地抨击共和党提名总统候选人唐纳德·特朗普(Donald J. Trump)在移民问题上的“筑墙”态度,并声称同这一心态的斗争是未来10年公司“与世界连接”路线图的一部分。4月中旬,Gizmodo曾经刊发过一篇《Facebook称它不会试图影响人们选举》的文章,起因在于有员工问扎克伯格“我们在阻止唐纳德·特朗普赢得2017年大选的问题上应当负有怎样的责任?”Facebook随后发表回复:“投票是民主的核心价值,我们认为支持公民参与是我们能为社会做出的重要贡献。我们鼓励任何及所有候选人、团体和选民在选举辩论的问题时使用我们的平台,分享他们的观点。我们作为一个公司是中立的——我们没有,也不会使用我们的产品,试图影响人们投票的方式。”
实际上在Facebook的页面上,特朗普的提及率和曝光率都大大超过其他候选人,平台公司本身的政治倾向并不能作为其“新闻来源偏见”论断的充分必要条件。但如果将这个问题同Facebook令人震惊传播效果相关联,则很难说这些看似“微不足道”的偏向会不会对于民主选举或者民主制度带来影响。2012年,第一篇系统研究“线上世界如何显著影响线下真实世界的研究”在Nature上发表,论文显示在Facebook上的一项社会实验显著提高了2010年美国选民的投票率。2014年Facebook自己的一项研究表明它的算法可以操控人的情绪,“在Facebook平台上,一些很小的影响会形成大规模的聚合后果”,甚至可以显著影响投票选举。但也有研究对此持保留意见。2015年发表在Science上的一篇重要论文比对了Facebook用户的两种信息接触:朋友间分享新闻和观点和通过Facebook的算法推荐获取信息,结果发现Facebook上的回音室效应(Echo Chamber)并非像大家想象的那样让人们与世隔绝,个人选择具有很强的作用。但同时数据科学家依然提醒,这项研究的重要性是基于一定数据范畴和体量的,他们依然注意到了一些显著的局限性。今年1月皮尤研究中心的一份研究报告发现,自由派民主党党员更加会从Facebook的平台上获取选举信息。相比共和党只有50%的网络一代从社交媒体上获悉选举信息,民主党有四分之三的年轻人把社交媒体作为日常的信息来源。通过传播的显著效果,进一步改变选民构成,将散布性支持(diffuse support)变成为特定支持(specific support)进而改变政治结构,这样的作用在美国大选年的当下,无疑非常敏感。
舒德森曾经在《为什么民主需要不可爱的新闻界》一书中罗列了“新闻服务于民主的七项主要功能”,除去通常的信息提供、调查报道、分析评论、社会同情、公共论坛、社会动员之外,舒德森并不讳言在一个民主体制的国家中,新闻界对代议制民主制度需要的宣传和维护,甚至是要推进和提升这种“自由的民主”,而不是“多数主义者的民主”或者相反。而对于互联网,舒德森只看到了“公民新闻业”的可能,并对此抱有适度的乐观。但问题是,当前在社交媒体中传播的信息首先并非一定是为“民主制度”所服务而进行的内容生产,其次互联网对于新闻业的影响早已超越了“多样的内容提供”范畴,这是一种完全不同于过去新闻生产、分发与消费的方式,“时新性、真实性、事实与意见、专业与业余、公共与私人等传统新闻生产所依赖并强化的固有边界”被整体性地模糊与消解,“有用”、“有意义”均落实到非常具体与个体的需求上,且这种需求不一定必然与整个国家与社会的走向趋同。
除去相互之间的攻讦,此次“偏见门”也使得媒体与学院派都在反思这样一个问题:我们是否需要某种一成不变的新闻价值观?不久前美国报业协会在坦普尔大学举办了“联系与多样化媒体峰会”,期间现任《今日美国》网络新闻业务的副总裁米泽尔·斯图尔特(Mizell Stewart)就提到:当所有事物都跟随着时代和社会在进化,为什么就新闻的价值观依然陈旧? 北德克萨斯大学新闻学院教授梅雷迪斯·克拉克(Meredith D. Clark)对这个问题深有感触:“主流媒体”和“传统新闻”都只是一个时代的产物。基本的新闻价值观念依然会存在:真实、客观、准确、及时等是无可替代的。但对于媒体机构来说,基于用户地位的反转,有些新闻价值观就需要再讨论了:什么是真正对于用户“有用”的信息?对于信息的传播需要有怎样的设计?是要一个合格的产品,还是宁缺毋滥做出一个卓越的产品?BBC新闻互动制片人谢法利·库卡尼(Shefali S. Kulkarni)还提出,这也是她为什么喜欢在Facebook的相关组群上分享BBC内容的原因:坦率地讲,我们从这些组群中获得的评论要比我们在自己网站上的评论有价值得多。
《Facebook效应》的作者大卫·科特帕特里克最近表示,“作为全球最大的新闻源,Facebook现在处于一片没有海图的水域。他们没有现成的指南来自我管理并管理所处社区的期望。”目前学界和业界较为普遍的呼声是要建立对于算法的可信任度的评判标准与监督机制。2014年哥伦比亚大学数据新闻研究中心发布的《算法可信度报告》中对于“算法的可信任原则”给出了这样的说明:“算法的可信任原则是指通过对算法的透明度测试,以识别商业秘密,发现操控后果并超越复杂问题的认知天花板。”该报告的作者认为,为了实现这一原则,需要记者与算法一起,在联邦信息行动自由法案(The Federal Freedom of Information Act,FOIA)的权力赋予下通过逆向工程技术(Reverse Engineering)的形式有效地结合在一起。这一原则实际上是一种联合了多种社会力量对于算法的监督机制,既包括理论也包括实践,通过法规、技术、机构和有效率的个体,有效地保证信息透明度。随着时间的推移,足够的专业知识会逐渐积累起来,通过引发互联网企业的关注并与之合作,以此确立对于公众有用的信息透明度算法标准。
(原文参见:方师师. 算法机制背后的新闻价值观——围绕“Facebook偏见门”事件的研究[J]. 新闻记者,2016(9):39-50.)
如需原文,请发送留言至CGi公邮并转发本文!
编辑:叶雪枫
方师师
新闻学博士
社会学博士后
上海社会科学院新闻研究所助理研究员,复旦发展研究院传播与国家治理研究中心研究员。奥地利萨尔兹堡大学ICT & S Center(2012)、香港城市大学“多闻雅集”(2015)访问学者,入选香港中文大学第十届传播学访问学者计划(2017)。
研究兴趣:知识社会学、数字社会学、社会网分析、数据治理等。

转载请注明:好现场 » 专家 方师师从Facebook偏见门看平台媒体互动的算法机制与价值观

发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址