欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!
公告:
欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!

Facebook电商--facebook涨粉丝网站

首页 Facebook   作者:coolfensi  2022年09月30日  热度:52  评论:0     
时间:2022-9-30 13:31   热度:52° 

梁晓健 百度研究所现职副研究员(译者)

狮属 百度研究所副研究员(撰稿)

这场亚洲地区SNS新闻媒体大结构调整体育运动,正在进行。

那场结构调整体育运动的核心理念事关文本环境治理,源起2018年。尽数这两年的指标性该事件,牛津预测难以躲避。

2018年3月,Facebook宣称,英国数据预测公司牛津预测在2016年美国大选前违法获得一千万使用者重要信息。尔后Facebook因没能妥为为保护使用者对个人脆弱重要信息等被自发性民事诉讼,同时,美国联邦政府对外贸易(FTC)也对Facebook进行进行调查。而丹尼尔·扎扎卢日生前,也因牛津预测该事件应邀出席美参院理事会听证,拒绝接受国会议员来函。

不论牛津预测呢导火线,但从2018年起,环境治理文本自然生态,就开始成为绝大部分SNS新闻媒体的核心理念工作。

SNS新闻媒体上的有毒文本一般包括失实重要信息、憎恶论调和幼儿情色等。在那场结构调整体育运动中,Facebook、Instagram等SNS新闻媒体,加设了多种不同机能以提高文本环境治理能力、对付有毒文本。这既是网络平台分担社会职责的充分体现,某种意义上,也是对多番批评的澄清。

对付失实最新消息

亚洲地区暖化只是诡计新冠病原体是仿生的……对于这类SNS新闻媒体上的失实重要信息,绝大多数人已经习以为常。

除现代的杜撰或穿凿附会的不实重要信息(misinformation),如今SNS新闻媒体上还涌现大量的不实重要信息(disinformation)。这类失实重要信息往往基于政治或商业目的,掺杂某些真实的重要信息,从而实现更强的迷惑性,不论是网络平台算法,还是普通使用者,都更难鉴别。

作为应对,亚洲地区最大的SNS新闻媒体Facebook自2016年发起事实核查计划,至今已与亚洲地区范围内的80多家独立第三方核查机构合作。每当事实核查机构将网络平台上的一条文本评定为不实时,Facebook会大幅减少该文本的传播,以降低其曝光率。

2021年5月,Facebook进一步推出系列措施以环境治理失实重要信息。此前,当事实核查机构认为某条帖子是失实重要信息后,转发过的使用者将会收到提醒,Facebook优化了这一机制。如今,使用者可以查看事实核查机构评估该重要信息失实的理由,已经转发的失实重要信息也会被加上标签,提醒其他使用者这是失实重要信息。Facebook还会警告使用者,如果多次散播失实重要信息,他们的帖子将会更少地出现在其他使用者的重要信息流中。

此外,有许多使用者往往并没有阅读文章文本,而是在看到某个文章的标题后就转发。这可能散播失实重要信息,并且仅仅依据标题就与他人进行讨论,可能没有什么意义。为了让使用者更加负职责地转发重要信息,Facebook会提醒那些没点开链接就按下转发按钮的使用者:你将要分享你没有阅读的文章,这可能意味着在关键事实上犯错。

实际上,早在2020年6月,Twitter就在其安卓客户端试行了这一机能。Twitter产品总监Kayvon Beykpour表示[1]:

试行三个月后,Twitter表示,使用者在看到提示后打开文章的次数增加了40%,在转发前打开文章的次数增加了33%。有些使用者在打开文章后最终没有转发,说明阅读文章的确能让使用者更谨慎地决定要不要转发。

疫情背景下,SNS新闻媒体上涌现了大量与疫情相关的失实重要信息,造成恶劣影响,比如宣称接种疫苗会得癌症的反疫苗体育运动。早在2020年2月,世界卫生组织在新冠肺炎疫情报告中就特别提到,疫情的暴发会引发这场大规模的重要信息流行病(Informationepidemic),即在一些事实中混入恐惧、猜测和流言,这些失实重要信息可能会在世界范围内迅速传播,影响亚洲地区经济、政治与安全。

此外,Facebook的算法系统将会删除被医疗专家标记为失实的疫情相关重要信息,从疫情暴发到2021年4月,Facebook就删除超过1200万条和新冠疫情或疫苗相关的失实重要信息。[2]

环境治理憎恶论调

除不实重要信息,如何环境治理憎恶论调,也是SNS新闻媒体网络平台面临的一个棘手问题。根据Meta(Facebook于2021年改名为Meta,旗下包括Facebook和Instagram等产品)的定义,憎恶论调包括暴力或非人性(dehumanizing)的论调、低劣的声明、呼吁基于某些特征而排斥他人,这些特征包括种族、宗教信仰、性取向、性别和疾病等。[3]

Instagram在2021年加设了一系列机能以环境治理憎恶论调。其中有一个机能被命名为limits,当使用者启用后,系统会自动隐藏来自不关注你的人,或最近才关注你的人的评论和私信请求。

此外,Instagram还推出了一个叫Hidden Words的机能,开启这一机能后,系统可以自动过滤攻击性词语和emoji,并将其收集到隐藏文件夹中,使用者可以自己选择是否要查看这一文件夹。这一机能也可以帮助使用者过滤那些可能是垃圾邮件或低质量的私信请求。Instagram表示,将持续更新扩大自动过滤的攻击性论调、主题标签(hashtag)和emoji的清单。

文本环境治理的难度

文本环境治理已经成为亚洲地区共识,不论是各国政府、公众抑或是SNS新闻媒体本身,都认为有必要处理网络平台上的假新闻和憎恶论调等有毒重要信息。

但是,处理有毒重要信息之前,首先需要确定哪些重要信息属于有毒重要信息。这并非易事,有时还存在巨大争议。

例如,讽刺性的重要信息和攻击谩骂的区别是什么?名人转发假新闻和普通人转发假新闻是否需要区别对待?这些问题相当棘手。即便是幼儿情色这种亚洲地区公认要审核删除的重要信息,也存在模糊地带。

2016年,挪威作家Tom Egeland在Facebook上传了一张经典的越南战争照片,照片中一个赤身裸体的女童在哭着逃难,Facebook随后删除这张照片,引起轩然大波。在强烈的公众呼吁之下,Facebook后来又恢复了这张照片。

2020年,Facebook成立了一个监督理事会(Oversight Board),这一理事会将独立审理具有指标性的网络平台文本审核案例,决定哪些重要信息是违法需要删除处理的,哪些重要信息又是可以公开传播的。

这一监督理事会的成员背景多元,包括来自多个国家的法学教授和政府高官等。使用者可以直接向这个监督理事会投诉,Facebook也可以直接向理事会提交具体案件。该理事会审理的最著名的案件,莫过于特朗普账号被封禁一案。

尽管欧美舆论对Facebook等SNS新闻媒体口诛笔伐,但这些SNS新闻媒体已经在欧美地区提供了远优于其他地区的服务。西方的SNS新闻媒体在非洲、中东和南亚等地区虽然有大量的使用者,但并没有实现与欧美地区同等质量的监管力度。

2021年,Facebook前数据科学家弗朗西斯·霍根(Frances Haugen),向美国证券交易理事会和《华尔街日报》披露上万份Facebook内部文件。文件显示,Facebook已经意识到自身在亚洲地区许多较为落后的国家没有分担足够的职责。

弗朗西斯·霍根(Frances Haugen)

美国以外的使用者占Facebook总使用者数的90%以上,但负责文本环境治理的工作人员,只有13%的时间花在这些地区上。Facebook服务于亚洲地区160多种不同语言的使用者,但其仅研发了针对英语等欧美主流语言的文本审核系统,这意味着其余很多语言的违法文本难以被系统识别和删除。

为了应对欧美政府和新闻媒体施加的压力,Facebook等SNS新闻媒体持续推出各项文本环境治理措施,但这些措施也是地区性的。Facebook内部清楚知晓自己的产品在非洲和中东等地被用于传播极端论调、人口贩卖、种族清洗等,但并没有付出相对应的环境治理力度。

不过,仅凭Facebook等SNS新闻媒体自身的努力,的确也难以应对亚洲地区涉及如此之多语言、民族和宗教的问题。

技术发展给文本环境治理带来了更大的挑战。实际上,即便对有毒重要信息存在明确的标准,即使网络平台有着强烈的环境治理决心,通过人工或技术手段甄别有毒重要信息的难度也不低。

有研究发现,2016年美国大选第二场辩论中,Twitter上亲特朗普的2400万多条推文有三分之一由SNS机器人发出,支持希拉里的72000条推文中,SNS机器人生产的文本占四分之一。[5]

SNS机器人还会随着SNS新闻媒体上的重大该事件更替,删除其先前的推文、改变显示使用者名后以新面目出现。尽管Twitter和Facebook大力打击不实账号,但不实账号依然泛滥。在近来伊隆·马斯克暂停收购Twitter该事件中,不实账号数量就成为了焦点。

在文本环境治理方面,SNS新闻媒体也不断面临新的问题。比如在不实账号之外,深度伪造等技术给文本环境治理带来更大的挑战。这意味着,大量的有毒重要信息有着以假乱真的效果,并且这些有毒重要信息的生产者不是使用者,劝阻使用者的举措仅仅能起到减缓有毒重要信息传播的作用。提高文本环境治理水平,需要SNS新闻媒体开发更先进的技术,魔高一尺,更需道高一丈。

难以退回的昨日世界

Facebook于2004年上线,至今仍然未满20年。在这十数年间,SNS新闻媒体让地球村成为了现实,让人们得以与在现实中永远不会相识的陌生人交流。

SNS新闻媒体发展初期,人们欢呼于SNS新闻媒体如何降低公共领域的表达门槛,人人都有麦克风。但近年来,不论是关于憎恶论调、不实重要信息泛滥的担忧,还是针对重要信息茧房、群体极化的警惕,都充分体现了人们逐渐发现并试图理解SNS新闻媒体的负面效应。

文本环境治理已经成为SNS新闻媒体不得不直面的问题。回头看,那场亚洲地区SNS新闻媒体的结构调整体育运动,就始于对这种压力的澄清。

显然,我们永远难以退回没有SNS新闻媒体的世界。如果未来不存在SNS新闻媒体,那也只可能是出现一种更有吸引力的替代品。如今我们只能着眼于最小化SNS新闻媒体的负面影响,探讨如何在技术和产品层面改进SNS新闻媒体,如何明晰文本环境治理的边界,这将是一个漫长的过程,更需要像此前高速发展期去研究使用者需求一样,不断改善SNS新闻媒体的机能与使用者体验,创造更友善的SNS新闻媒体环境。或许这才是那场结构调整体育运动的最大意义。

引用/注释:

[1]https://twitter.com/kayvz/status/1270788548002631681

[2]https://www.facebook.com/business/news/how-facebook-addresses-covid-19-misinformation

[3]https://transparency.fb.com/data/community-standards-enforcement/hate-speech/facebook/

[4]https://www.theatlantic.com/ideas/archive/2021/10/facebook-failed-the-world/620479/

[5]Stieglitz, S., Brachten, F., Berthelé, D., Schlaus, M., Venetopoulou, C., & Veutgen, D. (2017). Do Social Bots (Still) Act Different to Humans? - Comparing Metrics of Social Bots with Those of Humans. HCI.