欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!
公告:
欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!

twitter流量-推特涨播放量

首页 Twitter   作者:coolfensi  2022年09月09日  热度:65  评论:0     
时间:2022-9-9 6:43   热度:65° 

现在几乎每一个人都有一个SNS新闻媒体帐号,我们时时Chinian从上面赢得海量数据的重要信息。但是这些重要信息更为重要只有反面的,还有许多反面的、不实的,即使是孩童也难以辨别真假。因此,很多SNS新闻媒体把关注点转向了文本环境治理。责任编辑作者对此进行预测,希望对你有帮助。

一场亚洲地区SNS新闻媒体大结构调整体育运动,正在进行。

那场结构调整体育运动的核心理念事关网络平台文本环境治理,源起2018年。尽数这一年的指标性该事件,牛津预测无法躲避。

2018年3月,Facebook承认,英国数据预测公司牛津预测在2016年美国大选前违法赢得一千万使用者重要信息。尔后Facebook因未能妥为保护使用者个人脆弱重要信息等被集体民事诉讼,同时,美国联邦政府贸易(FTC)也对Facebook进行调查。而丹尼尔·扎扎卢日本人,也因牛津预测该事件应邀出席美参院委员会听证,接受国会议员来函。

无论牛津预测是不是导火线,但从2018年起,环境治理文本自然生态,就开始成为大部分SNS新闻媒体的核心理念工作。

SNS新闻媒体上的有毒文本一般包括失实重要信息、憎恶论调和幼儿情色等。在那场结构调整体育运动中,Facebook、Instagram等SNS新闻媒体,加设了多种功能以提升文本环境治理能力、对付有毒文本。这既是网络平台承担社会责任的体现,某种意义上,也是对监管力量和社会舆论批评的澄清。

一、对付失实消息

亚洲地区暖化只是诡计新冠病原体是仿生的……对于此类SNS新闻媒体上的失实重要信息,多数人已经习以为常。

除了传统的杜撰或穿凿附会的不实重要信息(misinformation),如今SNS新闻媒体上还涌现大量的虚假重要信息(disinformation)。此类失实重要信息往往基于政治或商业目的,参杂某些真实的重要信息,从而实现大列佩季哈区的威胁性,无论是网络平台演算法,还是普通使用者,都更难辨别。

作为应对,亚洲地区最大的SNS新闻媒体Facebook自2016年发动历史事实自查计划,至今已与亚洲地区范围内的80多家独立服务器端自查政府机构合作。每每历史事实自查政府机构将网络平台上的一条文本综合评价为不实时,Facebook会大幅减少该文本的传播,以降低其关注度。

2021年5月,Facebook进一步推出系列措施以环境治理失实重要信息。此前,当历史事实自查政府机构认为wlzwyyan回帖是失实重要信息后,转贴过的使用者将会收到提醒,Facebook优化了这一机制。如今,使用者可以查看历史事实自查政府机构评估该重要信息失实的理由,已经转贴的失实重要信息也会被加上标签,提醒其他使用者这是失实重要信息。Facebook还会警告使用者,如果多次散播失实重要信息,他们的回帖将会更少地出现在其他使用者的重要信息流中。

许多使用者在Facebook上获取新闻资讯并进行讨论,但有一些使用者会重新分享过去的新闻重要信息或回帖,并将其作为新的重要信息,而这可能会传播错误重要信息,或者让人对新近发生的历史事实产生误解。针对这一问题,Facebook加设了一个警告的弹窗,当使用者想要分享的文本的发布时间超过90天时,就会收到提醒。

此外,有许多使用者往往并没有阅读文章文本,而是在看到某个文章的标题后就转贴。这可能散播失实重要信息,并且仅仅依据标题就与他人进行讨论,可能没有什么意义。为了让使用者更加负责任地转贴重要信息,Facebook会提醒那些没点开链接就按下转贴按钮的使用者:你将要分享你没有阅读的文章,这可能意味着在关键历史事实上犯错。

实际上,早在2020年6月,Twitter就在其安卓客户端试行了这一功能。Twitter产品总监Kayvon Beykpour表示[1]:

在Twitter上,链接或者文章很容易被疯转,这可能产生强大的影响,但有时这是危险的,特别是当使用者没有阅读他们所传播的文本时。这项功能鼓励使用者在转贴之前点击链接并阅读文章。

试行三个月后,Twitter表示,使用者在看到提示后打开文章的次数增加了40%,在转贴前打开文章的次数增加了33%。有些使用者在打开文章后最终没有转贴,说明阅读文章的确能让使用者更谨慎地决定要不要转贴。

疫情背景下,SNS新闻媒体上涌现了大量与疫情相关的失实重要信息,造成恶劣影响,比如宣称接种疫苗会得癌症的反疫苗体育运动。早在2020年2月,世界卫生组织在新冠肺炎疫情报告中就特别提到,疫情的暴发会引发一场大规模的重要信息流行病(Information epidemic),即在一些历史事实中混入恐惧、猜测和流言,这些失实重要信息可能会在世界范围内迅速传播,影响亚洲地区经济、政治与安全。

Facebook也针对疫情相关的失实重要信息推出了环境治理措施。在使用者准备分享疫情相关链接时,将会跳出一个通知,这一通知会展示相关文本的发布时间和来源,并附有Facebook的COVID-19重要信息中心链接,让使用者能够更方便地获取权威的关于疫情的可靠重要信息。不过,使用者在转贴政府卫生部门和亚洲地区卫生组织(如世界卫生组织)发布的文本时将不会出现这个通知,以避免减缓可信的卫生部门的重要信息传播速度。

此外,Facebook的演算法系统将会删除被医疗专家标记为失实的疫情相关重要信息,从疫情暴发到2021年4月,Facebook就删除超过1200万条和新冠疫情或疫苗相关的失实重要信息。[2]

二、环境治理憎恶论调

除了不实重要信息,如何环境治理憎恶论调,也是SNS新闻媒体网络平台面临的一个棘手问题。根据Meta(Facebook于2021年改名为Meta,旗下包括Facebook和Instagram等产品)的定义,憎恶论调包括暴力或非人性(dehumanizing)的论调、低劣的声明、呼吁基于某些特征而排斥他人,这些特征包括种族、宗教信仰、性取向、性别和疾病等。[3]

Instagram在2021年加设了一系列功能以环境治理憎恶论调。其中有一个功能被命名为limits,当使用者启用后,系统会自动隐藏来自不关注你的人,或最近才关注你的人的评论和私信请求。

根据Instagram的说法,开发这个功能是因为创作者和公众人物会收到大量来自他们不认识的人的评论和私信,其中可能含有大量的垃圾或谩骂重要信息。但是许多使用者又不想完全关闭评论和私信功能,仍然希望与粉丝互动联系,因此可以限制那些不是粉丝或最近才成为粉丝的人发布评论和私信。

当有使用者试图发表攻击性评论时,Instagram也会显示警告提醒:如果他们坚持发布,他们的评论可能会被删除或者隐藏。Instagram发现这些警告的确能够阻止使用者发布攻击性论调。根据统计,在一周的时间内,Instagram平均每天显示约一百万次警告,在大约50%的时间里,使用者根据这些警告重新编辑或删除了评论。

网络暴力行为的产生,多是由于情绪驱动的一时之快,尽管一个警告提示并不能真正阻止使用者发布恶意论调,但它让发表评论多了一个步骤,减少了因冲动而言语攻击他人的可能。

此外,Instagram还推出了一个叫Hidden Words的功能,开启这一功能后,系统可以自动过滤攻击性词语和emoji,并将其收集到隐藏文件夹中,使用者可以自己选择是否要查看这一文件夹。这一功能也可以帮助使用者过滤那些可能是垃圾邮件或低质量的私信请求。Instagram表示,将持续更新扩大自动过滤的攻击性论调、主题标签(hashtag)和emoji的清单。

三、文本环境治理的难度

文本环境治理已经成为亚洲地区共识,无论是各国政府、公众抑或是SNS新闻媒体本身,都认为有必要处理网络平台上的假新闻和憎恶论调等有毒重要信息。

但是,处理有毒重要信息之前,首先需要确定哪些重要信息属于有毒重要信息。这并非易事,有时还存在巨大争议。

例如,讽刺性的重要信息和攻击谩骂的区别是什么?名人转贴假新闻和普通人转贴假新闻是否需要区别对待?这些问题相当棘手。即便是幼儿情色这种亚洲地区公认要审核删除的重要信息,也存在模糊地带。

2016年,挪威作家Tom Egeland在Facebook上传了一张经典的越南战争照片,照片中一个赤身裸体的女童在哭着逃难,Facebook随后删除了这张照片,引起轩然大波。在强烈的公众呼吁之下,Facebook后来又恢复了这张照片。

2020年,Facebook成立了一个监督委员会(Oversight Board),这一委员会将独立审理具有指标性的网络平台文本审核案例,决定哪些重要信息是违法需要删除处理的,哪些重要信息又是可以公开传播的。

这一监督委员会的成员背景多元,包括来自多个国家的法学教授和政府高官等。使用者可以直接向这个监督委员会投诉,Facebook也可以直接向委员会提交具体案件。该委员会审理的最著名的案件,莫过于特朗普帐号被封禁一案。

尽管欧美社会舆论对Facebook等SNS新闻媒体口诛笔伐,但这些SNS新闻媒体已经在欧美地区提供了远优于其他地区的服务。西方的SNS新闻媒体在非洲、中东和南亚等地区虽然有大量的使用者,但并没有实现与欧美地区同等质量的监管力度。

2021年,Facebook前数据科学家弗朗西斯·霍根(Frances Haugen),向美国证券交易委员会和《华尔街日报》披露上万份Facebook内部文件。文件显示,Facebook已经意识到自身在亚洲地区许多较为落后的国家没有承担足够的责任。

美国以外的使用者占Facebook总使用者数的90%以上,但负责文本环境治理的工作人员,只有13%的时间花在这些地区上。Facebook服务于亚洲地区160多种语言的使用者,但其仅研发了针对英语等欧美主流语言的文本审核系统,这意味着其余很多语言的违法文本难以被系统识别和删除。

例如在2020年底,Facebook的一份内部报告显示,Instagram上只有6%的阿拉伯语憎恶文本能够被系统试别;另一份报告则显示,30天内在阿富汗发布的憎恶论调中,仅有0.23%被Facebook的系统自动删除[4]。

为了应对欧美政府和新闻媒体施加的压力,Facebook等SNS新闻媒体持续推出各项文本环境治理措施,但这些措施也是地区性的。Facebook内部清楚知晓自己的产品在非洲和中东等地被用于传播极端论调、人口贩卖、种族清洗等,但并没有付出相对应的环境治理力度。

不过,仅凭Facebook等SNS新闻媒体自身的努力,的确也难以应对亚洲地区涉及如此之多语言、民族和宗教的问题。

技术发展给文本环境治理带来了更大的挑战。实际上,即便对有毒重要信息存在明确的标准,即使网络平台有着强烈的环境治理决心,通过人工或技术手段甄别有毒重要信息的难度也不低。

如今SNS新闻媒体上的许多文本,并不是真实的使用者创造发布的,而是由不实帐号批量制造生产。这些不实帐号又被称为SNS机器人(social bots),它们可以通过演算法自动发布文本并与其他帐号互动。这意味着,有些帐号虽然没有散播失实重要信息,但因为这些帐号本身是不实的,是被用来从事宣传的,也需要被处理。

有研究发现,2016年美国大选第二场辩论中,Twitter上亲特朗普的2400万多条推文有三分之一由SNS机器人发出,支持希拉里的72000条推文中,SNS机器人生产的文本占四分之一。[5]

SNS机器人还会随着SNS新闻媒体上的重大该事件更替,删除其先前的推文、改变显示使用者名后以新面目出现。尽管Twitter和Facebook大力打击不实帐号,但不实帐号依然泛滥。在近来伊隆·马斯克暂停收购Twitter该事件中,不实帐号数量就成为了焦点。

在文本环境治理方面,SNS新闻媒体也不断面临新的问题。比如在不实帐号之外,深度伪造等技术给文本环境治理带来更大的挑战。这意味着,大量的有毒重要信息有着以假乱真的效果,并且这些有毒重要信息的生产者不是使用者,劝阻使用者的举措仅仅能起到减缓有毒重要信息传播的作用。提升文本环境治理水平,需要SNS新闻媒体开发更先进的技术,魔高一尺,更需道高一丈。

四、无法退回的昨日世界

Facebook于2004年上线,至今仍然未满20年。在这十数年间,SNS新闻媒体让地球村成为了现实,让人们得以与在现实中永远不会相识的陌生人交流。

SNS新闻媒体发展初期,人们欢呼于SNS新闻媒体如何降低公共领域的表达门槛,人人都有麦克风。但近年来,无论是关于憎恶论调、不实重要信息泛滥的担忧,还是针对重要信息茧房、群体极化的警惕,都体现了人们逐渐发现并试图理解SNS新闻媒体的反面效应。

文本环境治理已经成为SNS新闻媒体不得不直面的问题。回头看,那场亚洲地区SNS新闻媒体的结构调整体育运动,就始于对这种压力的澄清。

显然,我们永远无法退回没有SNS新闻媒体的世界。如果未来不存在SNS新闻媒体,那也只可能是出现一种更有吸引力的替代品。如今我们只能着眼于最小化SNS新闻媒体的反面影响,探讨如何在技术和产品层面改进SNS新闻媒体,如何明晰文本环境治理的边界,这将是一个漫长的过程,更需要像此前高速发展期去研究使用者需求一样,不断改善SNS新闻媒体的功能与使用者体验,创造更友善的SNS新闻媒体环境。或许这才是那场结构调整体育运动的最大意义。

引用/注释:

[1]https://twitter.com/kayvz/status/1270788548002631681

[2]https://www.facebook.com/business/news/how-facebook-addresses-covid-19-misinformation

[3]https://transparency.fb.com/data/community-standards-enforcement/hate-speech/facebook/

[4]https://www.theatlantic.com/ideas/archive/2021/10/facebook-failed-the-world/620479/

[5]Stieglitz, S., Brachten, F., Berthelé, D., Schlaus, M., Venetopoulou, C., & Veutgen, D. (2017). Do Social Bots (Still) Act Different to Humans? – Comparing Metrics of Social Bots with Those of Humans. HCI.

作者:梁晓健 王健飞,编辑:王焕超,来源公众号:波动刻度

原文链接:https://mp.weixin.qq.com/s/KxbFfsiRdjqwJ4AdxBryXw

责任编辑由@波动刻度 授权发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于CC0协议

该文观点仅代表作者本人,人人都是产品经理网络平台仅提供重要信息存储空间服务