欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!
公告:
欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!

恶搞大军出动,佩洛西这次被「假视频」整惨了!

首页 Twitter   作者:coolfensi  2022年08月05日  热度:6764  评论:0     
时间:2022-8-5 17:55   热度:6764° 

  【新智元导读】恶搞视频越来越「邪门」了!面对层出不穷的假视频,媒体是否有义务做出提醒?

  2019年5月,佩洛西的一段「醉酒演讲视频」火爆全网。

  最开始,这段视频出现在Politics Watch Dog的Facebook页面上。在被传到Twitter、YouTube之后,这段阴阳怪气的恶搞视频引发了病毒式传播。仅Facebook上的某个版本,就有超过140万次的播放,以及3万+的转发。

  视频显示,佩洛西当时在出席一个活动,她酷似一个「酒蒙子」,讲话也不清晰。

  据《华盛顿邮报》记者和研究人员对该失真视频的分析表明,视频的速度已降至原始速度的75%左右,同时上调了声调。而且内容也被重新编辑过,所以才会呈现出「酒蒙子」的效果。

  在这个视频中,我们可以看到恶搞的版本以及原始的版本。

  而这段被恶搞过的视频甚至还引来了特朗普的嘲讽。

  据悉,原始视频是佩洛西5月22日在American Progress Ideas Conference发表的一段批评特朗普有所掩饰的讲话。

  难怪特朗普会幸灾乐祸。

  更神奇的DeepFake

  佩洛西的恶搞视频,靠的主要是降速和变调。

  不过在如今,如果想要制造更以假乱真的佩洛西讲话视频,可谓是轻而易举了。

  对于DeepFake,相信大家都不陌生。

  遭过DeepFake「毒手」的有爱因斯坦、黑寡妇、扎克伯格……

  此前,网上流传着一段爱因斯坦鼓励大家团结一致共同抗疫的视频。

  女士们,先生们:我的名字叫Albert Einstein。我们全体人类正陷入一场战争,而我们的敌人却看不见摸不着。请大家待在家里,保持距离,勤洗手。团结起来,我们一定能够战胜新冠病毒。谢谢。

  看完之后,简直惊掉下巴!

  难道爱因斯坦早就预知了2019年的新冠肺炎,甚至还为此录下一段视频,鼓励大家共同抗疫?

  爱因斯坦那看透人类本质的狡黠的微笑、标志性的发型和帅气的胡渣子,甚至连额头的皱纹、眼镜片的反光都非常细腻,说话的语气和口音也非常逼真。

  这看起来毫无违和感的视频,是真的吗?

  当然不是真的!这个视频主要使用了DeepFake技术,配合高超的视频特效手法,制作出一个以假乱真的爱因斯坦视频。

  当初,三星DeepFake AI也给蒙娜丽莎整了一个「表情包」!

  DeepFake在2017年底横空出世,它虽然不是第一个实现换脸的技术,但却是将AI假视频带入大众视野的先驱。

  DeepFake技术基于深度学习,适用于修改图片和影像,可以实现人脸的移花接木。哪怕是动图或视频中的人物,也可以被替换成毫不相干的另一个人。

  DeepFake刚诞生时,人们还不明白这项新技术意味着什么。

  直到人们发现,它不仅能在小电影上移花接木,还能伪造出各领域名人以假乱真的视频。立法者终于意识到了它的可怕之处。

  2019年的佩洛西的伪造视频,技术还显得十分笨拙。网民们轻易就能揭穿这是个假视频。

  而如今的假视频技术,已经足够造出以假乱真的视频。

  实际上,能够制造假图片和假视频的AI技术不仅仅只有DeepFake,相关技术在过去几年就已经掀起了一股浪潮。

  这都要归功于另一项大名鼎鼎的深度学习技术:生成式对抗网络(GAN)。

  自2014年Ian Goodfellow发明GAN以来,世界范围内的很多深度学习团队和企业都开始在上面添砖加瓦,各种GAN框架漫天飞舞。

  在DeepFake出现之前,就已经有了基于GAN的Face2Face技术和CycleGAN模型。

  这些模型可以实时给人换脸,还能把马变成斑马。

  媒体有提醒义务吗?

  对于互联网上大肆传播的真假难辨的视频,媒体和发布平台有告知用户该内容是否为「真」的义务吗?

  「可以说,现在互联网上最重要的事就是内容认证。」Adobe的CEO Shantanu Narayen接受福布斯采访时说。「当我们创造世界上的内容时,我们必须帮忙确定内容的真实性,以及内容的出处。」

  三年前,Adobe发起了⼀项名为「内容真实性倡议」(Content Authenticity Initiative)的活动,这项活动发动了很多媒体和技术合作伙伴,涵盖了700多家公司,希望通过全球性的联合来强调和确认内容的「出处」。

  根据这个倡议,内容的设计者和消费者可以选择创建并跟踪一个数字线索,以此来显示谁将对给定的视频或图像负责,包括他们对内容做出的任何更改。

  不过,蒙特利尔人工智能伦理研究所(Montreal AI Ethics Institute)的创始人Abhishek Gupta却认为,给内容贴上「真实」的标签这一行为并没有那么重要。

  因为在他看来,总有那么一些人,就是愿意相信自己选择相信的东西,尽管所有迹象都表明这是假的。「虚假内容是为那些满足于短平快式互动的人量身定做的,这种人本来就很少去花时间判断网上的东西是否是真的。」

  换句话说,互联网上傻子多。

  Shantanu Narayen也认为,消费者自己也有义务寻找真相,通过现有的工具来验证他们浏览、分享、发布和转发的图片和视频的真实性。「他们有责任来保护自己(不被虚假的东西所蒙蔽),这也是消费者责任的一部分。」