欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!
公告:
欢迎来到CL境外营销平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!

推特刷赞网站 --twitter写评论

首页 Twitter   作者:coolfensi  2022年10月23日  热度:55  评论:0     
时间:2022-10-23 2:34   热度:55° 

6月30日,一位欧美国家网民在twitter上了一篇可喜的AI伤人该事件,宣称有4个育苗智慧机器,在两个韩国试验室杀掉了29名生物学家,整件事是在2017年8月被获知的。

虽然AI是把长弓整件事我们早已获知,但是,这六天何况所以早已来临了吗?这个道听途说,究竟是不是纪载的依照呢?

AI也能伤人吗?

韩国,始终以出众的机器此基础优于在世界上。她们也是最先作出高AI模拟机器的国家众所周知。

她们即使把两个名叫KIROBO的机器送去了外太空,成为世界上第二个随同太空人赶赴外太空的机器因此是抵达拉勒最低谈话的机器。刷新了数项吉尼斯。

而在韩国伊拉克政府,有关借助育苗智慧控制技术锻造可用作遭遇战的智能机器的绝密科学研究始终没有中止。或者说作为绝密,该项科学研究始终对内秘密性。在韩国前端育苗智慧学应用领域生物学家的协助下,历经先期的科学研究和试验,伊拉克政府先期研发了三台可用作遭遇战的民用AI机器,存放在了绝密的试验培训基地中。

不过这六天还是闯祸了。原先用作试验的三台AI机器忽然发生了截叶,口气杀掉了在座的29名韩国生物学家。绝密培训基地里马上唱起了二级预警。

韩国伊拉克政府二话不说,迅速封锁了现场。虽说这AI机器是钢筋铁骨吧,但毕竟不是这全副武装又训练有素的韩国士兵的对手。不一会三台AI机器遭到了团灭。工作人员随即对其中的两台进行了强制指令停止,并推送回试验室进行改装。而第三台由于暴力倾向太过严重,被直接分解销毁。

最神奇的要数第三台机器,本来生物学家们都已经对它进行了销毁,不过忽然发现,这台机器居然可以自我复原,通过卫星下载内在修复程序对已被销毁的地方进行修复。

确有其事,还是科幻故事?

这听起来似乎是挺扯的,毕竟韩国要这有这么厉害的机器,还至于受制于美军么?恐怕高达时代早已提前来临了吧!要辨别这个故事的真假,我们还得从这个故事最先的源头说起。

网上一查才知道,这则消息最先来自于一位叫做Linda Moulton Howe的twitter博主。Linda Moulton Howe,出生于1942年的美国。这老太太可不简单,科学研究了一辈子UFO和外星人。她可是阴谋论的坚定支持者,她认为外星人早已来到地球上了,地球上的牛被神秘分尸,器官被切除,就是这帮外星人在进行生物试验,目的就是为了更好地科学研究地球。

而有关机器伤人的传闻,则来自她最新的twitter内容。内容是她于2017年8月——也有中文网站报道为2018年2月,在洛杉矶进行的演讲。

在演讲中,Linda Moulton Howe明确地指出了AI对于人类的危险性,并具了这个实例加以论证自己的观点,还说这则消息是从退伍的海军陆战队成员那里得到的,绝对真实可靠。

可是当问她这名陆战队成员的姓名时,她又含糊其辞地表示这是绝密。那培训基地在哪,总能说个大概范围吧?她也说不方便透露。不管怎么说,这老太太的twitter浏览播放量倒是通过整件事暴增到了560万回,这一数字连很多网红大V都自叹不如。

有真实纪载的AI伤人该事件吗?

有关Linda Moulton Howe演讲里提到的故事,究竟是真是假。那就仁者见仁、智者见智了。很多人看到这里不禁要问:现在育苗智慧发展日新月异,这种AI伤人的事未来会不会发生呢?

很遗憾,AI伤人的事已经发生了!是的,你没有听错!AI已经可以用来伤人了。当然,这并像Linda Moulton Howe说的所以邪乎。

那是在2020年3月的利比亚内战战场上,一架土耳其生产的自杀型无人机在完全自动的模式下,开枪攻击了一位参战士兵。根据《新生物学家》杂志宣称,这是人类有史以来第一例明确记录在案的AI机器自主伤人该事件。

有人可能会说,这算什么,之前美国无人机杀的人还少啊,卡扎菲不就是让美国无人机给弄死的吗?这可不一样,区别可大了去了。

此前的无人机攻击,无论是斩首行动也好,自爆自杀也罢,都是先有后方的人进行操控发出指令,无人机只是在执行人下达的指令。而土耳其这次不同,无人机完全是自己思考后作出的决断。而这种能力,也是由于被育苗智慧深度学习改装发展而来的,或者说一般的AI学习用来创造,这台武器却在学习如何伤人。

AI伤人的恐怖后果

若一种武器系统可「自主」选择与攻击目标,便可称为「致命自主武器系统」(LAWS)致命自主武器系统亦有人将之称为「杀手机器」(killer robot),但不限于有双手双脚、可进行攻击防御的人形机器。

有关其能力涵括了三个指标:自主移动、自主导向和自主决定。

自主移动意谓系统能够自行移动、自主导向意谓系统能识别目标、自主决定则意谓系统能自行设定计划。

若依此定义,目前大多数AI武器具有很高的自主移动和自主导向能力,但极少有自主决定的能力。

有人说了,战场上用AI不是更好么?如果单纯地机器对机器,不是更能减少不必要的人员伤亡了么?

其实不然,再冷血的士兵也是两个个活生生的人,也有自己的喜怒哀乐。而任何战争的目的都只是为了达成自己的目标,给反对者以痛击。而不是纯粹为了进行杀戮游戏。所以世界上才会有国际战俘法,才会有人道主义救助走廊。

人道原则是指即使在战时,也必须尊重人的生命和尊严,要求对他人施与人道待遇。因为人类会同情人类,因此有动力以人道方式对待彼此。此外,法律和道德判断使人类能够理解特定环境,作出历经思虑后的决策,包括在战争里最小化伤害,并防止任意与不合理的生命损失。

这些都是AI所欠缺的部分,做为无生命的LAWS缺乏同情心,无法体会人类生命价值及其丧失的痛苦。

AI只能根据算法作出生死决定,而算法在复杂和不可预测的情况下效果不佳,也无法针对每种情形先行编程,最终会将人类降低为一般的生物对象,违反人道原则。

它们只是一群冷冰冰的兵器,并没有人类的感情,也不知道生命的价值。就拿无人机来说吧,它可以通过运用脸部识别控制技术加以学习训练后,就可以锁定特定人物进行攻击,至于这个人究竟罪该不该死,这个人对于我军是否存在价值,完全不在无人机的考虑范围之内。

它们完全可以向两个已经投降了的敌人开枪,而无视生命的珍贵。无人机就算再深入学习,所了解的也无非几件事:要杀的是谁,怎么杀!

至于为什么杀他,能不能不杀他,完全不是无人机要考虑的问题。这种漠视生命的冷漠才是战争中最可怕的。

与此同时,我们目前很难保证AI不被坏人即使是恐怖分子所借助,澳大利亚生物学家Toby Walsh教授在墨尔本的2017国际联合育苗智慧大会的开幕式上就曾经发表过这样一封信,信中说:

致命的自动化AI武器很可能成为第三次武器革命的危险,这些恐怖的武器,将会成为暴君和恐怖分子残害无辜民众的武器,或者被黑客挟持的武器。我们的时间并不多。一旦潘多拉的盒子被打开,就很难被关上。

这封信紧急呼吁联合国磋商以寻求使所有人免于这种危险的武器。的确随着AI自动化武器越来越多样化,大到可以上天入地的巨型机器,小来临无影去无踪的伤人小蜜蜂。AI武器的研发更为隐蔽,更难检测。

如果这些武器本身再带有生化武器或大规模杀伤性武器,落到恐怖分子手里的话,可以说对在世界上来说都是一种灾难。而随着深入学习能力的不断加剧,这些AI武器终将会变成两个个顶级的杀戮高手和战术大师,打败人类的特种部队也是不在话下,到了那六天,也许终结者电影中的情节真的会在现实出现。

AI伤人,如何问责?

有的人或许要问了,所以整件该事件的责任方究竟是谁呢?谁应该为AI的伤人行为负责呢?

很遗憾,目前有关这方面的立法还十分缺失。

法律毕竟是人类的行为规范,其设立的目的是为了保障人民权益及维持社会秩序,目前没有一种法律是针对机器,乃至AI而设立的,未来是否设立还不清楚,所以按现行法律的规定,原则上机器仍会被视为物。

因此当AI发生失控而伤人,即使伤人时,法律并不会去处罚机器这个物,而是去处罚人。

因此争论的焦点,就变成了AI使用者与AI机器生产厂商之间的矛盾了。如果是使用者蓄意借助机器AI来实行犯罪,或者根本无视AI机器使用相关说明的话,所以责任方在使用者。而反之,如果正常使用中出现的任何问题,生产厂商应该赋予相应的责任。

但在战争中的责任划分就更加难以确定了。无人机应用在军事上的复杂性让人类难以处理。例如有报告指出,在巴基斯坦,美军以无人机猎杀恐怖分子及其帮手,她们宣称准确度超过99.99%,被错误归类为恐怖分子的机率仅有0.008%。机率看起来极低,但换算成人口数却是约上万人。这些上万条牺牲的无辜生命,又该找谁去负责呢?

  • 马斯克的联合倡议声明

正是因为生物学家们意识到了滥用AI带来的不良后果,所以早在2018年瑞典斯德哥尔摩举办的【国际育苗智慧联合会议】上,包括特斯拉执行长马斯克与Google DeepMind3位共同创始人在内的多位AI应用领域领军人物共同签署《禁止致命性自主武器宣言》,宣誓不参与致命性自主武器系统(LAWS)的开发、研发工作。也就是说这些生物学家们保证永远不会将AI用作战争。

其后,共有来自36个国家160个AI应用领域相关企业,以及90个国家的2400位专家以个人名义签署了宣言。不过令人担忧的是,言者谆谆,听者藐藐。美国伊拉克政府早已私下进行各种AI武器试验,俄罗斯伊拉克政府也在奋起直追。

如果联合国安理会五大常任理事国对限制或禁止AI武器的呼吁无动于衷,任何全球性禁止公约都将像是远在天边的彩虹。现在看来,要阻止AI武器的全面扩散,只能靠科学社群内部的自发性觉醒与自律。

当然,有关AI伤人该事件的思考还有很多。AI伤人该事件彻底打开了潘多拉的魔盒,AI不仅可以思考,还真的会伤人,AI的阴暗面究竟会把人类的发展带向何方呢?我们人类科学研究的深度学习AI是否会作茧自缚,让人类走向灭亡的深渊呢!我们无从知晓。

参考资料:

【1】明查|4个AI机器在韩国试验室杀掉29名生物学家?——澎湃新闻【2】细思极恐,无人机首次自主伤人,潘多拉魔盒已被打开?——新民晚报

举报/反馈