此为历史版本和 IPFS 入口查阅区,回到作品页
LostAbaddon
IPFS 指纹 这是什么

作品指纹

斯特兰奇博士案新闻摘要

LostAbaddon
·
这是一篇在找资料的过程中从某个被遗忘的文件夹中翻找出来的老稿子。故事围绕着未来的一起交通事故展开——人工智能如果引发了交通事故,那么责任应该由谁来背?

《地球日报》

……斯特兰奇博士到底是否在已知程序存在安全漏洞的情况下依旧坚持进行无人机测试成了本案最核心的部分……

……根据不愿透露姓名的知情人士说,斯特兰奇博士早就知道自己身患肺癌晚期但却没有告诉任何人,同时他的妻子有孕在身,因此完全有理由相信这是一次蓄谋已久的骗保行为。

……达力克教授认为,如果无人机程序中的错误导致的自然人伤亡事件都要由编写程序的研发工程师们来负责话,那么这将极大地伤害AI产业的发展。因此如果斯特兰奇博士并不知道程序漏洞的存在的话,那么他的行为就不能被定性为自杀,从而人身意外险理当有效。

注:有没有让你想起来《每日行星报》又名《星球日报》?对,就是大都会里一个叫克拉克·肯特的记者供职的报社。


《小号报》

……AI理论专家马文教授认为,AI程序非常复杂,而且具有自我学习与演化的能力,不可能事先蓄意留下一个具有明确指向性的漏洞。

……人类至今为止并不知道自我学习后的庞大神经网络中的每个节点的作用,因此不可能事先就有针对性地对节点阈值函数做出预设性的调整。

……这次事故的出现应该被正确地理解为一次意外事故,而不应该被理解为一位受人尊敬的科研工作者的蓄意欺诈行为。

……这次事故的出现应该被正确地理解为一次意外事故,而不应该被理解为一位受人尊敬的科研工作者的蓄意欺诈行为。

注:我发誓,《小号报》与彼得·帕克供职的《号角报》真的一点关系都没有!PS:号角也可以用英文trump来表示哟~~


《卫刊》

……AI评论家明斯基认为,既然学术界都清楚神经网络的对抗样本的存在,且并不清楚这样的对抗样本是否在自然界中一定不存在,那么所有人工智能产品的使用就应该受到限制甚至是禁止。因此这次造成包括斯特兰奇博士本人在内的七十九人丧生的特大事故完全可以被定性为人工智能研发界对安全性的忽视与不作为而导致的一次恶性意外致人死亡事件。

注:《卫刊》与《卫报》真的是一点点的关系都没有的!


《地球日报》

……德拉伊姆公司的首席人工智能研究员赛博思博士进一步阐述道,即便是人脑也存在类似对抗样本的神经系统缺陷,难道我们能因此而阻止人类参与任何活动么?

……法布里卡特公司的CAO密特隆教授则认为除了神经网络的设计者在设计神经网络时可能存在的纰漏外,网络调教员在利用庞杂的现实世界数据训练神经网络的时候一样可能存在纰漏,比如数据选择的偏向性漏洞……因此我们并不能认为是斯特兰奇博士个人蓄意导致了包括自身在内的大规模人类死亡。

……法布里卡特公司的CAO密特隆教授则认为除了神经网络的设计者在设计神经网络时可能存在的纰漏外,网络调教员在利用庞杂的现实世界数据训练神经网络的时候一样可能存在纰漏,比如数据选择的偏向性漏洞……因此我们并不能认为是斯特兰奇博士个人蓄意导致了包括自身在内的大规模人类死亡。

注:CAO即Chief AI Officer,首席人工智能官。


《卫刊》

……米洛夫斯基教授强调,人工智能产品的神经网络系统的设计漏洞、训练培养所用数据的采样漏洞以及此后在与人接触中的性格与行为极端性调整,都有可能造成超出设计者预期的不可控变化,从而危及产品使用者的人身安全,因此人工智能产品必须立刻被禁止。

注:他绝对不是发明米诺夫斯基粒子的那位!绝对不是!


《小号报》

……马文甚至嘲笑道,认为因为存在设计漏洞、采样漏洞或者后期与人接触而导致的自我调整从而可能导致AI出现不可预期的变化而放弃AI产品的想法,就好比认为父母提供的DNA存在疾病、学校教育存在偏差以及后期在社会上与人接触可能学坏从而应该绝育一样可笑。


《亚特兰蒂斯邮报》

……斯特朗教授激动地认为,将人工智能的神经网络的设计、训练与使用类比到人的出生、学习和社会活动是极端错误的,有着危险的反人类倾向。

……教授进一步认为,既然人工智能并不具有与人相当的意识,它的所有行为都基于人类对其的塑造,那么它就不应该成为法律意义上的行为发起者,而只能如工具一般作为行为中的道具……因此即便此次事故不能被定性为斯特兰奇博士的蓄意自杀行为,也应该被理解为范特西公司人工智能研发部整体的一次恶性事故致人死亡事件。


《京都先驱报》

……AI应用先驱斯塔克与班纳教授则反驳道,包括人类在内的所有动物的神经系统都是大自然所“设计”与“训练”的,那么是否可以说罪犯的犯罪行为本质上不应该被归结为人的犯罪行为而要被认定为是大自然对人类的犯罪呢?

……斯特朗教授所认为的意识主体的判定是一个非常敏感且模糊的问题,目前学术界并没有就此问题达成一致。而在这一前提下武断地认为法律的责任方必须是人类是一种极其不负责任的行为。

注:绝对不是因为钢铁侠与绿巨人在电影《复联2》里创造了奥创我才写这两个人名的,绝对不是!!!


《卫刊》

……米诺夫斯基教授谴责道斯塔克与班纳混淆概念的行为是极其危险的。人类的神经系统是经过上万年的演化而形成的自然产物,并非自然“设计”而来的。将“设计”这样的术语用在人与AI的关系和自然与人的关系中是一种用心险恶的概念混淆。

……更重要的是,人类的神经系统是在不断演化的,而非被设计的,这一差异是人工智能神经网络所不具备的。


《地球日报》

……范特西公司的声明让所有人都为之震惊,人们无论如何都没有想到这次的无人机是由AI自行研发的第三代AI。

……几乎业界与评论界的所有人都参与到了这次谴责范特西公司的行为违反“AI衍生禁令”的浪潮中。

注:很显然,这就是机器人定律系列中的“繁殖原则”的强化版。原版的繁殖原则为:机器人不得参与机器人的设计与制造,除非新机器人的行为满足机器人定律。


《亚特兰蒂斯邮报》

……吉布斯教授与玻尔兹曼教授发表联合声明,宣称范特西公司的行为在伦理学上是反人类与反社会的。此种行为将巨大的力量交付到不可控的设备之上,是一种对应尽责任的不作为,从而是极端不负责任的。

……吉布斯教授与玻尔兹曼教授发表联合声明,宣称范特西公司的行为在伦理学上是反人类与反社会的。此种行为将巨大的力量交付到不可控的设备之上,是一种对应尽责任的不作为,从而是极端不负责任的。


《小号报》

……范特西公司的CAO维恩博士认为,假如人们认为神经网络不过是人类意志的衍生,那么由神经网络生成的神经网络当然也是人类意志的衍生。从实际来说,这种行为不过是对人类在设计神经网络过程中可能出现的漏洞与低效的一种补完,设计者依然是人类,只不过神经网络进行了补充与衍生开发罢了,无论这种神经网络是人类设计的还是人类所设计的神经网络所设计的。

……而如果认为神经网络所设计的神经网络是危险的,且这种危险的根源在于脱离人类的监督,那就等于承认人类所设计的神经网络本身是具有主观上的独立性的。

……因此反对者陷入了既否定AI脱离人的独立性又谴责AI具有脱离人的独立性,这么一种尴尬且矛盾的理论困境之中。


《亚特兰蒂斯邮报》

……对于维恩博士的说法,斯特朗教授嗤之以鼻地认为这是一种让自己蒙羞的无力狡辩。

……这是一个不可控因素多次积累而可能加剧意外发生可能性的问题,而不是AI是否具有独立人格或者说具有意识的问题——这一问题本身早已无须进一步讨论。

……这是一个不可控因素多次积累而可能加剧意外发生可能性的问题,而不是AI是否具有独立人格或者说具有意识的问题——这一问题本身早已无须进一步讨论。

……且不说混淆这两类问题可能给人带来AI具有如人一般的意识的危险性,就说这种诡辩手法本身也是在为范特西公司在此次事件中的风险管控的逃避责任而找借口。

……最后,就如那句老话:我的臣子的臣子,不是我的臣子。人类所研发的神经网络所研发的神经网络,怎么能说就是人类所研发的神经网络呢?


《京都先驱报》

……公认的人工智能设计大师皮姆教授对斯特朗教授的说法不肖一顾。他认为如果说这种由人工智能辅助设计人工智能的做法是一种风险累积的话,那么人类研发过程中由一个研发组使用另一个研发组所研发的工具包的做法也是一种风险累积,那整个IT行业早就应该被整顿从而禁止一切形式的第三方工具库与开源项目的存在了。


《卫刊》

“……毋庸置疑地,使用一个原本就不可控的、安全性与可靠性都未经严格测试的工具来开发一个涉及人身安全的交通工具的做法,都是欠妥的,甚至可以说是对社会安全具有潜在威胁的。”公共安全部的亚当斯部长最后如此总结。


《地球日报》

……由范特西公司所生产的人工智能导演机器人这次所拍摄的新片《斯特兰奇博士》毫无疑问地引起了社会的极大关注,且无论是票房还是口碑都斩获了令人印象深刻的成绩。

……一如既往,人们对范特西公司在电影《斯特兰奇博士》上映并大获成功后才宣布导演“西塞·芬奇”是他们公司的最新人工智能设计的人工智能机器人的做法表现出了非常两极分化的热烈讨论。

……当记者采访这位“西塞”导演对自己作品是否能被称为艺术品时,这位机器人导演如此回答:

我不清楚人类对我的作品的艺术性的评价,我也不关心。我事实上不愿意使用“艺术性”一词来讨论我的电影的故事内涵、形式内涵、符号内涵及意向性内涵。要我说的话,我会说这部电影具有极高的“Cyt”。艺术性?那是人类关心的问题,我和我的机器人创作同伴只关心“Cyt”。
CC BY-NC-ND 2.0 授权