斯特蘭奇博士案新聞摘要
《地球日報》
……斯特蘭奇博士到底是否在已知程序存在安全漏洞的情況下依舊堅持進行無人機測試成了本案最核心的部分……
……根據不願透露姓名的知情人士說,斯特蘭奇博士早就知道自己身患肺癌晚期但卻沒有告訴任何人,同時他的妻子有孕在身,因此完全有理由相信這是一次蓄謀已久的騙保行為。
……達力克教授認為,如果無人機程序中的錯誤導致的自然人傷亡事件都要由編寫程序的研發工程師們來負責話,那麼這將極大地傷害AI產業的發展。因此如果斯特蘭奇博士並不知道程序漏洞的存在的話,那麼他的行為就不能被定性為自殺,從而人身意外險理當有效。
注:有沒有讓你想起來《每日行星報》又名《星球日報》?對,就是大都會裡一個叫克拉克·肯特的記者供職的報社。
《小號報》
……AI理論專家馬文教授認為,AI程序非常複雜,而且具有自我學習與演化的能力,不可能事先蓄意留下一個具有明確指向性的漏洞。
……人類至今為止並不知道自我學習後的龐大神經網絡中的每個節點的作用,因此不可能事先就有針對性地對節點閾值函數做出預設性的調整。
……這次事故的出現應該被正確地理解為一次意外事故,而不應該被理解為一位受人尊敬的科研工作者的蓄意欺詐行為。
……這次事故的出現應該被正確地理解為一次意外事故,而不應該被理解為一位受人尊敬的科研工作者的蓄意欺詐行為。
注:我發誓,《小號報》與彼得·帕克供職的《號角報》真的一點關係都沒有! PS:號角也可以用英文trump來表示喲~~
《衛刊》
……AI評論家明斯基認為,既然學術界都清楚神經網絡的對抗樣本的存在,且並不清楚這樣的對抗樣本是否在自然界中一定不存在,那麼所有人工智能產品的使用就應該受到限制甚至是禁止。因此這次造成包括斯特蘭奇博士本人在內的七十九人喪生的特大事故完全可以被定性為人工智能研發界對安全性的忽視與不作為而導致的一次惡性意外致人死亡事件。
注:《衛刊》與《衛報》真的是一點點的關係都沒有的!
《地球日報》
……德拉伊姆公司的首席人工智能研究員賽博思博士進一步闡述道,即便是人腦也存在類似對抗樣本的神經系統缺陷,難道我們能因此而阻止人類參與任何活動麼?
……法布里卡特公司的CAO密特隆教授則認為除了神經網絡的設計者在設計神經網絡時可能存在的紕漏外,網絡調教員在利用龐雜的現實世界數據訓練神經網絡的時候一樣可能存在紕漏,比如數據選擇的偏向性漏洞……因此我們並不能認為是斯特蘭奇博士個人蓄意導致了包括自身在內的大規模人類死亡。
……法布里卡特公司的CAO密特隆教授則認為除了神經網絡的設計者在設計神經網絡時可能存在的紕漏外,網絡調教員在利用龐雜的現實世界數據訓練神經網絡的時候一樣可能存在紕漏,比如數據選擇的偏向性漏洞……因此我們並不能認為是斯特蘭奇博士個人蓄意導致了包括自身在內的大規模人類死亡。
注:CAO即Chief AI Officer,首席人工智能官。
《衛刊》
……米洛夫斯基教授強調,人工智能產品的神經網絡系統的設計漏洞、訓練培養所用數據的採樣漏洞以及此後在與人接觸中的性格與行為極端性調整,都有可能造成超出設計者預期的不可控變化,從而危及產品使用者的人身安全,因此人工智能產品必須立刻被禁止。
注:他絕對不是發明米諾夫斯基粒子的那位!絕對不是!
《小號報》
……馬文甚至嘲笑道,認為因為存在設計漏洞、採樣漏洞或者後期與人接觸而導致的自我調整從而可能導致AI出現不可預期的變化而放棄AI產品的想法,就好比認為父母提供的DNA存在疾病、學校教育存在偏差以及後期在社會上與人接觸可能學壞從而應該絕育一樣可笑。
《亞特蘭蒂斯郵報》
……斯特朗教授激動地認為,將人工智能的神經網絡的設計、訓練與使用類比到人的出生、學習和社會活動是極端錯誤的,有著危險的反人類傾向。
……教授進一步認為,既然人工智能並不具有與人相當的意識,它的所有行為都基於人類對其的塑造,那麼它就不應該成為法律意義上的行為發起者,而只能如工具一般作為行為中的道具……因此即便此次事故不能被定性為斯特蘭奇博士的蓄意自殺行為,也應該被理解為范特西公司人工智能研發部整體的一次惡性事故致人死亡事件。
《京都先驅報》
……AI應用先驅斯塔克與班納教授則反駁道,包括人類在內的所有動物的神經系統都是大自然所“設計”與“訓練”的,那麼是否可以說罪犯的犯罪行為本質上不應該被歸結為人的犯罪行為而要被認定為是大自然對人類的犯罪呢?
……斯特朗教授所認為的意識主體的判定是一個非常敏感且模糊的問題,目前學術界並沒有就此問題達成一致。而在這一前提下武斷地認為法律的責任方必須是人類是一種極其不負責任的行為。
注:絕對不是因為鋼鐵俠與綠巨人在電影《复聯2》裡創造了奧創我才寫這兩個人名的,絕對不是! ! !
《衛刊》
……米諾夫斯基教授譴責道斯塔克與班納混淆概念的行為是極其危險的。人類的神經系統是經過上萬年的演化而形成的自然產物,並非自然“設計”而來的。將“設計”這樣的術語用在人與AI的關係和自然與人的關係中是一種用心險惡的概念混淆。
……更重要的是,人類的神經系統是在不斷演化的,而非被設計的,這一差異是人工智能神經網絡所不具備的。
《地球日報》
……范特西公司的聲明讓所有人都為之震驚,人們無論如何都沒有想到這次的無人機是由AI自行研發的第三代AI。
……幾乎業界與評論界的所有人都參與到了這次譴責范特西公司的行為違反“AI衍生禁令”的浪潮中。
注:很顯然,這就是機器人定律系列中的“繁殖原則”的強化版。原版的繁殖原則為:機器人不得參與機器人的設計與製造,除非新機器人的行為滿足機器人定律。
《亞特蘭蒂斯郵報》
……吉布斯教授與玻爾茲曼教授發表聯合聲明,宣稱范特西公司的行為在倫理學上是反人類與反社會的。此種行為將巨大的力量交付到不可控的設備之上,是一種對應盡責任的不作為,從而是極端不負責任的。
……吉布斯教授與玻爾茲曼教授發表聯合聲明,宣稱范特西公司的行為在倫理學上是反人類與反社會的。此種行為將巨大的力量交付到不可控的設備之上,是一種對應盡責任的不作為,從而是極端不負責任的。
《小號報》
……范特西公司的CAO維恩博士認為,假如人們認為神經網絡不過是人類意志的衍生,那麼由神經網絡生成的神經網絡當然也是人類意志的衍生。從實際來說,這種行為不過是對人類在設計神經網絡過程中可能出現的漏洞與低效的一種補完,設計者依然是人類,只不過神經網絡進行了補充與衍生開發罷了,無論這種神經網絡是人類設計的還是人類所設計的神經網絡所設計的。
……而如果認為神經網絡所設計的神經網絡是危險的,且這種危險的根源在於脫離人類的監督,那就等於承認人類所設計的神經網絡本身是具有主觀上的獨立性的。
……因此反對者陷入了既否定AI脫離人的獨立性又譴責AI具有脫離人的獨立性,這麼一種尷尬且矛盾的理論困境之中。
《亞特蘭蒂斯郵報》
……對於維恩博士的說法,斯特朗教授嗤之以鼻地認為這是一種讓自己蒙羞的無力狡辯。
……這是一個不可控因素多次積累而可能加劇意外發生可能性的問題,而不是AI是否具有獨立人格或者說具有意識的問題——這一問題本身早已無須進一步討論。
……這是一個不可控因素多次積累而可能加劇意外發生可能性的問題,而不是AI是否具有獨立人格或者說具有意識的問題——這一問題本身早已無須進一步討論。
……且不說混淆這兩類問題可能給人帶來AI具有如人一般的意識的危險性,就說這種詭辯手法本身也是在為范特西公司在此次事件中的風險管控的逃避責任而找藉口。
……最後,就如那句老話:我的臣子的臣子,不是我的臣子。人類所研發的神經網絡所研發的神經網絡,怎麼能說就是人類所研發的神經網絡呢?
《京都先驅報》
……公認的人工智能設計大師皮姆教授對斯特朗教授的說法不肖一顧。他認為如果說這種由人工智能輔助設計人工智能的做法是一種風險累積的話,那麼人類研發過程中由一個研發組使用另一個研發組所研發的工具包的做法也是一種風險累積,那整個IT行業早就應該被整頓從而禁止一切形式的第三方工具庫與開源項目的存在了。
《衛刊》
“……毋庸置疑地,使用一個原本就不可控的、安全性與可靠性都未經嚴格測試的工具來開發一個涉及人身安全的交通工具的做法,都是欠妥的,甚至可以說是對社會安全具有潛在威脅的。”公共安全部的亞當斯部長最後如此總結。
《地球日報》
……由范特西公司所生產的人工智能導演機器人這次所拍攝的新片《斯特蘭奇博士》毫無疑問地引起了社會的極大關注,且無論是票房還是口碑都斬獲了令人印象深刻的成績。
……一如既往,人們對范特西公司在電影《斯特蘭奇博士》上映並大獲成功後才宣布導演“西塞·芬奇”是他們公司的最新人工智能設計的人工智能機器人的做法表現出了非常兩極分化的熱烈討論。
……當記者採訪這位“西塞”導演對自己作品是否能被稱為藝術品時,這位機器人導演如此回答:
我不清楚人類對我的作品的藝術性的評價,我也不關心。我事實上不願意使用“藝術性”一詞來討論我的電影的故事內涵、形式內涵、符號內涵及意向性內涵。要我說的話,我會說這部電影具有極高的“Cyt”。藝術性?那是人類關心的問題,我和我的機器人創作同伴只關心“Cyt”。
喜歡我的作品嗎?別忘了給予支持與讚賞,讓我知道在創作的路上有你陪伴,一起延續這份熱忱!
- 來自作者
- 相關推薦