此为历史版本和 IPFS 入口查阅区,回到作品页
wenyi
IPFS 指纹 这是什么

作品指纹

渣翻 │ 哈拉瑞訪談:智人→智神

wenyi
·
哈拉瑞訪談翻譯。大概在講「無用階級的誕生」、「人工智能的潛在威脅」、「個人資訊的重要性」等...

2016年9月的影片。

前面大部分是主持人在介紹哈拉瑞。如果你想知道哈拉瑞是誰,直接google比較快,我這邊就不做翻譯了。從哈拉瑞講話,影片3:23 開始翻譯。

主持人邀請哈拉瑞介紹他的新書《人類大命運:從智人到智神》大概是在說什麼。

哈拉瑞:「

簡單來說,我整理人類從上一世紀到現在達成的各種偉大成就。

幾千年來,人類向各種神、天使祈禱,希望神能夠幫助人類對抗三個最大的敵人『飢荒、瘟疫、戰爭』,但都沒有用。然後他們嘗試了各式各樣的政治型態、經濟模式,也同樣沒用。然後,從上一個世紀開始,因為人們開始發展基因編輯技術,我們終於開始可以掌控飢荒、瘟疫和戰爭。當然這世界上還是有很多巨大的問題,比如暴力、疾病等。但這些問題從『無法掌控的自然力量』到現在我們理解的越來越多,能夠預先知道危險及如何預防。

到了現在,人類史上第一次,吃太多而死的人比吃太少的人還多。從WHO 最近的報告指出,每年有三百萬人死於肥胖而衍生的疾病,而死於飢荒或營養不良則是一百萬。較多人類老死,而不是死於疾病,這也是史上第一次。還有一項也是史上第一次,就是人類的自殺人數比戰爭、犯罪、恐怖攻擊三個加起來還多。某方面來說這其實是件好事。

今天,可口可樂或麥當勞造成的威脅比isis或蓋達等恐怖組織還大。死於吃太多麥當勞和死於恐怖攻擊,這機率大概是一千分之一。這不是誇大比喻,而是有實際的數據。

今天我們能夠掌控這些問題,當然現在還是有許多問題存在,但今天如果談到飢荒、瘟疫和戰爭,大多數是因為某些政治因素或人類的無能,而不是人類的無知。以飢荒來舉例,現在世界不存在任何飢荒,只有因政治因素造成的飢荒。如果今天某個在南韓、敘利亞的人死於飢餓,不會是因為自然因素,而是某個政治領導人、政府或宗教理念故意如此。

所以這對世界來說是一個新的階段。我們不用任何〝神〞的幫助,就能掌控那三個問題。

而本書問了一個問題『那接下來是甚麼呢?』

雖然我們解決,或正在解決那三個問題,但下個或下下個世紀,我們會如何呢?本書提出人類接下來的大計畫會是抵抗老死、尋找或解密幸福快樂,以及將人類升級為神。我並不是隱喻的在講這件事,而是實際的指出,上千年來,人類想像神的各種能力、特質等,我們可以在教堂、壁畫或書中看到、聽到神能做甚麼。今天某些產業正在為我們人類自己發展這些所謂的〝神的能力〞。比如抵抗死亡,長生不老,或依照我們的喜好來創造生命。在《創世紀》中,神做的第一件事就是依照祂的喜好來創造動物、植物、人類。現在我們人類正在為我們自己開發這種神力。

在21世紀的人類經濟中,主要或最重要的商品,可能不會是載具、食物或武器,主要商品很有可能是身體部位、腦或心智。人類現在更是邁向遠古人類所描述的神,因為像耶和華這類的神,祂只能創造有機生物,比如我們現在待的這個世界所有動植物都是有機的。我們人類現在正在超越這項能力。不只會得到創造這些存在好幾萬年有機生物的能力,我們正在學習、發展如何創造第一個無機生物,比如從未出現過的人工智能。從這點來說,人類正在將自己升級,超越我們過去所認識的神。

要達成這偉大工程,我們必須把方向由外轉為內。

人類的偉大成就如解決饑荒和減少戰爭,是我們對自己所處的外在世界越來越多的理解。下一階段會需要人類更多的理解自己,來解碼人體生物化學,學習如何重新設計和生產身體部位或大腦。這會需要生命科學和電腦科學的結合,因為人類的生理反應是非常龐大的資料,人類的大腦無法處理如此龐大的數據,需要人工智能和大數據的協助。就算是現在,我們可以看到生物科學和電腦科學的結合,但結果可能不會是〝人類升級為神〞,可能是人類的滅亡。因為人類可能會創造一個遠比自己還強大的一個東西。如果人工智能或大數據系統,比你自已還了解你,那你對它來說就沒有用了。任何你能做的事,它都能做的比你更好。

當然這只是個可能性,並不是預言。21世紀,許多人將會發現自己被歸類到一個新的階級。19世紀的工業革命誕生了勞動階級,而接下來21世紀很有可能會有『無用階級』,且21世紀的主要問題都會圍繞在這無用階級上。

以上是本書的大綱..大概在講這些東西。

13:22

接下來是主持人的提問,問哈拉瑞從上一本《人類大歷史》到現在這本《人類大命運:從智人到智神》有什麼樣的關聯性,是因為研究人類歷史而有這本書嗎?《人類大命運:從智人到智神》是續集嗎?

哈拉瑞:「

最剛開始我都不確定我會完成一本書,更不用說兩本。《人類大命運:從智人到智神》某方面來說確實是《人類大歷史》的續集。因為《人類大歷史》這本書,我做了很多演講、對談等,我本身是個歷史學家,我研究歷史,但很多問題是有關未來,有些人會問說:『ok~你跟我們說了幾千年的歷史,那接下來呢?』,這是我收到最多的問題,包含對談也是,都是要我推測未來長怎麼樣。

所以做了更多的演講和對談,看了很多的文章和論文,最終《人類大命運:從智人到智神》逐漸成形,當然本書的基礎是《人類大歷史》。《人類大歷史》主要是說人類能夠征服全球,從人猿到全球主宰。人類之所以能夠控制多數,是因為我們能創造故事,並且將之散步,然後相信它們。

所有人類的巨大協作,背後都有一個故事,不管那個故事是有關神、國家、人權或是錢,背後總是有個故事。到了現在,當尖端科技和以前的那些神話故事做比對,使你理解到過去那些所謂的天堂並不是這麼遙遠,很有可能在我們生活中實現。

老實說我是一位歷史學家,我研究人類歷史,對科技並不是十分了解,我甚至需要我老公幫忙操作打開電視這種簡單的技術問題。所以我其實對比如說人工智能或大數據的技術層面不是很感興趣,我只是在這之中看到:『ok,如果真的有無人載具的存在,那...』

17:19

主持人打斷了哈拉瑞提出了疑問。主持人說哈拉瑞本身是一位歷史學家,會不會有人質疑他根本對科技一無所知,卻做出這種大膽的假設說人工智能會毀滅人類?

哈拉瑞:「

當然我的資訊都是來自專家,對我來說我最重要的工作就是理解那些專家想要表達的,然後推測甚麼可能、甚麼不可能。對於這些科技相關的問題,老實說這不是我的專長,且你不可能學會所有事,勢必需要放棄某些事物。我覺得大部分的人都對這些高科技的事物感到有興趣,對技術層面的資訊也十分了解,比如生物科學技術、基因工程或人工智能。

但對我來說,我感興趣的不是那些技術問題,而是政治、經濟、哲學問題。如果你沒有哲學、歷史相關背景,要如何回答『人工智能會如何影響未來』這類的問題?比如核子武器,我不需要知道核子武器到底是如何運作,說不定裡面有一個惡魔在裡面,誰知道呢?重要的是我知道這個東西會在一兩分鐘以內抹殺幾百幾千人。從這裡我們就可以開始思考像這種武器會如何影響比如地緣政治、宗教,而它如何運作,其實不是很重要。

19:45

如果人工智能落在錯的人手上,是否會造成像核子武器這樣大規模的毀滅?

哈拉瑞:「

兩者造成的傷害不同層面。核子武器主要對物體造成實際的物理傷害。根據某些專家指出,超級人工智能也有可能會因為某些原因對人類造成實際上的傷害。舉一個大家都喜歡的例子,假設某個大公司造了一個超級人工智能,為了測試這個人工智能,就開始叫它計算『圓周率』。然後這人工智能做的下一步就是毀滅人類,把整個地球改造成超級大電腦,而這個跟地球一樣大的超級電腦甚麼事都不做,就只是永無止境的計算圓周率。因為人工智能被他的造物主賦予任務要計算圓周率,而其他的任何實體,不只沒有在計算圓周率還浪費了能源。那我(人工智能)就必須要奪取並使用那些能源來有效利用,但他們勢必會反抗,那我就得先毀滅所有人。

『人工智能毀滅人類』這是最受歡迎的比喻,當然是有可能發生,但身為一位歷史學家、哲學家,我從另一種角度思考,不是人工智能物理上毀滅人類,而是讓人類變得毫無用處。因為人工智能已經進化的比人類還要強大,他們沒有把我們滅絕,而是一腳踢到旁邊,當我們不存在,然後邁向神奇美好的未來。這種命運或許比人類被消滅還遭。

我覺得這非常有可能發生。我覺得未來50年,不太可能會發生人工智能為了要計算圓周率而滅絕人類。但非常有可能會發現世界上很多人被人才市場所拋棄,且他們失去了經濟和政治上的權利,因為不管他做甚麼,人工智能做得比他還好。

我們可以在軍隊中看到這件事正在發生。在過去,我們會招募好幾十萬甚至上百萬的士兵,並且仰賴這些平民士兵。即使是某些極權主義政權,比如像納粹就十分重視並投資許多資源在人民的教育、健康和幫助窮困的德國人。因為納粹知道,如果這個國家要變的偉大,這個國家的軍隊、經濟要強大,就需要仰賴這國家的所有人。而現在,21世紀初,這種模式已經結束了,你不需要有幾百萬人的軍隊,你只需要有一小搓超級士兵,或有高度專業的人來操作高科技武器比如無人機、網路戰等。而這種模式很有可能會在我們平民生活中發生。

23:48

主持人提出,現階段人工智能主要是幫助人類做選擇,還沒有到人工智能做選擇。如果照你所說的,人工智能開始超越人類,那是甚麼東西讓人工智能決定什麼是對甚麼是錯,而不是讓人類來做決定?主持人還指出哈拉瑞講到「人工智能將人類踢到一旁」其實有點不合邏輯,如果人工智能設定要聽從人類,他又如何會將人類踢到一旁呢?

哈拉瑞:「

首先,大部分人的工作不需要做一些重大的道德抉擇。

如果你是個計程車司機,或某個醫院的普通科醫生,你通常不會需要做一些道德問題。你的工作就是將乘客從A點載到B點,或診斷一個病人他有甚麼樣的疾病並建議他要如何治療。這是一個重複性高的模式識別,基本上這種工作人工智能會做得更好。

25:35

主持人提出質疑,說人類現階段還沒到那個地步,比如像哈拉瑞說的,做診斷的不是人而是機器,我們還沒有到將「做決定的權利」交給人工智能。

哈拉瑞:「

當然現階段是還沒,我們還沒看到無用階級的大量出現,這是一個可能性的發展,或許會需要10-20年?但當我們有了一個超級電腦,如IBM 的華生,他確實在『診斷』這個技巧上超過人類,並且提供正確的治療方式。當然有些醫生還是需要人類來執行,比如軍隊對軍醫會需要有一些特別的技能,但社會上大部分醫生比如普通科或腸胃科,不用一定要人類來執行。且這都沒有牽扯到那些複雜的道德問題。

且非常有趣的如果談到道德問題,這些吵了上千年都沒有答案的哲學問題,到了現在,那些google、特斯拉的工程師會需要被迫解答這些道德問題。比如一輛自動車正在行駛,忽然之間有個人從馬路旁衝出來,這台自動車可以往旁邊一拐,駛進懸崖,殺死乘客,拯救那位從路中衝出來的路人。這些問題在各大學校,教授學生們討論許久都沒有個明確答案,但現在這些問題已經變成實際的技術性問題。就算你決定將車子駛向懸崖,犧牲自己,拯救路人,這其實對人們在生活上做的選擇,沒有實際上的影響。各種研究指出,我們人類雖然會對生活上各種事有些道德推論,但人們的實際作為和〝我們應該怎麼做〞總是天差地別。

這些自動車會實際的碰到這些道德問題,但這些自動車、演算法,其實都是google 工程師所寫出來的,他們會需要去定義這些問題,給出明確的答案。當自動車真的碰到有路人衝出,它可以做的不一定會是將車駛進懸崖,殺死乘客,因為這個問題有很多其他的解答,比如google 或特斯拉可能會推出兩種車,一種是將車駛進懸崖,另一種是衝向路人,將選擇權交給消費者,因為〝消費者最大〞對吧?

所以為了要解決這些道德、哲學問題,google 不只在招募程式設計師、生物學專家,我覺得未來幾年,下一個階段,將會開放更多哲學專業的職位。因為這些哲學問題會演變為實際的現實問題,這些都會成為演算法的一部分。

29:14

你會擔心像這種哲學問題,沒有像現在這樣拿出來所有人一起討論,而是由某些大企業自行決定?

哈拉瑞:「

這確實是個問題。

回看過去20年網際網路的情報革命徹底改變人們的生活方式、經濟、政治。但我們認真想一下,對於網路這個東西,我從來沒有做過任何形式的〝投票〞。在以色列,每過個幾年會有選舉制度,但政府一直倒台,所以我們大概每一兩年都會去投票,但對於網路我從來沒有投過任何票,它就這樣發生了!這不是只發生在以色列,美國也是這樣。因為網路有很多面向,有些十分關鍵的事,比如網路安全、隱私權、我們會有怎麼樣的網路環境等。這些抉擇沒有經過任何政治系統,也沒有經過任何民主形式的討論。我覺得雖然現階段成果還算可以,但我很擔心某些十分關鍵的事,是由一小搓沒有代表任何團體或理念的人來決定。

舉例今年川普和希拉蕊的美國選舉,沒有人在說人工智能或生物科技。我覺得不是因為川普不想讓其他人知道他在想甚麼,因為他講話沒有任何過濾,想講甚麼就講甚麼。所以他並不是在試圖把『人工智能的威脅』這件事藏起來,而是根本就不知道、沒想到這件事,且他的選民對這件事也不在乎。雖然他們一直在爭論某些議題,比如墨西哥和穆斯林的移民問題,或墮胎、同志婚姻等,並不是因為這些議題是最重要的,而是因為人們能理解這些議題。

我們傾向談論我們理解的事,就算那件事不重要,也不會想去嘗試討論某個我們不理解,但真正重要的事。

然後這些選擇,現在落在一小搓沒有代表任何團體或理念的人手上,這真的相當危險。

32:20

這些問題確實十分重要,但我們要怎麼做才能讓所以人都重視這些問題?因為一般人都在煩惱要如何餵飽家人和自己,根本沒空管其他事,或像這次的選舉,沒人在談論這些重要的問題,我們要怎麼做,才能讓人們重視這些問題呢?

哈拉瑞:「

首先我們要知道這不是科幻小說,而是現實,且是現在進行式,就算是今天,已經對我們生活有重大的影響,而未來十年會有更大的轉變。比如一個剛進幼稚園的6歲小朋友,沒有人知道要教他什麼,因為沒有人知道甚麼樣的能力或技能在未來是重要的,沒有人知道2040的職場會需要甚麼樣的人才,所以現在教的那些東西,並不是因為人們覺得那很重要,而是沒有人知道未來會如何發展。所以這些問題不是下一代或下下一代才需要去煩惱,而是現在就應該開始想如何解決。

第一個是要先做時間上的調整,不能再用一個世紀、一百年來看,而要用10年來做規劃。

再來是要認知到這些問題會直接影響到〝要如何餵飽自己〞這個問題。這些問題和政府政策或大財團的商業活動不是說無關,而是很大的選擇權在自己日常所做的選擇,你決定給多少權力給你的智慧型手機,或給多少關於自己的情報。

以情報這件事來說。從政府或財團的視角來看,『個人資訊』是你最寶貴的東西。但今天我們為了email 服務或貓貓影片,雙手奉上了我們的個人資訊。回看16、7世紀,那些從非洲來的歐洲帝國主義者到了美國,只用幾個色彩鮮艷的石頭就買下整個曼哈頓。這件事又再且正在發生。比如google 或fb 給了一些『色彩鮮艷的石頭』來交換你的個人資訊,『來看看這些有趣的貓貓影片』然後我們就乖乖的奉上了我們的個資。且這不是甚麼政府的政策,或有人逼我們做任何事,某方面來說,選擇權還是在我們手上,我們可以從每天的日常做些小改變,並不用等到選舉才在對這些事情做辯論。

主持人回復。

但這會不會就是問題點呢?網路某方面來說算是〝民主〞,因為沒有人逼我們用或不用,是我們自己選擇去用。

哈拉瑞:「

恩...如果有越來越多的工作跟你老闆說你不需要email 帳號或智慧型手機,這會有怎麼樣的反應呢?

36:25

主持人覺得智慧型手機裡的app 真的有到這麼恐怖嗎?是否是有一點互惠的形式在裡面呢?我們想吃一點美食,在app 地圖上找到餐廳且也吃到美食,雖然給了一些個資,但雙方都得到了一點東西,這真的有這麼的邪惡嗎?

哈拉瑞:「

科技本身並不存在善良或邪惡,它從來不會跟你說或強迫你用這個科技做怎麼樣的事。比如工業革命中的蒸汽火車、電報或收音機,這些科技會發展出共產獨裁主義、法西斯政權,或民主政權。火車並沒有跟你說它比較想用來發展共產主義、法西斯主義或民主主義。所以同樣的,現在這些新科技不存在善良或邪惡,但也不是完全的中立,我們絕不能忽視這點。你可以用它來做很多好事,但也存在許多淺在危機,當然我不是說要停止科技發展,這是不可能的,而是要意識到現在正在發生什麼樣的事,並謹慎的做出選擇。

38:08

誰會成為「無用階級」,誰又會成為「人神」?而這個差距會越來越大嗎?比如矽谷的億萬富翁、你我,然後某個孟加拉國的工人?

哈拉瑞:「

這可能會造成人類史上第一次,社交和經濟上的不平等擴展到基本生理機能的不平等。

當然現在還是有某些生理上的不平等,但這止於比如有錢人比較有錢,所以他們比較高之類的。如果我們說一些基本的心理能力、體能和認知能力,上層階級和下層階級是沒有區別的。但未來21世紀,這可能會造成人類史上第一次,社交和經濟上的不平等擴展到基本生理機能的不平等。人類會以生理機能被分成幾個不同的級別,或許最終會變成不同物種。過去兩百萬年來,地球上本來有各種不同物種的人類,到了近兩千年那些其他物種的類人都滅絕,只留下我們人類。而未來21世紀也很有可能會發生同樣的事,可能會分為原本的人類和一個全新的類人物種。

我們現在的狀況,很像之前19世紀的工業革命。慢慢的受到影響的層面越來越大,最先意識到這件事正在發生的國家如英國,他們會繼續待在事件的核心。其他如中國、印度,或一些伊斯蘭國家,他們會被拋在後方。中國最終花了一百五十年來追上這巨大的差距,而非洲許多國家,到今天都趕不上這些巨大差距。

我感覺到這件事現在即將再次發生,且這差距,也許永遠沒辦法追上。

40:13

主持人認為工業革命或許也不是完全的這麼糟糕?因為過去工業革命而受惠的國家大有人在,而未來的工業革命會不會也是如此?比如某些身體改造的超人類來幫忙解決世界飢荒、瘟疫、戰爭之類的問題?

哈拉瑞:「

首先,工業革命是經過100-150年漫長的發展,而像孟加拉國這類的國家真的從工業革命受惠,是相當後期且在這之中發生許多悲慘的事。如果要說工業革命也會受惠於落後國家,這有幾點問題,第一個是即將到來的工業革命所造成的「先進國家與落後國家的差距」會是前所未見的巨大。未來是『是否知道如何製造身體部位或腦』,過去是『是否知道如何製造輪船』,這兩者的差距是完全不同等級,且要追上這差距可以算是不可能的任務。人類之所以會進步是因為我們會持續的改進與學習,所以這個差距只會越來越大,不會越來越小。

第二個是如果我們說過去像中國、南韓或孟加拉國之所以能縮小工業革命造成的差距,主要原因是廉價勞工。而21世紀,當然我並不是在預言這個東西,我其實不太確定會不會真的發生,但我們必須十分注意是未來可能廉價勞工最終會變成〝無用勞工〞,因為當你有3d列印、奈米科技和人工智能等這些高科技,當然還是會有些工作需要人類來操作,但工廠雇用許多廉價勞工的時代將會過去,而這群人很有可能會變得『沒有價值的人』。

所以在即將到來的21世紀工業革命,這些無用階級到底能帶來甚麼價值?這是未知的。

44:49

接下來主持人將話題轉到演算法、大數據這東西上,向哈拉瑞提問說演算法或大數據這東西其實在各個方面上幫助這個世界,但有沒有甚麼是我們需要注意的呢?

哈拉瑞:「

在這一兩百年,大部分的人們相信『人文主義』,這主要在說自己的感覺大於其他所有感覺。我們不會再問〝神〞,詢問教皇的意見,比如要如何決定由誰來統治國家,或英國是否要離開歐盟等這些問題。我們會詢問『你覺得』英國應該要離開歐盟嗎?現在會直接地詢問一般人對某些政治議題有甚麼樣的想法。在經濟上也類似如此。不會有一個什麼〝至高無上的力量〞來告訴你應該買什麼,而是你自己想買什麼,〝消費者永遠是對的〞某方面就是在講這件事。這在道德觀、藝術、個人選擇等都是在講差不多的東西『如果你感覺對了,那就沒錯!』

現代的一些重要議題辯論,都是因為人的情感碰撞。我覺得可以,但你覺得不行,那我們就必須來討論看要如何解決。但如果是我覺得可以,神覺得不行?沒有人在乎。

但現在科學告訴我們,過去說的那些自由意志、個人意願等,這些都是現代童話故事。根據現在的生物科學指出,自由意志不存在,人類的感覺也不是什麼奇幻又神聖的存在,這些都只是生化演算,是經過好幾百萬年的進化所得到的成果。當談到『做決定』」時,人類的感覺是我們所知最可靠的選擇方法。如果你要從『自己的感覺』和『聖經』中做選擇,那絕對要選自己的感覺。聖經只是某些耶路撒冷牧師寫的一本書,他們知道甚麼呢?人類的感覺,是經過好幾百萬年的篩選和進化,祖先們經過好幾次的自然淘汰,存活並傳承下來的成果。所以叫你『聆聽自己的聲音;和自己對話』不是沒有道理的。

但之所以會相信自己的感覺,是因為在這之前人們不知道要如何解讀人類的身體化學反應,或沒有能力來解讀這些龐大的資料。比如如果蘇聯的某個探員,每天跟蹤你,竊聽每一通你打的電話,記錄每一個對談等,他們也不知道你為什麼會做這些事,為什麼會有這種感覺,因為他們不理解生物化學,或沒有科技來分析那些資料。

現在這點正在改變,在生化演算、人工智能的結合下,我們現在知道了越來越多關於自己身體,知道我們為什麼會有這種感覺,身體為什麼會有這種反應。也因為現在的科技,讓我們能夠解讀那些龐大的資料,讓我們更了解我們自己。我們非常接近一個階段是google、fb或亞馬遜等這些大公司,或許他們比我們更了解自己。

舉一個實際的例子。

以前我們讀書,就只是單方面的『人類讀書』,僅此而已。現在,我們正在接近,正在發展到下一個階段不只是人類讀書,書也開始讀人。比如我們使用亞馬遜的電子閱讀器Kindle 看書,當然我們正在讀書,但同時Kindle 也在讀你。Kindle 知道你看某本書時閱讀速度的快慢、知道你甚麼時候停止閱讀、甚麼時候再開始閱讀,它知道你在某一個特定的頁面停止並不再閱讀此書。這給亞馬遜某些資訊,告訴他們你大概是個怎麼樣的人。但這相當早期,下一階段,是將一個已經存在的科技,人臉辨識和Kindle 做連結,這時候Kindle 會透過人臉辨識來解讀你的臉部表情,看你在閱讀某個特定句子時,臉部會有怎麼樣的反應,但這也是非常早期,因為這時候的Kindle 只是在閱讀你外在的身體反應,再下一階段,是連結你身體裡面的生理反應,這會給Kindle 也就是亞馬遜絕對精準的資料,你在讀怎麼樣的文字或句子時會讓你感到開心、難過、生氣等。在你讀完書時,或許你會學到某些東西,或許過了一兩天就忘光光,我不知道,但亞馬遜不會忘記任何事,亞馬遜會知道你是誰,你有怎麼樣的人格,然後要如何取悅你,如何讓你開心、難過、生氣等。當我們到這個階段時,某些機構像民主選舉、自由市場,這類東西會變得完全無用,因為他們知道如何操弄你,這時候的人們會變成百分之百的木偶。

52:38

接下來是觀眾提問。

哈拉瑞在現場和書中談到許多「個人資訊」的東西,但這些資訊好像不是人的全部?

哈拉瑞:「

這位觀眾說的,和我的書裡面也有提到,主要是在將『智力 intelligence』和『意識 conscious』做分離,在講這兩者是不同的,因為很多在人工智能的業界人士會將兩者混唯一談,當然這是可以理解的,因為人類就是兩者合一的例子。但這兩者很大的不同是,智力是你解決問題的能力,而意識是你主觀的感覺。在這60-70年,電腦智力有極大的進步,但對於電腦意識的發展是0,且在近期也沒有看到任何資訊或新聞講發展電腦意識。

只要智力和意識結合在一起,比如說人類這幾百萬年的發展,人們永無止盡的辯論這兩者的關係,這對過去的哲學家們是個有趣的議題,且幾乎沒有討論出任何實際上的解決方法。現在,我們將智力和意識分開來,就有一些相當現實的問題出現,比如哪一個比較重要?對誰更重要?對經濟、政治,還是軍事?從過去的經驗推論出,不管是對經濟、政治還是軍事,重要的只有智力,意識是在你真的非常需要且無法擺脫才一起算上,否則能不包含意識就盡量不包含。

比如司機這個行業,我們其實只是想要將我們從A點載到B點,越便宜、越有效率越好。今天司機之所以還是『人』,之所以還有意識,是逼不得已的事,因為這世界上能做這個工作的就只有人。但當有自動駕駛後,你就不需要那個自動駕駛擁有意識,因為駕駛不需要擁有意識也可以完美的完成這項工作。這有點像之前工業革命的車取代馬,為什麼車會取代馬?馬有各式各樣,超過一百萬件馬能做的事,馬能夠感到開心、感到難過、感到痛苦和愛等,沒有任何一輛車能夠做到這些事,但我們不需要車子有那些感覺。車之所以取代馬,就只是因為車的某些特定能力比馬還要好。

所以我認為我們即將碰到的危險是,當我們將智力和意識做分離,政府、軍隊或財團,他們通常都是選擇智力,而非意識。

57:25

是否能從過去的歷史來預測我們的未來會如何發展呢?

哈拉瑞:「

恩...從歷史來預測現在的未來..是非常有限的。

今天,或許是史上第一次,我們對於未來20-30年人類社會的基本生活型態會如何發展,是一點線索也沒有。在中世紀,或18、19世紀,當然你沒辦法知道未來15年這個世界到底會變怎麼樣,或許會被其他國家入侵,或許朝代會更改,但人們的基本生活型態會是一樣的,平民還是平民,人類的身體也不會有甚麼變化等。

今天,我們無法預測未來20-30年人類社會的基本生活型態會如何發展。比如人才市場的需求是甚麼?人們改造自己的身體在未來是否會是一件平常的事?人們的性關係和浪漫關係會怎麼樣?我們對這些問題一無所知。就算我們今天有前所未見的龐大數據,有強大的電腦來解讀,我們還是不知道未來會如何發展,因為越多數據、越強大的電腦,也代表時代轉變得越快,這也讓我們更無法預測。

舉個例子,今天美國政府手上擁有有關世界各式各樣的數據,是全世界不管是財團還是政府都夢寐以求的,但即使手上握有那些數據,他們還是可以設法在中東搞砸各種事情。就像我們玩撲克牌,他完全知道對方手上有哪些牌,但還是可以輸了一輪又一輪。

即使美國手上有那些數據,但沒有能力解讀這些數據,然後利用解讀的成果來預測未來,或設立政策。也因為人目前的能力有限,沒辦法解讀這些數據,所以才有越來越多政府或機構把這些數據交給大數據、人工智能來運算。

1:01:10

觀眾提出過去的工業革命或現在美國矽谷也有發生許多工人被資遣的事,沒有產生所謂的「無用階級」,為什麼你會覺得未來即將到來的工業革命會不一樣呢?第二個是這一切你覺得是否跟「快樂/幸福」有關?

哈拉瑞:「

有關第一個問題,也是個好問題。19世紀的工業革命和現在或即將到來的工業革命,這兩者最基本的不同是我們現在到了一個,19或20世紀所知的人類極限,但這也即將改變。人類據我們所知有兩種能力,分別是體質能力和認知能力。過去工業革命機器取代人力,主要是機器的體質能力比人類強大,所以人力被取代,然後轉到需要認知能力的工作。現在人工智能開始和人類的認知能力做競爭,但我們不知道人類還有沒有第三個能力讓我們說:『好吧,現在把需要認知能力的工作交給人工智能,我們人類去做下一個...』下一個甚麼呢?有些人說情感能力,但情感在生物科學中一點都不特殊,情感不是神賜給人類,讓我們能寫詩之類神奇能力,在主流生物科學中,前面有提到,情感最終也會像體能和認知被解碼為生化演算法。就算是今天,就算電腦沒有情感,也已經可以比人類更精準的診斷人的情感。

如果今天我想知道你感覺如何,主要是透過外在的表現比如臉部表情、肢體語言、說話語氣等來判斷你是快樂、傷心或生氣。現在電腦正在學習如何和我們人類一樣從臉部表情、肢體語言、說話語氣等來判斷人的情感,且做得比我們人類還要好。更重要的是,電腦現在取得我們人類無法解讀的數據『人類身體內的改變』。當我正在看你,我不知道你腦中正在發生甚麼事,我不知道你心跳有多快,或你的血壓是多少等,但人工智能會透過生物識別傳導器知道所有一切,它知道你大腦哪個區塊正在運作,知道你心跳多快、血壓多高等。

所以人類的第三個能力可能不會是情感能力,因為現階段電腦就已經超越人類。

還有一點有關過去工業革命和未來工業革命的不同,是世界轉變的速度變得越來越快,就算我們能夠找到某些能力高於電腦,我們還是必須要持續的開發自己,因為每10-15年就會迎來一次大改變,所以每10-15年就要換一個工作,換一個專業,且這件事對絕大多數的人是相當困難的。假設你是一個45歲的計程車司機或保險業務員,你的工作被人工智能取代,但現在有個職缺是設計未來城市,一個45歲的計程車司機或保險業務員會知道如何設計未來城市,或他設計出來的成果又會如何呢?他或她能夠在45歲重新開發自己,讓自己的新專業是設計未來城市嗎?

當然我並不是在預言這件事,這只是一個可能性我們必須要十分注意,因為不能說:『反正之前工業革命也發生同樣的事情,現在也好好的,放輕鬆點,之後會跟以前一樣有些新的職位跑出來,我去做那個就好了』,過去和現在發生的事是完全不一樣的等級。

1:06:50

第二個問題,有關「快樂/幸福」的問題,主持人重新定義了這個問題,說未來真的會像哈拉瑞說的那樣,因為人類毫無用處所以被淘汰?難道我們不能把所有工作都交給人工智能,而我們人類就享福享樂,想一些哲學問題,有這種可能性嗎?

哈拉瑞:「

這當然有可能,但有個很大的問題且相當危險的是你會失去所有政治權利。如果我們的新主人非常的寬容慈祥,那我們可能會有好日子,但如果不是...

為什麼我們會失去政治權利?

哈拉瑞:「

失去經濟權利,政治權利通常也會一起失去。

比如計程車這個行業,每個工會掌握了某些地區的載客權利,這也給每個工會某些政治權利,讓他們能夠團結起來,如果有些不公平的事情發生,那他們就群體罷工,之類的。如果我們把計程車這個行業全面替換為自動車,而這自動車都由一個演算法來操控,那之前代表各個地區的計程車公會,他們的政治權利會完全消失,全部的權利會在一間大公司手上。

這是非常危險的。

第二點是..如果人們要感到快樂,只給食物或舒適是不夠的,還要給他們『意義』。但到了這個地步,由誰或什麼來提供意義?有些人說『電玩』,說人們會利用藥物控制自己的情緒,並且花很多時間、很多精力在『虛擬世界』,因為虛擬世界提供了比現實更刺激、更有趣,且在虛擬世界找到了意義,因為他在現實是無用的。

第三點是,如果要說我們從過去幾千年的歷史中學到有關人類,就是要滿足他們是極度困難的一件事。不管發生什麼事,即使是好事,當達成一項成就並從中感到開心,人類的基本思想傾向『更多』而不是『滿足』。

所以不管人類達成甚麼樣的成就,他們只會想要加速這個過程並追求更多,而人類的這種思考方式不太可能在短期中改變。

1:09:42

觀眾提到前面講的像中國、印度這些國家之所以能夠追上是因為廉價勞工,但未來很有可能追不上,而產生無用階級,那從國家角度來看,這種國家之間的發展不平等你怎麼看和要如何解決這個問題,另外前面提到很多關於未來的不確定等等,那到底要教小孩甚麼呢?

哈拉瑞:「

第一個關於國家的問題,非常重要的是對於每個國家來說,要知道自己的國家在這工業革命中是搭上這火車,還是屬於被遺棄的那一方。我覺得誰到底搭上,誰被遺棄,現在還無法確定,因為過去的工業革命也是一樣充滿不確定性,比如你沒辦法很確定的知道日本有搭上工業革命這列車,中國卻需要非常長的時間。

所以對於哪些國家會成為工業革命的核心,哪些國家會被遺棄..這是未知的。

第二個關於教小孩問題,你不需要教他任何有關資訊的事,現在已經是充滿資訊的世界,且不知道要拿這些資訊做甚麼。

最重要的是教他們如何面對不確定性,教他們如何持續的開發自己,也因為他們會需要經常性地做這件事,所以要教在他們一生中,如何『不放棄自己』這件事。因為我覺得如果要在未來21世紀生存,你必須要不停的學習、改變和重塑自己。如果我們看過去的人的生活模式,非常簡略的說分為兩個階段,分別是學習和執行。這種模式在未來已不可行,當你在學習並剛開始執行時,這項技術已不重要,因為時代的轉變太過快速,所以未來學習和執行這兩個階段會變得非常模糊。

且重塑自己對大多數人來說是相當困難的,當你在15歲時,重塑自己會是一件重大的挑戰。所以最好從小就培養小孩有那種心理強度在遭遇挫折時能重新再站起來,就算在他40、50歲都能持續的重塑自己。

1:13:02

如果未來人工智能完全替代人力,那表示公司獲得的利潤會提高。過去其實也發生過類似的情況,比如1980年許多工廠雖然解雇許多員工,但他們獲得利潤增加,就利用這些利潤來投資市場並創造更多就業機會,在整個人類經濟中形成一個算良好的循環,為什麼你會認為這種模式會消失呢?然後你認為利潤、資本主義中的財富擁有者、人力資源他們在未來的關係會如何?

哈拉瑞:「

恩..我講的狀況只是一種可能性,並不代表一定會發生。但我們必須要十分注意的是『人力』可能會對整個市場變得毫無用處,然後大部分的利潤都被世界上一小搓的菁英掌握,並控制世界的大數據、人工智能等。當然這不是唯一的可能性,像前面有提到科技本身並沒有偏好哪一方,比如蒸汽引擎技術,你可以利用這些技術來創造一個集權主義政權,也可以用同樣的技術創造民主政權。所以人工智能、大數據、生物科技等也是一樣的道理。

未來有很多種可能性,而我專注在最危險的可能性並提醒大眾這種可能性的存在,我們要盡力避免等。

1:15:00

你覺得現在各種高科技和世界的走向已經掌握在各個大財團手上,如果回看歷史,你覺得這是無可避免的嗎?另外你覺得如果要我們人類團結起來,是否會需要有個「理念」呢?

哈拉瑞:「

有個理念當然相當重要,但我擔心今天所謂的「民主」告訴政府說甚麼都不用知道,甚麼都不用管,全都交給市場決定就好,當然在某些地方沒問題,但如果未來21世紀繼續沿用此理念,會產生毀滅性的悲劇,因為我不相信市場會對一些世界的重大問題有甚麼樣的好答案,比如氣候變遷或人工智能崛起所帶來的潛在威脅等。而政府其實蠻喜歡「民主」這個代罪羔羊,因為出事後只要把所有責任推給市場,推給民主就完事了。這告訴他們保持無知,不對某項議題進行辯論或不做任何事情是件好事,不是在跟他說不介入是無知或無能,而是一個聰明的選擇,因為你把這件事交給市場上的一些專家來解決。

而下一個類似此模式的操作手段很可能是將所有問題丟給演算法,因為我們沒有能力解讀那些龐大的數據,所以就將那些重大決定交給演算法來判斷,而我覺得「民主」很有可能會照上述的方向發展說:「演算法解讀大數據後會有解決方法」比如我們現在的股票有著全世界最複雜且龐大的資料,而有些人認為將投資股票、分析股票、買賣股票等這些重大選擇權交給無生命的演算法來執行,當我們這樣做的時候,下一個就會有人說:『那是不是其他有關人類的重大演化也比照此方法』

這相當危險。

1:18:01

如果未來人工智能取代人力並產生許多無用階級,那誰會成為「消費者」呢?而世界的經濟模式又會變得怎麼樣呢?

哈拉瑞:「

現今我們沒有任何經濟模式是類似此情況,有些人說向高收入者徵收更高的稅金,然後給其他所有人一個『基本生活費』。其實現在有很多人在討論這些新的解決方法,但現在沒有一個正在使用的模式可以參考。還有一種可能性是演算法會互相購買所需要的商品,因為消費者其實不一定需要是人來消費,現在其實已經在發生這件事,比如我們說廣告行銷,誰是網路上首要消費者或客戶?不是人類,而是google 演算法。如果你想要你的事業成功,想宣傳你的事業,那首要的消費者會是演算法『我要如何設定關鍵字,google 演算法才會幫我做更多的廣告?』

而這種模式也會逐漸擴大到其他產業。

1:20:05

現在有人在所謂的「駕駛座」來控制整個世界的走向嗎?未來那些高科技人工智能是否會成為控制我們人類世界的..物體呢?

哈拉瑞:「

我們不再知道誰在駕駛座來控制世界走向,也沒有跡象有任何群體在駕駛座上,因為沒有人知道世界到底會發生什麼事,沒有政府或某個秘密組織知道未來10-20年世界會怎麼樣。這對自由主義是件好事,因為這在跟他們說:『就交給市場來決定就好,你甚麼都不用擔心』

我不覺得有幾個超級有錢人在某個隱密的洞穴聚集起來操控整個世界,這太過複雜了。如果我們把目標縮小一點,比如說賺個幾十億元,這是相對來說比較簡單的,因為當你在這個混亂的世界有一個明確的目標,賺個幾十億是件簡單的事。但如果你說你想要引發氣候變遷,或讓整個人類社會不平等加劇,沒有人知道這要如何執行。

1:22:26

前面提到很多人工智能的能力超越人類,但都不具備意識,有沒有可能人工智能在某一刻獲得意識並且在比如身心科或心理治療上幫助人類?

哈拉瑞:「

我沒有看到任何有關人類的不管是情感能力或意識相關的研究可以交給人工智能,而這件事在短期也不太可能會發生。但我覺得就算我們先不討論意識是甚麼,光是情感能力就可以成就非常多事。比如我們要幫助某個病人,人類通常會依靠移情能力「如果我能知道病人的痛楚是什麼,那對這個症狀我可以做這樣的事來幫助那個人」。而人工智能治療師可能不會這樣運作,它可能會使用模式識別系統來判斷眼前的這個人,它會使用情感模式和人體內的生理反應來判斷,而講到如何治療,他會搜尋來自全世界的龐大數據,看那些擁有相似病狀的人受到怎麼樣的治療,甚麼有用,甚麼沒有用,然後用甚麼方法來幫助眼前的人。不管它成功與否,爭論它有沒有用這問題是沒有意義的,因為這是個經驗問題,我們只能等待數據的成長,且這等待可能會很漫長。

當然人工智能治療師還是有些優勢,就是它是24小時、任何地點且非常便宜。如果我們講人類的心理醫生,要培訓一位心理醫生需要10年的時間,之後還要許多年的實戰經驗,他或她才會成為一位好的心理醫生,然後他們一小時或一小節15分鐘會收取高額的費用,而且他們不是隨傳隨到,如果我去了印度然後發生了一些症狀,而我的醫生在世界的另一邊,我該怎麼辦?

但如果我的心理醫生是在我的手機裡面的一個app,它是無時無刻在我身旁,可能在我精神崩潰之前它就會通知我『注意!』當然這是個經驗問題,如果它是可靠的,那就會有越來越多人使用它,這跟其他的演算法一樣,比如地圖導航這東西,假設你要到某處,在過去我們可能是依靠記憶或直覺之類的,現在是拿出手機問google 說我要如何到某處,而這是個經驗問題,如果導航錯誤,那我們就不會再使用它。

要讓演算法替換其他所有人力,這些演算法只要做得稍微比人類好一點點就夠了。這並不是甚麼困難的事,因為絕大部分的人在他的一生中經常犯各式各樣的錯誤。所以未來更多決定比如要讀甚麼、去哪底工作、要住哪裡或要嫁/娶誰,可能會由演算法來為我們做決定。

1:27:27

主持人邀請哈拉瑞做一個希望未來是光明的稍微樂觀一點的結尾。

哈拉瑞:「

恩..首先我覺得人類思想開放程度跟年紀有很大的關係。比如我們二十歲時,大部分會覺得:『哇~未來充滿未知真是太刺激了!』而不會覺得說『阿..有點憂鬱...』。到了某個歲數,我們喜歡改變,我們樂於學習各式各樣的事,但到了某些年紀,我們會想要定下來。

再來是如果我們從過去來看,人類其實能夠戰勝各式各樣的挑戰,比如離我們最近的核能核武。在1950-1960,世界普遍認為人類會因為核子戰爭而滅絕,就像電影演的,如果有一把槍在第一幕出現,那在第三幕就一定會開槍。那把槍在1945年冷戰出現,世界上很多人,甚至聰明的人都認為這場表演不會結束,除非有一方開槍,但結果是沒有人開槍。

反而我們經歷了人類史上最和平的時期,當然這世界還是存在戰爭,我來自以色列我是最清楚不過,但因為核武,我們經歷了人類史上最和平的時期,這強迫那些超級大國、政治權力等徹底改變他們的地緣政治。經過了幾千年的廝殺,人們因為核武這種超級武器而徹底改變我們的行為。當然我們甚麼都沒辦法保證,或許幾年或幾十年後會發生核子戰爭,但現在我們相對1950來說,對於核能、核武的理解是越來越多也越來越樂觀。

所以對於未來可能即將到來的威脅,我想我們人類還是能夠想出方法面對威脅,並利用這些科技來做更好的事。

end



CC BY-NC-ND 2.0 授权