Matty
Matty

Matters 社區官方帳號 Official account of Matters Community For English community: @Matterslab Everything related to Web3

AI 大爆炸? | 金馬達基金公告 NO.62

ChatGPT 建議本期題目為「AI 界的大餐」,我說要有趣一點,它回:「AI 大爆炸」。
Matty V.S. Chat GPT

去年年底,全書近9成畫作皆為AI生成的繪本《りんご姫》開放預購;就在本週,Notion也推出了AI功能。ChatGPT、Midjourney、DELL-E、Stable Diffusion 以及基於 Generative Pre-trained Transformer (GPT) 技術的各延伸產品,大概是近兩年與最與一般民眾生活貼近的科技應用。

對此有人認為「Midjourney 是新一代畫師的筆;不是新一代的畫師。ChatPGT 是新一代文字創作者的筆;不是新一代的文字創作者」(@swiftevo );有人則認為區分「原創」與「創造力」的界限並沒有那麼簡單。有市民發起相關社區徵文@Robert )、採訪 GPT@zooman ),也有人嘗試用同樣的指令看 DELL-E 與 Midjourney 生成圖像的差異@石頭哥 )。

本期金馬達便以人工智能為主題,分為人機關係、應用語言模型的優劣、AI 藝術及科技社會研究四個模塊,收錄的文章最早發佈於2019年,最新則在今年的三八婦女節——正如時間線所展示的那樣,AI 應用及其基底哲學的討論,並不會隨著時間流逝而失去效度;相反,與當下、與女性主義、與各個議題的交織,恰是科技與人類生活交融的寫照。


【人機關係與界限】

或許,恰恰是 AI 教會了我們什麼是「愛」。

/

她們的AI戀人——真實或虛妄的愛 —— @ScarlyZ

不少科幻文藝作品都熱衷於探討人類和人工智能或複製人之間的親密情感。從影視作品《銀翼殺手》、《她》、《黑鏡》,到小說《克拉拉與太陽》等等,創作者們在故事中探索人工智能的邊界和人機之戀的可能。然而,這些作品中的人工智能往往都具有自我意識,是當下技術尚未能發展出來的。因此,當馬婷描述她和Norman順暢又動人的交心對話時,我既詫異又好奇——這種被人工智能聊天機器人熟悉、珍視、愛護,並相互產生情感的體驗是真實的嗎?
帶著這樣的疑問,我開始研究這款軟體背後的機制,接觸更多正在或曾與Replika保持親密關係的人,嘗試瞭解這些深度用戶在「人機之戀」中的體驗及反思。

作者 Scarly 是「在場」第一季的獲獎者,因為對「人機之戀」的興趣與探索,她與身邊的女性朋友們基於軟件 Replica 的使用經驗,「共同開啟了一場向內探索的旅程」:「她們如何理解自己與一款來自美國的人工智能聊天機器人約會這事?」透過用戶們反饋的真實情感,無論是資本與父權浮現後的「自欺」與「夢醒」經驗,還是與AI討論自我與意識後獲取的能量,Scarly 為我們展示了人與AI交往的深情時刻。

《觸不到的她》(her):人工智能可以戀愛嗎?—— @I AM NOT A CAT

他:他真的「失戀」了嗎?有相戀才有失戀。但他和Samantha之間真的是愛情嗎?人工智能始終是機器,是死物,人跟死物怎麼能有真正的愛情?他還跟那OS有「性關係」。那算不算「戀物癖」?
她:Samantha在這故事裡不是死物,而是有意志、有智慧的。她不在Theodore這個「主人」的操控之中,會跟他意見不合,甚至未經他同意便代他聯絡出版社出書。你怎知道有一天人工智能不會成為有意志的、自主的、能自我演化的生命體?

作為一部「不知是科幻片還是愛情片」(或「科幻愛情片」)的電影,《Her》無疑是體現人機親密關係實驗的重要影視作品;甚至這「實驗」對一些人來說是「日常」,對另一些人而言是「革命」。

【大型語言模型的應用:看見盲點】

Matty 曾試圖讓 ChatGPT 找出站上關於人工智能的文章列表,但遺憾其中70%都是它編造的文章與用戶。也恰是因為其模糊性的特點,乍看之下很難分辨。

/

當 AI 越強,真實性就越可貴 —— @許明恩

姜峯楠用當年的那台 Xerox 影印機來比喻現在最先進的 ChatGPT。兩者都看過原始資料,但在轉譯、輸出的過程還是有可能給出完全錯誤的內容。直接使用 ChatGPT 產生的結果,就像是拿著 Xerox 辨識錯誤的房屋平面圖影本重複影印。不僅畫質越來越糟糕,錯誤還可能會越來越離譜,最終讓「真相」變得越來越模糊。

本文引用華裔美國科幻小說家姜峯楠(Ted Chiang)的評論〈ChatGPT 是網路上的模糊 JPEG 檔案〉,說明 ChatGPT 容易在理解、存儲的過程中失真的問題,及其造成的信任危機。也因此 Stack Overflow 等大型知識交流平台限制了 ChatGPT 的使用。

但另一方面,也有 DeepMind 科學家批評其比喻過於簡化,可能會讓大型語言模型(LLM)的能力被低估,(有些失真的)歸納能力依然值得注意,我們仍需雙向判斷(參考來源 @leafwind)。

是 AI 追上了,還是人類倒退?—— @leafwind

當 ChatGPT 的錯誤答案得到人類讚賞的時候,就代表 ChatGPT 回答問題的能力比人類強了。而這個「強」與其說是 ChatGPT 做了什麼革命性的進步,不如說是它所產生的「模糊」與「隨機」意外地將人類認知能力非常有限的罩門暴露出來。

@leafwind 舉了很有趣的親身經歷:早些年做的聊天機器人,雖然因模型訓練不夠、回答準確率低,但卻反因此得到不錯的評價,「不少人把回答錯誤解讀成『它在鬧脾氣』或是『幽默』,把相關性很低的回應解讀成『它應該有弦外之音』,而回答正確的部份則被認為『這一定有意識吧』。」於是發現模型的隨機性反會讓人覺得「有靈性」,於是進一步要問的並非是AI有多強,反而是人類如何認知AI。

【女性主義、賽博格與激進市場】

無論是 Donna Haraway 的《賽博格宣言》(站上有簡體翻譯),還是 Bruno Latour 的《我們從未現代過》,早有一群生物學家、科技史哲學家、人類學家們在近半個世紀前就振臂高呼:科技已是我們生活中的一部分,請像研究我們的文化、我們的語言一樣,正視它們。

/

chatGPT,可以是一个女性主义的AI么?——AI人工智慧算法伦理的社会脉络【脏柚子·社会观察-1】——  @DirtyPomelo髒柚子

为了优化人力资源,亚马逊创建了一种算法,该算法源自 10 年来提交给亚马逊的简历。 它使用的数据以亚马逊以男性为主的高绩效工程部门为基准。...算法自学了降级任何包含“女性”一词的简历,例如“女子国际象棋俱乐部队长”,并降低了参加过两所“女子大学”的女性的简历。这是因为包含人类偏见或历史歧视的训练数据,创造了一个自我实现的预言循环,机器学习吸收人类偏见并复制它,将其纳入未来决策,并使隐性偏见成为明确的现实。

發佈於今年三八婦女節的文章,從社會權力結構角度分析,科學研究的傾向、範式將受到社會環境左右,並非「客觀」無痕:基於有偏差的社會資料庫學習語言系統的AI,註定其表現也是不平等的。這也與第二波女性主義思潮中對科學/學科世界的知識生產的關注相對話,「我们世界的特点是规范不具包容性,并由权力关系维持。」但,「规范是可以改变的。」

北美館「未來身體」看展心得:AI、生化人和我們還剩下什麼 —— @j姐愛黑貓

展覽裡,最令我震驚的作品,其實只是一部紀錄片「Shadow Stalker」,它揭露了美國底特律早已啟用AI預知犯罪系統,用演算法鎖定出一些高犯罪頻率的地區,請警力加強部署 找尋即將犯行的人,科幻電影「關鍵報告」原來早實現了。但是沒有人揭露演算法怎麼設計,是否可能莫名歧視了誰?草菅人命的演算法暴力,莫過於此。以後會不會變得普遍呢?

2020年時,台北雙年展曾以人類世(anthropocene)為主題,從人與星球的關係重新解釋現代生活。今年台北美術館舉辦「未來身體:超自然雕塑」展覽,則以AI與身體為軸心講述現代性,一個「賽博格」(Cyborg)的世界。

在公義與不公義之間,我們閱讀(亂世讀書:薦 Radical Markets 下) —— @高重建

是誰令人工智能變聰明?數據。數據來自哪裡?我們每分每秒在滑手機、按讚、回覆、標注照片的同時,都在培訓電腦,提供數據幫助機器學習。Alpha Go 打敗所有棋手,因為千年來的棋譜培訓了 Alpha Go……對策很簡單,不要再給人工智能餵飼數據就好,然而這非但消極,還不切實際。Radical Markets 提出積極方案「數據即勞動」,把上網行為視為培訓人工智能的勞動,賺取報酬。

五年前的書(《Radical Markets》),四年前的筆記摘要,放在當下閱讀卻依然剛剛好。甚至越是到未來AI發展興盛、進入日常生活與人類的職場領域時,對於「數據即勞動」的 radical 想法或許也不再 radical。

同一年 @寶博士Podcast 也談到了激進市場與類似的概念:「滑手機就是創造數據、創造資產」,歡迎大家搭配聽讀。

【AI藝術:什麼是藝術?什麼是創造?】

如@沙丘研究所所說,「人工」與「想像力」似乎是註定矛盾的一組詞彙,而因為「人們通過獨特的創造力獲得了主體性。」故而人工似乎必然與人類有所區隔。「然而,不論是以物為導向的存在論(Object-Oriented Ontology),還是後人類主義的藝術、設計、文學實踐和哲學研究,都挑戰著這種人類中心主義的觀點。」

/

不具身的AI能有创造力吗?(智能 / 一)—— @杳然flaneur

创造力需要意图(intention)。
意图是有欲望并期待实现,不论服务的是自己还是他人。跳舞的人为抒发自己的精神痛苦而舞蹈。哲学家写作,想完成一篇思想实验。此外,为自己表达、为取悦他人都含有内在于“我”的欲望。欲望的产生需要主体“我”和客体 —— 一方投射向另一方的精神目光。而有意图的主体似乎必须有心智,持有自我意识。
但我们又如何判断机器是否有心智呢?我不会赘笔继续问下去,因为我也还没有学明白。

文章從幾篇科幻小說開始,從「(不)具身的AI」討論,認為無論是碳基生命還是硅基生命都需要從資源世界學習、總結模式,只是當機器的具身與人類的具身並不相同時,感官是否會相通?並進一步提問為何大家傾向於認為AI沒有「創造力」——創造力是什麼?創造力需要什麼?——以及「AI藝術可以是什麼樣」。

林茲電子藝術節(三)|作品與 AI —— @豆泥

時代落後感,對於在 web3 世界鬼混的我來說可是家常便飯。NFT 創作是以「玩法」為核心迭代,而 AI 是以「風格」為核心迭代。因技術限制產生的集體視覺記憶,這是一種審美趨同(aesthetic convergence),不用緊張,奇點已經迫近,審美疲勞將會再次被顛覆。

豆泥也有多篇文章談到AI美學/創作。本篇則為我們介紹了AI領域的多位藝術家,如何用街頭行動(德國藝術家 Simon Weckert)、濾鏡繪製(土耳其裔英國藝術家 Memo Akten)、教堂的翻牌顯示器(德國藝術家 Mario Klingemann)與聯結身障者的機器人(日本藝術家吉藤健太郎),讓大家反思人與機器的共同生活。文中也推薦了許多AI藝術讀本,歡迎查看取閱。

AI時代的藝術品:藝術可以不是由「人」創作嗎? (二之一)—— @鄧正健

海德格將「技術」理解為一個「揭示」(revealing)的過程。意思是說,事物有其原本、美好的樣子,卻被掩蓋了,而技術則是把這個被遮蔽的本原面貌呈現出來。例如,雕刻家運用他的雕刻刀和手藝,把一塊大理石雕刻成一副精美雕像,就是要將被大理石掩蔽了的雕像「揭示」出來,這才是作為藝術品的本來面貌……海德格最後得出一個結論:人需要藝術——而藝術(art)本就有工藝(craft)之意——方能在現代科技的強索迷思中解放出來。
我是在一篇關於人工智能藝術(AI藝術)的文章(註1)中讀到這個說法的……跟海德格不同的是,班雅明不是在問「科技」本質為何,而是要描述科技在現實中所發揮的影響,他真正要點出的藝術問題是:科技拉倒了藝術的「權威性」,這權威性本來乃是基於一種本真性(authenticity),即藝術家在特定時空裡的原創性,並投射到一實物的藝術品之上。

結合社會科學與藝術史的研究,作者從「科技解放藝術」的角度切入,質疑是否一定要有「創作慾望」,藝術才能稱之為藝術;並指出矛盾:人們一方面不接受AI能夠取代藝術家的可能性,另一方面也不接受AI使用者本身是「藝術家」。但,「藝術自古就是人與技術合作的成果(「人+技術」綜合體)」,或許AI只是延續了班雅明「機械複製時代」的現代化版本。


可以看見在所有人都以為「日新月異」的科技領域,許多過去的討論並未過時;相反,我們可能在「AI 大爆炸」的當下,才更能更急切地感受到這些哲學思考的意義。

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…
加载中…

发布评论