人文與算法:在人工智慧時代重新定義人文學科的價值
猶記得去年八月臉書上,我當過一回烏鴉,預言人文學科若無結構性變革,終將撐不過117大限。今年隨著真理台文、世新中文陸續傳出準備停招的消息,一葉知秋,骨牌終將被推動,若無新思維,最後結局恐是滿目瘡痍。
這一兩年,我四處看資料,想找個具體的解方,但看來看去,大多都是壞消息,如:從 2012 年到 2020 年,俄亥俄州立大學主校區人文學科的畢業生人數下降了 46%、波士頓大學下降了 42%。2022 年的調查發現,哈佛大學只有 7% 的新生願意主修人文學科,2012 年這個比例是 20%,1970年代則接近 30%。而台灣,最新的統計是,僅有19%高中生在選系時,願意選擇人文類學科,而科技類有45%,社會科學類35%。
這些數據彷彿看到了一種不可逆的崩頹,鑿刻著人文學科的歷史墓誌。
現在人文學科的危機,比較像個經濟問題而不是文化問題。
但這兩者是否真的無法融合呢?
我認為2023年可能是人文學科最壞的年代,但也可能是最好的年代--原因無他,因為人工智慧技術大爆發。
或許大家都認為,AI的重點技術在於演算法與模型。但事實上,演算法與模型之間還有一個重要的東西--數據與資料,亦即,AI是根據我們提供的資料數據以及設定的目標,透過演算法來創建合適的模型。如果AI不可避免的成為我們未來生活文化與文化生活的核心,那麼人文學科不可能不被需求。
Tobias Blanke--這位阿姆斯特丹人文與人工智慧的專家--它特別強調:演算法會犯錯,而這些錯誤必須被修正。而這也是人文技能未來將被需大量需求的主要原因。Tobias Blanke說到:
演算法是用來自於社會、人類文化的資料集進行訓練,這就是需要人文學科的原因之一。為了能夠發現演算法中的誤判,就需要了解我們提供給這些演算法的資料類型,以及了解該資料中的問題所在。文化概念的知識在那裡是必不可少的。
所有觸及AI的倫理問題、道德問題、偏見問題以及涉及影響認知的所有問題,都與人文學科息息相關。舉個台灣例子,中研院自己訓練的語言大模型(LLM)上架四天後隨即下架,因為這個號稱台灣自己的大模型,提供的內容很不本土,甚至還有許多簡中用語,懂得都懂,這跟演算法無關,而是訓練模型的資料集出了問題(使用中國的資料集),從而產生了AI認同「錯亂」。
這種「錯亂」,可能發生在任何AI產生的內容裡,特別是我們總說AI的特長是「一本正經地胡說八道」,缺乏批判性的思維,這種「胡說八道」久而久之就可能成為新的現實認同。而它可能發生在性別、種族、國族、審美、意識形態、文化、道德.....等各種與「人」有關的層面。
從這個角度來看,人文技能的重要性,在AI時代更是有迫切的需求。講點現實的,當AI的應用滲透到生活的每一個角落,我們需要「教育」的就不只是人,還有機器,我們需要的,肯定會是「以人為本的AI」--生成的內容,處理的工作,都需要顧及到人的情感與需求。我們也可以合理的推斷,當AI發展到一定程度(例如AGI的誕生),政府將會立法規範AI的發展,或許不久的將來,我們就會看到原本以技術為本的科技領域,都將設立專門的人文部門,來解決AI所產生的各種與人連結的問題,以及建構優秀的數據資料集,我樂觀的認為,以後甚至可能會產生相關的認證與證照資格。
我相信這一天不會太久,儘管根據現有調查顯示,目前AI多數仍是用在「娛樂」,但人工智慧不會只是單純的「娛樂產品」,我們看到的都只是終端的應用,但人文學科要攻佔這一領域,就得走到更前面。在教育上,怎麼把AI用好這件事,在未來都是基本能力,對人文學科的發展而言,也只是枝微末節,人文學科如何在AI時代,轉變為生產者,或許才更是要考慮的事。
首先,沒有懸念,教育模式與課程結構肯定要變,但可能也不複雜,建立技能模組,設定主題框架,例如從開設一門科幻小說、科幻電影的課程開始,建立對AI發展的知識理解與未來想像,培養批判思考的能力。或者,可以更瘋狂一點,開設一門AI沙箱的課程,從把CHATGPT逼瘋、教壞開始,瞭解AI的機制,使用的邏輯,以及反思AI的其他可能性,連結後人類理論思維,建立一個數位文化的意識.........
不知道是否來得及,但一切都可以重新開始,改變的契機也許就在當下。
在這個人文最壞的年代,還有機會奮力一搏。
打個小廣告:靜宜大學從去年11月CHATGPT上線後,就一直盯著AI不放,今年台文、中文、生態、大傳、資工、資傳跨院系合作,開始推動數位人文工程,這學期台文系打頭陣,開出第一門數位人文實驗課程,利用數位工具(用AI寫PYTHON程式,結合自然語言處理,進行文本的大數據探勘與分析)。
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!