演算法的偏見與歧視如何形成

leafwind
·
·
IPFS
·

演算法為何會有缺陷

有人發現,某些演算法在還不夠準確的時候,會傾向利用「現實中的偏差」讓結果更接近目標,而這個小聰明會在無意中「放大」了原本真實世界的歧視。

這種技巧就類似於我們發現老師喜歡在選擇題放答案為 C 選項的題目,於是所有人便盲目地猜 C,雖然分數提高了,但並不是真的學到了知識。

AI 不只學到人類的歧視與偏見,還可能加深它

舉例來說,如果要做一個分類模型預測護士的性別,而資料集裡面有 90% 護士是女人。

有一個模型原本能做到 80% 的 Accuracy,它只要簡單地將邏輯改成「所有護士都是女人」就能達到 90% 的 Accuracy,但卻反而造成比資料集的偏差還要嚴重的偏見(100% 比現實的 90% 還要更極端)。

這是由於「指標選擇」所造成的問題,以上面的例子來說,因為我們只告訴演算法要 Accuracy,最常見的就是引入 Precision 的概念避免 false positive,或是引入 Recall 的概念避免 false negative。

ref: 心理學和機器學習中的 Accuracy、Precision、Recall Rate 和 Confusion Matrix

已經有很多研究在處理這樣的問題,將更多指標(譬如預測的比例必須與資料集接近)放進演算法當中,並同時讓 Accuracy 維持在不錯的表現。

The less accurate the algorithm is, the more it will take advantage of biases in the data to help improve predictions. In real models the bias is unlikely to be amplified to 100%, but even the use of this bias in the dataset will cause some amplification.

ref: AI is not just learning our biases; it is amplifying them


課本(訓練資料集)的缺陷

但即使演算法沒有缺陷,還是有很多因素會導致模型行為變得比事實還要偏差,這篇文章又描述了另外兩個可能的原因:課本(textbook)與老師(teacher)

So in machine learning, the questions that matter are “what is the textbook” and “who is the teacher.”

ref: The Algorithms Aren’t Biased, We Are – MIT MEDIA LAB – Medium

「課本」:我們現在都仰賴 data driven 的方式讓機器學習,因此教導機器的數據還是來自人的行為,在非監督式學習當中,如果數據中人的行為是錯的,那教出來也就是錯的,就像微軟的聊天機器人 Tay 曾經鬧出的風波:《微軟聊天機器人少女Tay被網友教成納粹份子,上線不到一天黯然下場

人工智慧是根據人類餵給它的資訊學習、發展出其自有能力,微軟指出,使用者和Tay講愈多話,它就會愈變愈聰明。顯然Tay引來不少言論偏激者企圖教壞它。事實上,Tay昨天發表了各種荒腔走板的言論,包括反女性主義者、種族仇恨、反猶太,甚至模仿美國總統共和黨競選人川普,說出「我們要蓋一個邊境長城,叫墨西哥付錢」(We are going to build a wall and Mexico is going to pay for it)的話。

老師(人為選擇目標)的缺陷

「老師」:模型是由人決定什麼指標是重要的,如果優化的指標不同,同樣的數據集訓練出來的結果也會完全不同。

舉例來說,有一個法官機器人,雖然它用了完整、不偏頗的資料去學習,但若它的最佳化目標(Optimization Goal)被設定為「最小化監獄預算」,那就可能會傾向過度輕判。

反之,若最佳化目標被設定為「盡可能讓再犯率降低」,那就可能會傾向判死刑,因為死人不會犯罪,但同一個人不再犯罪,不等於整個社會的犯罪率會降低。

(聽起來有點像是 ACG 當中壞掉的聖杯,比如你許了一個「沒有人會死掉」的願望,而它達成這個願望的方式可能就是「把人類殺光之後,就再也沒人會死掉了」。)

這跟上面的護士偏見很相似,不同的是,護士偏見可能單純是無意中用了偏頗的資料,加上演算法設計不良所造成的瑕疵,而設計法官機器人的人可能出於某種人為的理由,設定了不合理的目標,這個目標與現實需要的大相逕庭。

危險的點在於 AI 通常都是黑盒子,若設計的人與採用的人目的不同,很可能就會因為這個落差而做出後果嚴重的決定。


比歧視更嚴重的問題?

我們知道人生而不平等,某個族群比另一個族群更容易生病、容易犯罪、容易貧窮、容易成為某些職業,都是很常見的事情;但有時候模型甚至會加深偏見、無法反映出真實情況。

這篇文章說明了,在技術上有什麼可能會影響一個模型是否帶有偏見與歧視,要消除這些偏見與歧視會遇到一些挑戰,也有對應的研究與技術在盡力消除這些問題。

然而,透過揭露這些技術上的缺陷,我希望多數人可以了解到,其實 AI 的「錯誤」並沒有如電影般那麼地帶有自我意識,很多問題都可以被歸類為是人為造成的。

比起演算法的偏見與歧視,我認為人類本身才是更嚴重的問題,下一篇《設計與使用 AI 的責任》會解釋為什麼我這樣認為。

真正有偏見的不是演算法,而是我們
CC BY-NC-ND 2.0 授权

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

logbook icon
leafwind在日軟體工程師|不務正業|碎念個人意見|聯絡我:https://linktr.ee/leafwind
  • 来自作者
  • 相关推荐

哩哩扣扣 #27:通膨印鈔的幻覺

1000 倍 LikeCoin 交易手續費的詳細說明

議案 #69 LikeCoin 代幣通漲的修正