📝📝:社群媒體演算法的推薦圈套

鋼哥
·
·
IPFS
·
2022 年 9 月 30 日,BBC 報導了:英國倫敦法院宣判演算法的推薦內容導致 14 歲少女 Molly Russel 最終自殺身亡,是目前為止第一個遭到法院判決認定因為演算法而死的使用者
你所選擇的推薦影片可能都是演算法的精心策畫(Picture from Lin Huang on Pinterest)

原文刊載於獨立評論@天下《一個英國少女之死:社群媒體演算法的推薦圈套


2022 年 9 月 30 日,BBC 報導了一則震撼資訊科技界的新聞:英國倫敦法院宣判社群媒體演算法的推薦內容導致英國 14 歲少女 Molly Russel 最終自殺身亡。有鑒於該事件裡的主角 Molly Russel 是目前為止第一個遭到法院判決認定因為演算法推薦的內容而死的使用者,世界各地陸續開始有不少媒體報導該議題、專家學者加入討論。受理該次案件的驗屍官 Andrew Walker 不以自殺說明 Molly Russel 的死因,反而特別提到社群媒體的影響:

Molly Rose Russell died from an act of self-harm while suffering from depression and the negative effects of online content.”
(Molly Russel 的死,是受到憂鬱症以及網路推播的負面內容所導致的自傷行為。)

在這次事件曝光以前,人們或多或少都知道社群媒體演算法有時會推播不合適的內容給觀看者,更甚者,可能會因為這些推播的內容,而影響人們的身心狀況。然而,從來沒有人拿出證據並且確切地宣稱「演算法推薦給我的內容就是我的焦慮症元凶」,而科技巨頭們也極力宣稱「個人化的內容是基於使用者的習慣作為推薦的依據」。Molly Russel 的不幸離世,直接敲響了資訊科技界的叩問:

在演算法的推薦機制下,使用者還有選擇的自由嗎?如果演算法推播的內容會損害人們的身心健康,那麼,誰又該為此負責?

一場於美國舉辦的聽證會也許可以回答這些問題。

╴

Tristan Harris 來源:《智能社會:進退兩難》劇照

科技巨頭對演算法的刻意為之

2019 年 6 月 25 日,前 Google 軟體工程師 Tristan Harris 出席美國國會聽證會,說明科技巨頭所打造的演算法正在讓社會變得愈來愈極端。Tristan 多次提及演算法的推薦內容並不是偶然產生,而是刻意設計(It’s not by accident but by design.)。每個使用者開啟軟體時會觸發屬於他的個人模型(Avatar),使用者在網路上留下的足跡通通都會被該模型紀錄下來,作為分析行為模式的數據原料。現今科技巨頭在競逐的是,誰的模型可以更準確預測使用者的行為,再將該行為模型賣給商人。史丹佛大學(Stanford University)教授 Shoshana Zuboff 將這樣的商業模式稱為「監控資本主義」(Surveillance Capitalism)

以 Google 旗下的影音平台 YouTube 為例,每當我在觀看影片時,影片背後的演算模型也在不斷收集分析我的個人數據,演算法則會依據這些數據分析,並推薦我可能會喜歡的影片內容。Tristan 提到「YouTube 的影片閱覽數有 70% 是演算法的推薦內容貢獻的。」換句話說,演算法的推薦機制創造了一種自由選擇的假象:我所選擇的影片,實際上是一場精心設計的預測,我的每一個選擇只是為了印證這個模型的精確性。

類似的效應也能從魔術師的手法窺見。在紙牌魔術的手法中,有一種稱為「迫牌」的手法。魔術師會洗亂整副撲克牌,甚至交由觀眾洗牌也沒問題;接者,魔術師會邀請觀眾抽一張牌,而這張牌正是魔術師預設要讓觀眾抽到的牌。換句話說,藉由魔術師的手法操作,讓觀眾有「自由選擇」的錯覺;然而,這一切都是在魔術師的操控之下,如同演算法的推薦機制。只不過,魔術師只能進行一對一的操弄,而 YouTube 的演算法可以一次操弄 20 億用戶,不分日夜、全年無休

透過演法算讓社會變得更極端

那麼,誰又該為此負責呢?Tristan 在聽證會時特提到:

“The polarization of our society is actually part of the business model.”
(社會的極端化也是這商業模式的一部分。)

為了在平台上留住最多的用戶,科技巨頭們不斷修改平台的設計,試圖在使用者所經過的每一處創造最大的參與度。2018年,美國麻省理工學院 (Massachusetts Institute of Technology)資訊科學家 Sinan Aral以 2006 至 2017 間真/假資訊作為分析的數據庫,針對假新聞在推特(Twitter)上的傳播模式做了研究。Aral 團隊發現假消息(假新聞)的傳播速度、深度以及廣度,在這三個構面上都比真消息來得快速,假消息傳播的速度甚至為真消息的六倍。

Sinan Aral 於演講公布的研究結果,縱軸為真假消息所附帶的情緒分類 橫軸座標則為用戶的參與度,數值越高代表參與度越高 (來源:TED.com)

而在針對不同情緒的統計上,如:信任、喜樂、期待、難過、憤怒、害怕、噁心、驚喜,發現在「噁心、驚喜」的構面上,假消息的互動(回覆)比真消息還要高得多(上圖紅色框框所示),接續下來的則是「期待、憤怒、害怕」,真假消息的互動皆差不多。從 Aral 的研究可以發現,相比於正面情緒(信任、喜樂)置入負面情緒的內容(噁心、憤怒、害怕),Twitter 的使用者互動率反而比較高。

在 The Verge 的報導也提到,臉書的演算法所投放的高互動內容也鑲嵌著憤怒、仇恨、正義魔人的言論,而浸泡在演算法黑洞裡的使用者反而會因此變得更加極端化。該報導中也提到 2016 年的一份網路調查發現,臉書約有 64% 的使用者加入極端主義傾向的社團,全因臉書演算法的推薦所致。

此外,Tristan 在聽證會上提到, YouTube 的推薦影片前 15 名的關鍵字也有負面情緒的痕跡:

  • 仇恨(hates)
  • 揭露(debunk)
  • 殺死(destroy)
  • 抹滅(obliterate)

Tristan 形容這是一場直衝腦幹的競爭(a race to the brainstem),演算法的推薦機制試圖勾出人類本能的不理性衝動,而在背後的科技巨頭則大把地收割使用者的注意力貨幣。監控資本主義的商業模型損害了民主社會的言論環境,更糟的是,無法自拔的使用者甚至因此失去了性命;然而,真正該究責的並非是檯面上的執行長、創辦人、程式設計師,而是禁止這一套不擇手段獲取利益、榨取網路使用者數據的商業模式。

Photo by Markus Spiske on Unsplash

質疑使用數據的代價

也許有些人會提出疑問:

反正 YouTube, Facebook, Google, Twitter 這些公司都沒跟我收錢,我貢獻一點個人數據做為交換應該很合理吧?

事實上,表面上聽起來很合理的使用條款卻不是等價的交換。而這疑問背後可能的原因在於,使用者對於數位個資的用途仍不夠理解,而輕易地交出了自己的個人數據。

試想,醫生、律師、保險公司都有你的個人資料,但是,你會因此接受他們在提供你服務之餘還銷售你的個人資料嗎?若是上述的從業人員銷售客戶的個人資料,將會面臨法律上的制裁;同樣的,科技巨頭對於個人數據的強取豪奪,進而建立個人行為預測模型再銷售給商人,也應該被究責、懲罰。

Molly 的父親歷經了長達五年(2017~2022)的訴訟後,終於讓法院說出他的訴求「必須主動監管社群媒體上的內容」。他的努力無法再度喚回照片裡 Molly 的燦笑,但是敦促著司法界以及公民大眾必須更有意識地使用社群媒體,必要時更需要放大檢視。畢竟,這些科技巨頭所允諾我們「自由」的承諾,若是真的如此唾手可得,那將會付出極大的代價

CC BY-NC-ND 2.0 授权

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

鋼哥從物理到電機工程再轉到資訊傳播,最後落腳在社會學。衣櫃拿來當書櫃擺的人。我常在媒介生態學、行為經濟學、社會學、心理學、哲學游移;期盼有天無產階級可以推倒資本主義的高牆的兼職家教。
  • 选集
  • 来自作者
  • 相关推荐