製作deepfake「深偽假A片」遭逮捕,日本警方動起來
昨日(2),日本警視廳逮捕熊本市大二學生林田拓海、兵庫縣工程師大槻隆信、大分縣野間口功也。3人的共通點是利用AI人工智慧的「深偽(deepfake)」技術製作「假A片」,將女藝人的臉部合成AV影像,營造出當事人參與A片演出的假象。這是日本警方首次逮捕利用deepfake製作「假A片」的嫌犯,後續發展備受矚目。
目前已知,受害女藝人人數約 200人,已有 3,500部以上的「假A片」在網路上流竄。警視廳目前認定,「假A片」適用名譽毀損罪,最高可處 3年以下懲役,或 50萬日圓以下罰金。此外,「假A片」也有侵犯著作權法的疑慮。
目前 3人皆表示,製作「假A片」是為了賺錢。以野間口功也為例,他光是在今年 1月到 6月,靠著上傳「假A片」賺廣告費就賺了約 56萬日圓。
這只是冰山一角
林田拓海從去年 12月到今年 7月,在自己經營的付費網站上上傳自製的 2名女藝人「假A片」,遭製作公司提告侵害著作權。大槻隆信則是在今年 4月到 7月,在日本境外網站上公開另外 2名女藝人的「假A片」。林田拓海和大槻隆信兩人,總計上傳了約 400部「假A片」,獲利 80萬日圓以上。
這次遭逮捕的 3人總計製作 500部以上「假A片」,約有 150名以上女藝人受害。但警視廳目前已確認日本國內至少有 3,500部以上的「假A片」流竄,亦即還有更多加害人逍遙法外,這次警方大動作逮捕到的 3人只是「假A片」或利用「深偽」技術合成假影片的冰山一角。
延伸閱讀:【地球圖輯隊 情報總部】把他人臉孔轉移到色情片上 deepfake「假A片」惹議
為什麼受害人都是女藝人?
如果要利用「深偽」技術合成假影片,必須要先提供當事人的大量影像,讓AI人工智慧機器學習(machine learning)找出當事人臉部表情特徵。資料越多,做出來的影片越真實。
政治人物或演藝人員這種,市面上有大量公開影像的公眾人物,最適合被拿來餵給AI人工智慧做機器學習。過去像歐巴馬(Barack Obama)、馬克祖克柏(Mark Zuckerberg),都曾被網友製作deepfake假影片,上傳到網路上。
在所有deepfake假影片當中,「假A片」對於當事人的殺傷力是最強的。背後因素當然包含整個大環境的性羞辱文化,還有以男性視角為主的性產業文化。這其實就是一種影像性暴力(image-based sexual abuse)。
但不論今天「假A片」的受害者是生理男性還是生理女性,或更廣義來看deepfake假影片的受害者是生理男性還是生理女性,這種利用最新科技的惡意行為,都該被譴責。
關於「影像性暴力」的說明,請參考香港「關注婦女性暴力協會」網站
遇上這種事情該怎麼辦?
最重要的第一步就是報警處理。不管是deepfake「假A片」,還是私密影像外流,第一步就是報警處理。
如果是收到或看到這些私密外流影像的人,最重要的就是:不點閱、不下載、不分享、不譴責被害人。
以deepfake來說,雖然通常受害人都是知名公眾人物(因為任何人都很容易在網路上取得這些公眾人物的大量圖片,這是deepfake很重要的關鍵),但也不能排除一般市井小民有可能受害(只要對方能夠掌握夠多你的臉部圖片的話)。
最重要的一點,就是要保護好自己的影像,減少在完全公開的社群網路上傳個人照片,或是上傳的時候要多留意隱私設定(雖然不是想要嚇人,但有的時候加害者很有可能就是大家身邊的人)。
對於相關議題有興趣,可以追蹤台灣「數位女力聯盟widi」粉絲專頁
參考資料
- 「ディープフェイク職人」逮捕 AVの顔すり替えた容疑
- 「ディープフェイク」で初摘発
- “ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警
- 「ディープフェイク」初摘発、AVに女性芸能人の顔 大学生ら逮捕
- 「ディープフェイク」脅威に 国内初摘発、海外被害も
- 「ディープフェイク」悪用した「偽アダルト動画」で広告収入…男3人を逮捕 全国初の摘発
本文同步刊載於【未來城市Future City@天下】
本站將推出月刊電子報【石川悄悄話】,每月 15號,它會將「石川カオリ的日本時事まとめ翻譯」當月最新內容,或後續新聞追蹤報導,直接推送到你的電子信箱裡!
>>> 按此訂閱電子報 <<<
現在在下列平台,都可以找到「石川カオリ的日本時事まとめ翻譯」喔
臉書粉絲專頁/噗浪 Plurk/推特 Twitter/Medium
Apple Podcasts/Spotify/Google Podcasts/Firstory/SoundOn/KKBOX
原文連結石川カオリ的日本時事まとめ翻譯