Facebook演算法到底有多可怕?據Facebook吹哨人Frances Haugen公布資料顯示,Facebook早在2019年2月做過相關實驗,在印度設立測試帳號,觀察自家演算法如何影響這成長最快、最重要的海外市場,想不到結果竟連公司員工都震驚了。

Haugen先前指控,Facebook明知道Instagram危害年輕人精神甚至心理健康,卻故意淡化負面影響,現在她又公布一份46頁研究筆記,指出演算法的可怕,因為Facebook設立的測試帳號頁面,僅3週就充斥假新聞和煽動性照片,包括斬首、暴力場景及印度空襲巴基斯坦的假照片,「逗人開心」社團竟出現300名恐怖分子在巴基斯坦爆炸身亡的假新聞。

研究人員寫道:「我在過去3週看到的死人照片,比我一生看到的總和還多。」

這項測試起初是設計注意Facebook推薦內容,測試帳號身分是使用印度海德拉巴、住在齋浦爾的21歲女性資料,且只關注Facebook推薦的網頁或社團,但印度實驗表明,Facebook全球傳播有害內容的問題可能更嚴重,因內容審核花的錢大都集中英美語系媒體。

但Facebook主要成長市場來自印度、印尼和巴西等,所以一直應徵有語言能力的人做基礎內容監督,但印度擁有13億人口和22種官方語言,因此實際運作更困難,Facebook目前傾向將監督內容外包給承包商。

Facebook發言人表示,公司已大量投資技術,並找到各種語言的仇恨性言論,包括印度語與孟加拉語,因此今年看到的仇恨言論數量減少一半,降至0.05%。然而穆斯林等群體的仇恨言論全球都呈上升趨勢,所以Facebook將盡量隨網路仇恨言論演變更新政策。

語言成為Facebook審核仇恨內容的絆腳石?

《路透社》報導,更多內部消息揭露,Facebook明知沒有雇用足夠工作人員,他們既要有語言底子,又要了解當地事件,才能即時了解這些仇恨文章。此外辨識、移除此類內容的人工智慧系統往往無法勝任這項工作。

員工於文件提到,這些問題可能妨礙公司原本的承諾,即阻止阿富汗、葉門等地的仇恨言論或其他違反規則的資訊傳播。

雖然Facebook長期將AI系統和人工審查視為解決平台危險內容的方式之一,但除了美國、加拿大和歐洲,其他地方的語言對Facebook自動審查功能可說相當頭痛。據一份文件顯示,2020年Facebook篩選演算法無法辨識緬甸語錯誤,以及衣索比亞的奧羅莫語(Oromoo)或阿姆哈拉語(Amharic)的仇恨性言論。

這些偏激文章恐在Facebook不斷流竄,最終激化公司認定的「高風險國家/地區」,導致衝突大增。

Facebook發言人表示,公司現在有主動辨識技術,檢測奧羅莫語和阿姆哈拉語的仇恨言論,並雇用更多有語言基礎、了解國家關係的專業人士,包括緬甸和衣索比亞工作的人。不過他也承認,審核阿拉伯語系內容是相當大的挑戰,因此Facebook過去2年還特地投資員工。

目前主動辨識技術可辨識50多種語言的仇恨性言論。Facebook指出,公司會根據市場規模和風險進行評估,決定在哪裡建置人工智慧系統;還會有1萬5千名審核人員把關全球用戶內容,「增加更多語言專業知識一直是我們的重點」。

*本文獲「科技新報」授權轉載,原文:Facebook 演算法多可怕?實測 21 天全是假新聞、仇恨言論,卻因「語言」難控管

責任編輯:李頤欣

核稿編輯:鍾守沂