▲臉書在28日宣布改名Meta。(圖/達志影像/美聯社)
記者葉睿涵/綜合報導
美國社群媒體巨擘臉書(Facebook)28日正式更名為Meta,顯示該集團未來將進行品牌重塑,致力於發展「元宇宙」(metaverse)。不過,臉書趁著前員工郝根(Frances Haugen)剛在美國華府大爆料、重創臉書形象之際改名,實在引人遐想。外界懷疑,執行長祖克柏(Mark Zuckerberg)此舉似乎是為了轉移外界對「臉書文件」(Facebook Papers)的注意力。
「臉書文件」是扮演「吹哨者」的郝根在今年初離職時,向美國證券管理委員會(SEC)揭露的上千頁文件、研究、討論主題和策略備忘錄,它揭露了臉書一心只在乎追逐利益,不顧內部的調查與警告,讓這個社群平台持續被仇恨、政治鬥爭與煽動性言論所充斥。
▲在臉書醜聞事件中扮演吹哨者的臉書前員工郝根(Frances Haugen)。(圖/達志影像/美聯社)
《華盛頓郵報》、《金融時報》等多家新聞機構組成聯盟,檢視和訪談了數十名現、前任員工後,彙整出「臉書文件」中的6項關鍵要點:
1. 臉書未能有效監管在世界大部分地區的內容
相比於臉書在北美的問題,仇恨言論和錯誤訊息在開發中國家更為嚴重,不過臉書卻無暇處理平台上非英文的內容,更難以管控來自國際用戶的言論,導致非英文的仇恨言論在平台蔓延。文件顯示,臉書曾仔細研究在海外的運作方式,且很清楚在非英語系國家,平台容易受到不良行為者和專制政權所濫用,但由於缺乏相關語言的管理人,臉書對此也束手無策。
2020年的一份摘要顯示,臉書將企業內逾80%的資源都放在了打擊美國平台的錯誤訊息上,只有不到20%的資源被用於「世界其他地區」,且其他地區的平台也不見在英語國家常見的重要保護機制。
▲臉書文件顯示,臉書難以管控多數仇恨言論。(圖/達志影像/美聯社)
2. 臉書仰賴的人工智慧(AI)難以完全檢測仇恨與暴力內容
臉書極度依賴AI來監測與管制平台內的仇恨與暴力內容,但由於AI難以理解仇恨言論的背景脈絡,因此AI能做的其實不多。2021年3月的一份文件顯示,臉書只能對3%到5%的仇恨言論和0.6%的暴力內容採取行動。
3. 臉書並不理解自身的演算法
2019年的一份文件顯示,臉書的男性用戶看到的政治性帖文內容比女性多64%,而相關情形在非洲和亞洲國家更為明顯,不過臉書內部並不清楚這樣的情況是如何發生的,顯示臉書難以掌控公司的演算法。
▲臉書改名Meta被懷疑是為了轉移其醜聞焦點。(圖/達志影像/美聯社)
4. 臉書追求的是流量極大化而非用戶安全
祖克柏曾表示,公司設計產品並不是為說服人們花更多時間在上面,但文件卻顯示,臉書曾詳盡研究潛在的政策變化對用戶參與度和其他對公司利潤至關重要因素影響,並在推動用戶關注的過程中,放棄、推遲可減少假訊息與極端激進的措施。
一份2019年的報告追蹤代表一位北卡羅來納州保守母親的虛擬帳號,結果顯示,臉書的演算法在短短5天內將她帶到被「匿名者Q」(QAnon)的網頁。這是一個被聯邦調查局(FBI)視為國內恐怖主義威脅的極端意識形態,然而臉書卻依舊任憑「匿名者Q」在他們網站上持續運作13個月,幾乎不受檢查。
▲臉書執行長祖克柏遭爆料言行不一。(圖/達志影像/美聯社)
5. 祖克柏的公開聲明常與內部研究牴觸
曾是臉書前產品經理的郝根,在她對SEC的投訴中,至少20次援引祖克柏的公開聲明,稱祖克柏在臉書獨攬大權,因此他必須為臉書在追求企業利益的過程中,所造成的社會危害負責,不過祖克柏的公開聲明往往與公司內部研究調查結果相悖。
舉例來說,祖克柏去年在國會證稱,公司在民眾舉報前就先一步刪除所發現的94%仇恨言論。但在內部文件中,研究人員估計公司刪除的仇恨言論比例佔全部的不到5%。
6. 臉書在1月6日國會之亂前就已鬆懈
2020年美國總統大選前,臉書擴大打擊宣揚暴力、錯誤資訊和仇恨言論的力道。但在11月6日投票完之後,臉書就撤銷多項用於保護美國用戶的措施,導致美國1月6日的國會之亂爆發時,臉書要重新實施緊急措施卻為時已晚,支持川普的暴徒早已衝進美國國會大廈。
讀者迴響