本週,國會就 Facebook 創始人兼執行長馬克·扎克伯格的公司隱私政策,及其顯然無力阻止某些人利用其社交媒體平臺宣傳仇恨、恐怖主義或政治宣傳,對他進行了為期兩天的質詢。在扎克伯格為未能採取更多措施保護使用者隱私和遏制網站上虛假和誤導性資訊的傳播而道歉的過程中,他多次向立法者保證,人工智慧很快將解決 Facebook 的許多問題。他是否有充分的理由,取決於他的公司具體計劃如何使用人工智慧,以及這項技術在未來幾年內的成熟速度。
扎克伯格在兩個參議院委員會面前吹捧了幾項人工智慧的成功案例:司法和商務、科學與運輸委員會以及眾議院能源和商務委員會。扎克伯格在週二的參議院聽證會上作證說,Facebook 的人工智慧演算法已經能夠查詢並刪除伊拉克和敘利亞伊斯蘭國 (ISIS) 和基地組織相關 Facebook 賬戶釋出的 99% 的恐怖主義宣傳和招募資訊。但是,反極端主義專案 (CEP) 是一個非營利性非政府組織,負責監測和報告恐怖組織活動,它在同一天對 Facebook 的說法提出異議。CEP 發表宣告稱,它仍然“定期在 Facebook 上發現極端主義內容和仇恨言論”。
Facebook 的創始人經常提醒國會,他在 2004 年從他的宿舍裡創辦了這個網路,並且他多次承認,他長期以來對內容進行監控的方法依賴於成員報告濫用行為。他說,這種被動的姿態多年來導致該公司未能迅速發現和刪除歧視性廣告、針對特定群體的仇恨內容和恐怖主義資訊。Facebook 也沒有能力處理俄羅斯團體為影響 2016 年美國總統大選而釋出的大量誤導性新聞文章。扎克伯格表示,人工智慧已經在幫助 Facebook 解決其中一些問題,他說該公司利用這項技術查詢並刪除了“數萬個”試圖影響法國、德國和過去一年中其他地方政治選舉的選民的賬戶。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。
扎克伯格承認,可以自動識別言語攻擊的軟體更難編寫,而且還需要 5 到 10 年的時間。主要的挑戰是準確定義什麼構成仇恨言論,以及訓練人工智慧演算法跨多種語言識別它。針對 Facebook 為煽動針對緬甸(也稱為 Burma)羅興亞穆斯林的暴力提供論壇,並且在刪除此類內容方面行動遲緩的批評,扎克伯格表示,他的公司沒有充分準備來阻止其平臺被濫用。他告訴參議員,除了開發人工智慧軟體以在未來自動識別仇恨言論外,該公司還在僱用更多會說緬甸語的員工來監控針對羅興亞人的惡意活動。他補充說,在軟體準備就緒之前,“標記此類內容的錯誤率高於我所能接受的程度。”
Facebook 大約有 15,000 人從事安全和內容審查工作,並計劃在年底前再僱用 5,000 人。“這是一場軍備競賽,”扎克伯格說,他指出 2018 年是美國和其他地方選舉的重要年份,Facebook 的對手將繼續改進利用該平臺傳播虛假資訊的方式。
“我相信[扎克伯格]所說的是可能的,但由於方法和結果尚未公佈,我無法確定 Facebook 是否能夠達到所需的準確性,”斯圖爾特·羅素說,他是加州大學伯克利分校的計算機科學與工程教授。“人工智慧和眾包標記的結合,以及適當的推理方法來評估標記者的可靠性,應該能夠清理掉足夠的垃圾,以至於釋出垃圾資訊成為一種徒勞的活動。”
卡內基梅隆大學機器人研究所的兼職研究科學家迪恩·波默盧說,人工智慧判斷 Facebook 帖子是否包含或連結到虛假資訊的能力,需要軟體理解語義以及不同詞語在語境中的含義。“你需要常識來理解人們的意思,這超出了人工智慧目前的能力,”波默盧說。發帖者對標記為“令人反感”的文字、影像或影片進行細微更改的能力,進一步複雜化了人工智慧幫助 Facebook 的能力。波默盧說,文字修改、照片裁剪和影片編輯使軟體難以在內容傳播和更改時進行簡單的模式匹配。他補充說,一種可能在近期奏效的方法是,Facebook 為其僱用的數千名內容監控人員配備人工智慧工具,以幫助他們查詢和分析假新聞和其他不需要的內容。
Facebook 的人工智慧開發確實正在順利進行中。該公司於 2013 年在人工智慧領軍人物揚·勒丘恩的領導下成立了 Facebook 人工智慧研究院 (FAIR)。勒丘恩今年早些時候轉換了角色,成為 Facebook 的首席人工智慧科學家,他將 FAIR 的研究重點放在開發預測能力上,這將使社交媒體網站能夠對使用者想要什麼做出有根據的猜測,以便更好地與他們互動。這包括更個性化的新聞提要和定向廣告,以及聊天機器人的改進——旨在提供資訊、實現線上購買和提供客戶服務的人工智慧計算機程式。旨在提高聊天機器人識別不同語言和理解對話能力的相同演算法,將與 Facebook 標記全球令人反感內容的能力特別相關。
參議院和眾議院聽證會反覆出現的一個擔憂是,Facebook 在定義令人反感的內容時,是否可以避免政治偏見。扎克伯格週二表示,該公司有一個團隊專注於如何合乎道德地使用人工智慧。密歇根大學資訊學院助理教授弗洛裡安·肖布表示,Facebook 最終將不得不依靠人工智慧來標記可能令人反感或需要審查的內容。“他們無法僱用足夠的人來監控 Facebook 上釋出的每一篇文章,”他說。“最大的挑戰,以及我們作為一個社會應該關注的事情是,Facebook 成為我們道德的監督者。在這種情況下,決定什麼是令人反感的,將是 Facebook 的一群人,而不是整個社會。”
由於有訊息透露,與俄羅斯軍事情報部門有關聯的團體多年來一直在利用該平臺,直至 2016 年大選,Facebook 一直受到監管機構的關注。Facebook 發現了 470 個賬戶和頁面,這些賬戶和頁面促成了俄羅斯網際網路研究機構 (IRA) 開展的虛假資訊宣傳活動。在兩年多的時間裡,IRA 在 3,000 多個 Facebook 廣告上花費了約 10 萬美元。然而,最終讓扎克伯格出現在參議院和眾議院委員會面前的導火索是,最近有訊息透露,劍橋大學研究員亞歷山大·科根在未經他們許可的情況下,將約 8700 萬 Facebook 使用者及其朋友的資料交給了劍橋分析公司,這是一家由唐納德·特朗普總統 2016 年競選團隊聘請的政治資料公司。
肖布說:“Facebook 似乎正在經歷一個反思階段,現在開始意識到其平臺在社會上的影響力。”“長期以來,他們認為自己在連線人們方面發揮了重要的社會功能,而現在他們意識到,實際上隨之而來的是很多責任。這似乎有點轉變,但與此同時,這並不是我們第一次聽到扎克伯格為 Facebook 上的不檢點行為道歉。”
波默盧說,真正的問題更多的是 Facebook 改變的意願,而不是它開發人工智慧和其他更好地保護會員隱私和防止暴力或誤導性內容傳播所需技術的能力。“基本商業模式建立在聳人聽聞的內容之上,”他補充道。“因此,不清楚擺脫所有煽動性內容是否符合 Facebook 的最佳利益。”
