以下文章經允許轉載自The Conversation,這是一個報道最新研究的線上出版物。
如果你像大多數美國人那樣從社交媒體獲取新聞,你每天都會接觸到大量的惡作劇、謠言、陰謀論和誤導性新聞。當這些資訊與來自可靠來源的真實資訊混雜在一起時,真相就很難辨別了。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠釋出關於塑造我們當今世界的發現和想法的有影響力的故事。
事實上,我的研究團隊對哥倫比亞大學的Emergent謠言跟蹤器的資料分析表明,這種虛假資訊像可靠資訊一樣容易在網上瘋傳。
許多人都在問,這種數字虛假資訊的衝擊是否影響了2016年美國大選的結果。事實是我們不知道,儘管根據過去的分析和其他國家的報道,有理由相信這完全有可能。每一條虛假資訊都會影響我們觀點的形成。總的來說,危害可能是非常真實的:如果人們可以被欺騙到危及我們孩子生命的地步,就像他們選擇不接種疫苗時那樣,為什麼不能危害我們的民主呢?
作為一名研究社交媒體虛假資訊傳播的研究人員,我知道限制新聞造假者銷售廣告的能力是朝著正確方向邁出的一步,正如谷歌和臉書最近宣佈的那樣。但這並不能遏制政治動機驅動的濫用行為。
利用社交媒體
大約10年前,我的同事和我進行了一項實驗,其中我們瞭解到,72%的大學生信任看起來來自朋友的連結——甚至到了在網路釣魚網站上輸入個人登入資訊的程度。這種普遍存在的漏洞表明了另一種形式的惡意操縱:人們也可能會相信他們點選來自社交聯絡人的連結時收到的虛假資訊。
為了探索這個想法,我建立了一個虛假的網頁,其中包含隨機的、計算機生成的八卦新聞——比如“名人X和名人Y被抓到在床上!”訪問該網站並搜尋名字的訪問者會觸發指令碼自動捏造關於這個人的故事。我在網站上包含了一個免責宣告,說明該網站包含毫無意義的文字和編造的“事實”。我還在這頁面上放置了廣告。月底,我收到了一張來自廣告的收入支票。這就是我的證明:虛假新聞可以透過用謊言汙染網際網路來賺錢。
可悲的是,我並不是唯一有這種想法的人。十年後,我們有了一個虛假新聞產業和數字虛假資訊。誘點選網站製造惡作劇以從廣告中賺錢,而所謂的極端黨派網站釋出和傳播謠言和陰謀論以影響公眾輿論。
這個產業得益於建立社交機器人的便利,這些機器人是由軟體控制的虛假帳戶,看起來像真人,因此可以產生真正的影響。我在實驗室的研究中發現了許多虛假的基層運動的例子,也稱為政治偽草根運動。
作為回應,我們開發了BotOrNot工具來檢測社交機器人。它並不完美,但是足夠準確,可以揭露英國脫歐和反疫苗運動中的勸導活動。透過使用 BotOrNot,我們的同事發現,關於2016年大選的很大一部分線上聊天是由機器人生成的。
建立資訊泡沫
由於一系列複雜的社會、認知、經濟和演算法偏差,我們人類很容易受到數字虛假資訊的操縱。其中一些偏差的出現是有充分理由的:信任來自我們社交圈的訊號,拒絕與我們的經驗相矛盾的資訊,這在我們人類適應躲避捕食者時對我們很有幫助。但在當今萎縮的線上網路中,與地球另一端的陰謀論者建立社交網路聯絡無助於形成我的觀點。
複製我們的朋友並取消關注那些持有不同意見的人,會給我們帶來如此兩極分化的迴音室,以至於研究人員可以透過檢視你的朋友來高精度地判斷你是自由主義者還是保守主義者。網路結構是如此密集,以至於任何虛假資訊幾乎都會在一個群體內立即傳播,並且如此隔離,以至於無法到達另一個群體。
在我們的泡沫中,我們有選擇地接觸與我們信仰一致的資訊。這是最大限度提高參與度的理想場景,但對培養健康的懷疑主義不利。確認偏誤導致我們分享一個標題,而甚至沒有閱讀文章。
當我們自己的研究專案成為2014年美國中期選舉前夕惡毒的虛假資訊運動的主題時,我們的實驗室親自吸取了教訓。當我們調查發生了什麼時,我們發現關於我們研究的虛假新聞主要由一個黨派迴音室中的推特使用者分享,這是一個龐大且同質的政治活躍使用者群體。這些人很快就轉發了資訊,並且對揭穿資訊毫不在意。
病毒式傳播的必然性
我們的研究表明,考慮到我們社交網路的結構和我們有限的注意力,一些模因,不管它們的質量如何,都不可避免地會在網上瘋傳。即使個人傾向於分享更高質量的資訊,整個網路也不能有效地辨別可靠資訊和虛假資訊。這有助於解釋我們在野外觀察到的所有病毒式惡作劇。
注意力經濟負責其餘的事情:如果我們關注某個話題,就會產生更多關於該話題的資訊。製造虛假資訊並將其冒充為事實比報道真實真相更便宜。而且捏造資訊可以針對每個群體進行定製:保守派閱讀到教皇認可了特朗普,自由派閱讀到他認可了克林頓。他都沒有這樣做。
受演算法的支配
由於我們無法關注我們推送中的所有帖子,演算法決定了我們看到什麼和看不到什麼。當今社交媒體平臺使用的演算法旨在優先考慮引人入勝的帖子——我們可能會點選、反應和分享的帖子。但最近的一項分析發現,故意誤導性的頁面至少獲得了與真實新聞一樣多的線上分享和反應。
這種演算法對參與度而不是真相的偏見加強了我們的社會和認知偏見。因此,當我們在社交媒體上點選分享的連結時,我們傾向於訪問比我們進行搜尋並訪問頂部結果時更小、更同質化的來源集。
現有的研究表明,處於迴音室可能會使人們更容易接受未經證實的謠言。但我們需要更多地瞭解不同的人對同一個惡作劇的反應:有些人會立即分享,有些人會先進行事實核查。
我們正在模擬一個社交網路來研究這種分享和事實核查之間的競爭。我們希望幫助理清關於事實核查何時有助於阻止惡作劇傳播以及何時沒有幫助的相互矛盾的證據。我們的初步結果表明,惡作劇信徒的社群越隔離,惡作劇的持續時間就越長。同樣,這不僅僅關乎惡作劇本身,還關乎網路。
很多人都在試圖弄清楚該如何解決這一切。根據馬克·扎克伯格最新的公告,臉書團隊正在測試潛在的方案。一群大學生提出了一種簡單地將共享連結標記為“已驗證”或未驗證的方法。
一些解決方案至少目前仍然遙不可及。例如,我們還不能教會人工智慧系統如何辨別真假。但我們可以告訴排名演算法,優先考慮更可靠的來源。
研究虛假新聞的傳播
如果我們能更好地瞭解虛假資訊是如何傳播的,我們就能更有效地打擊假新聞。例如,如果機器人是許多謊言的始作俑者,我們可以將注意力集中在檢測它們上。或者,如果問題出在迴音室效應上,或許我們可以設計不排除不同觀點的推薦系統。
為此,我們的實驗室正在構建一個名為Hoaxy的平臺,以跟蹤和視覺化社交媒體上未經證實的說法及其相應的事實核查的傳播。這將為我們提供真實世界的資料,我們可以利用這些資料來構建我們的模擬社交網路。然後,我們可以測試對抗假新聞的可能方法。
Hoaxy也可能向人們展示他們的觀點是多麼容易被線上資訊操縱——甚至展示我們中的一些人有多麼可能在網上分享謊言。Hoaxy將加入我們社交媒體觀察站中的一套工具,該工具允許任何人檢視模因在Twitter上的傳播情況。將這些工具與人工事實核查員和社交媒體平臺連線起來,可以更容易地最大限度地減少重複工作並互相支援。
我們必須投入資源研究這種現象。我們需要各方共同努力:計算機科學家、社會科學家、經濟學家、記者和行業合作伙伴必須協同工作,堅決抵制虛假資訊的傳播。
本文最初發表於The Conversation。請閱讀原文。
