以下文章經許可轉載自The Conversation,這是一個報道最新研究的線上出版物。
社交媒體是美國乃至全球主要的新聞來源之一。然而,使用者接觸到的內容準確性令人質疑,包括陰謀論、標題黨、高度黨派化的內容、偽科學,甚至捏造的“假新聞”報道。
釋出如此多的虛假資訊並不令人驚訝:垃圾郵件和網路欺詐對犯罪分子來說利潤豐厚,而政府和政治宣傳則產生黨派和經濟利益。但低可信度內容傳播如此迅速和容易這一事實表明,人和社交媒體平臺背後的演算法都容易受到操縱。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
解釋在社交媒體觀察站開發的工具。
我們的研究已經確定了三種偏見,這些偏見使社交媒體生態系統容易受到有意和無意的錯誤資訊的影響。這就是為什麼我們在印第安納大學的社交媒體觀察站正在構建工具,以幫助人們意識到這些偏見,並保護自己免受旨在利用這些偏見的外部影響。
大腦中的偏見
認知偏見源於大腦處理每個人每天遇到的資訊的方式。大腦只能處理有限的資訊量,過多的傳入刺激會導致資訊過載。這本身就對社交媒體上的資訊質量產生了嚴重影響。我們發現,對使用者有限注意力的激烈競爭意味著一些想法儘管質量不高,仍然會迅速傳播——即使人們更喜歡分享高質量的內容。*
為了避免不堪重負,大腦使用多種技巧。這些方法通常是有效的,但在錯誤的背景下應用時也可能變成偏見。
當一個人決定是否分享出現在其社交媒體資訊流中的故事時,就會發生一種認知捷徑。人們非常容易受到標題的情感內涵的影響,即使這並不是衡量文章準確性的好指標。更重要的是誰寫的這篇文章。
為了 противостоять 這種偏見,並幫助人們在分享之前更多地關注宣告的來源,我們開發了Fakey,這是一款移動新聞素養遊戲(在Android和iOS上免費),模擬典型的社交媒體新聞資訊流,其中混合了來自主流和低可信度來源的新聞文章。玩家分享來自可靠來源的新聞並標記可疑內容以進行事實核查,可以獲得更多積分。在這個過程中,他們學會了識別來源可信度的訊號,例如高度黨派化的宣告和帶有強烈情感色彩的標題。
社會中的偏見
另一種偏見來源來自社會。當人們直接與同齡人聯絡時,引導他們選擇朋友的社會偏見就會影響他們看到的資訊。
事實上,在我們的研究中,我們發現可以透過簡單地檢視推特使用者的朋友的黨派偏好來確定他們的政治傾向。我們對這些黨派溝通網路結構的分析發現,當社交網路緊密聯絡在一起並與其他社會部分脫節時,它們在傳播資訊(無論準確與否)方面特別有效。
如果資訊來自他們自己的社交圈子,人們傾向於更積極地評估資訊,這種傾向創造了“迴音室”,這些“迴音室”很容易受到有意或無意的操縱。這有助於解釋為什麼如此多的線上對話會演變成“我們與他們”的對抗。
為了研究線上社交網路的結構如何使使用者容易受到虛假資訊的影響,我們構建了Hoaxy,這是一個跟蹤和視覺化低可信度來源內容傳播以及它如何與事實核查內容競爭的系統。我們對 Hoaxy 在 2016 年美國總統選舉期間收集的資料進行的分析表明,分享錯誤資訊的推特賬戶幾乎完全與事實核查人員做出的更正隔絕。
當我們深入研究傳播錯誤資訊的賬戶時,我們發現一個非常密集的賬戶核心小組幾乎完全互相轉發——包括幾個機器人。錯誤資訊組中的使用者引用或提及事實核查組織的唯一情況是質疑其合法性或聲稱與其所寫內容相反。
機器中的偏見
第三組偏見直接來自用於確定人們在網上看到什麼內容的演算法。社交媒體平臺和搜尋引擎都使用這些演算法。這些個性化技術旨在為每個使用者選擇最吸引人和最相關的內容。但這樣做可能會加強使用者的認知和社會偏見,從而使他們更容易受到操縱。
例如,許多社交媒體平臺中內建的詳細廣告工具讓虛假資訊活動者可以透過定製資訊給那些已經傾向於相信他們的人來利用確認偏見。
此外,如果使用者經常點選來自特定新聞來源的 Facebook 連結,Facebook 將傾向於向該人展示更多該網站的內容。這種所謂的“過濾氣泡”效應可能會將人們與不同的觀點隔離開來,從而加強確認偏見。
我們自己的研究表明,與維基百科等非社交媒體網站相比,社交媒體平臺讓使用者接觸到的來源更加單一。因為這發生在整個平臺層面,而不是單個使用者層面,所以我們稱之為同質性偏見。
社交媒體的另一個重要組成部分是平臺上流行的資訊,這取決於什麼內容獲得最多的點選量。我們稱之為流行度偏見,因為我們發現旨在推廣受歡迎內容的演算法可能會對平臺上資訊的整體質量產生負面影響。這也助長了現有的認知偏見,強化了表面上流行的內容,而不管其質量如何。
所有這些演算法偏見都可能被社交機器人操縱,社交機器人是計算機程式,透過社交媒體賬戶與人類互動。大多數社交機器人,例如 Twitter 的Big Ben,都是無害的。然而,有些機器人隱藏了它們的真實性質,並被用於惡意目的,例如助長虛假資訊或錯誤地製造草根運動的假象,也稱為“虛假草根運動”。我們發現了這種型別的操縱的證據,在 2010 年美國中期選舉的準備階段。
為了研究這些操縱策略,我們開發了一種檢測社交機器人的工具,名為Botometer。Botometer 使用機器學習來檢測機器人賬戶,透過檢查推特賬戶的數千個不同特徵,例如其帖子的時間、推文頻率以及它關注和轉發的賬戶。它並不完美,但它已經揭示,高達15% 的推特賬戶顯示出是機器人的跡象。
結合使用 Botometer 和 Hoaxy,我們分析了 2016 年美國總統競選期間錯誤資訊網路的核心。我們發現許多機器人利用了受害者的認知、確認和流行度偏見以及 Twitter 的演算法偏見。
這些機器人能夠圍繞易受攻擊的使用者構建過濾氣泡,向他們提供虛假宣告和錯誤資訊。首先,他們可以透過釋出該候選人的標籤或提及和轉發該人來吸引支援特定候選人的人類使用者的注意力。然後,機器人可以透過轉發來自與某些關鍵詞匹配的低可信度來源的文章來放大抹黑對手的虛假宣告。這種活動也使得演算法為其他使用者突出顯示正在廣泛分享的虛假故事。
理解複雜的脆弱性
即使我們的研究和其他人的研究表明個人、機構甚至整個社會都可能在社交媒體上受到操縱,但仍有許多問題有待解答。特別重要的是要發現這些不同的偏見如何相互作用,從而可能產生更復雜的脆弱性。
像我們這樣的工具為網際網路使用者提供更多關於虛假資訊的資訊,因此在一定程度上可以保護他們免受其危害。解決方案可能不僅僅是技術性的,儘管可能有一些技術方面。但它們必須考慮到問題的認知和社會方面。
*編者注:本文於 2019 年 1 月 10 日更新,刪除了指向一篇已被撤回研究的連結。文章的文字仍然準確,並且保持不變。
本文最初發表於The Conversation。閱讀原文。
