從感恩節晚餐對話到流行文化討論,人們很容易感覺到,持有不同政治意識形態的個體佔據著完全不同的世界,尤其是在網上。人們常常將演算法——塑造線上環境的無形規則集,從社交媒體到搜尋引擎——歸咎於將使用者隔離到數字“過濾氣泡”中,透過向我們推送強化我們既有世界觀的內容。
演算法總是帶有偏見的:研究表明,Facebook 廣告針對特定的種族和性別人口。約會應用程式根據使用者之前的滑動歷史記錄選擇匹配物件。搜尋引擎優先顯示連結,基於它們認為最相關的因素。但根據新的研究,並非所有演算法都會驅動政治極化。
今天發表在《自然》雜誌上的一項研究發現,谷歌的搜尋引擎不會返回不成比例的黨派結果。相反,政治立場兩極分化的谷歌使用者傾向於透過點選黨派新聞網站的連結來將自己隔離起來。這些發現表明,至少在谷歌搜尋方面,人們可能比之前認為的更容易逃離線上迴音室——但前提是他們選擇這樣做。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們今天世界的發現和思想的有影響力的故事。
演算法滲透到我們線上存在的幾乎方方面面——並且有能力塑造我們看待周圍世界的方式。“它們確實對我們如何消費資訊以及因此如何形成觀點產生一定的影響,”羅格斯大學的傳播研究員、新研究的合著者凱瑟琳·奧格尼亞諾娃說。
但這些程式在多大程度上驅動政治極化有時難以量化。奧格尼亞諾娃說,演算法可能會檢視“你是誰,你在哪裡,你正在使用哪種裝置搜尋,地理位置,語言”。“但我們並不真正確切地知道演算法是如何工作的。它是一個黑匣子。”
大多數分析演算法驅動的政治極化的研究都集中在社交媒體平臺(如 Twitter 和 Facebook)而非搜尋引擎上。這是因為,直到最近,研究人員更容易從具有面向公眾的軟體介面的社交媒體網站獲取可用資料。“對於搜尋引擎,沒有這樣的工具,”馬里蘭大學即將上任的媒體與民主助理教授丹尼爾·特里埃利說,他沒有參與這項研究。
但奧格尼亞諾娃和她的合著者找到了一種繞過這個問題的方法。他們沒有依賴匿名公共資料,而是向志願者傳送了一個瀏覽器擴充套件程式,該程式記錄了他們在幾個月內所有的谷歌搜尋結果——以及他們從這些頁面點選的連結。該擴充套件程式就像拍攝動物的後院相機陷阱——在這種情況下,它提供了填充每個參與者線上環境的所有內容的快照。
研究人員收集了數百名谷歌使用者在 2018 年美國中期選舉前三個月和 2020 年美國總統大選前九個月的資料。然後,他們分析了收集到的資料與參與者的年齡和自我報告的政治傾向(在一到七的量表上排名,從堅定的民主黨人到堅定的共和黨人)之間的關係。亞利桑那大學的計算社會科學家約塔姆·什馬加德(未參與該研究團隊)稱這種方法“具有開創性”,因為它將參與者搜尋活動的真實行為資料與關於其政治傾向的調查資訊融合在一起。
賓夕法尼亞大學網路安全研究員霍瑪·侯賽因馬迪(也未參與該研究)表示,這種型別的實地資料從政策制定的角度來看也極其寶貴。為了確保像谷歌這樣的搜尋引擎巨頭——每天的查詢量超過 85 億次——以人們的最佳利益為出發點執行,僅僅瞭解演算法的工作原理是不夠的。“你需要看到人們是如何使用演算法的,”侯賽因馬迪說。
雖然許多立法者目前正在推動大型科技公司公開其匿名使用者資料,但一些研究人員擔心,這將激勵平臺釋出誤導性、有偏差或不完整的資訊。一個值得注意的例子是,當 Meta 聘請了一個科學家團隊來調查該平臺與民主和政治極化的關係,然後未能提供承諾分享的一半資料時。“我認為直接去找使用者更有意義,”斯坦福大學的網路科學家、新研究的主要作者羅納德·羅伯遜說。
最終,該團隊發現,快速的谷歌搜尋並沒有根據使用者的政治傾向為使用者提供一系列新聞報道。“谷歌在總體上並沒有做太多的個性化,”羅伯遜說。“如果個性化程度很低,那麼也許演算法並沒有真正改變頁面那麼多。”相反,立場堅定的黨派使用者更可能點選符合他們既有世界觀的黨派連結。
這並不意味著谷歌的演算法是完美無缺的。研究人員注意到,不可靠或完全具有誤導性的新聞來源仍然會出現在結果中,無論使用者是否與它們互動。“在其他情況下,谷歌也做過相當成問題的事情,”羅伯遜說,包括在其影像搜尋結果中大幅低估有色人種女性的代表性。
谷歌的一位發言人表示,該公司“讚賞研究人員在新研究中所做的工作”。在一份電子郵件宣告中,該公司表示,它試圖使其演算法“相關且可靠”。它表示,搜尋功能並非旨在推斷敏感資訊——種族、宗教或政治派別——在其結果中。
什馬加德指出,如果將研究資料細化到更精細的層面,它們並非完全沒有偏差。“看起來跨黨派界限沒有發生太多演算法偏差,”他說,“但可能在年齡組之間存在一些演算法偏差。”
與其他年齡組相比,65 歲及以上的使用者在谷歌搜尋結果中更容易受到右傾連結的影響,而與他們的政治身份無關。然而,由於這種影響很小,並且最年長的年齡組僅佔總參與者的約五分之一,因此,更大的曝光率對研究總體結果的影響在宏觀分析中消失了。
儘管如此,這些發現反映了越來越多的研究表明,演算法在建立政治資訊繭房中的作用可能被誇大了。“我不反對指責平臺,”特里埃利說。“但令人不安的是,要知道這不僅僅是確保平臺行為良好。我們個人過濾我們閱讀內容以適應我們政治偏見的動機仍然強烈。”
“我們也希望被分裂,”特里埃利補充道。
奧格尼亞諾娃說,一線希望是“這項研究表明,人們逃離[意識形態]資訊繭房並非那麼困難。” 也許是這樣。但首先他們必須想要逃離。
