本文發表在《大眾科學》的前部落格網路中,反映了作者的觀點,不一定反映《大眾科學》的觀點
劍橋分析公司的醜聞不僅僅是 Facebook 高管所定義的“違規”行為。它例證了利用線上資料以演算法方式預測和影響人類行為的可能性,並且這種影響會繞過使用者對此類影響的意識。透過一箇中間應用程式,劍橋分析公司能夠收集大量資料——超過 5000 萬個原始個人資料——並使用大資料分析來建立心理檔案,以便隨後使用定製的數字廣告和其他操縱性資訊來定位使用者。據一些觀察人士稱,這種大規模資料分析策略可能被用來有目的地影響世界各地的競選活動。報告仍然不完整,未來幾天可能會有更多資訊浮出水面。
雖然規模和範圍不同,但這場醜聞並非完全新鮮。2014 年,Facebook 與康奈爾大學的研究人員對近 70 萬不知情使用者進行了一項大規模的線上社會心理實驗,以演算法方式修改他們的動態訊息,以觀察他們情緒的變化。這項研究結果發表在著名的《美國國家科學院院刊 (PNAS)》 上,顯示了社交網路能夠在使用者不知情的情況下大規模地使人們更快樂或更悲傷的能力——這種現象被稱為“情緒傳染”。正如劍橋分析公司的案例一樣,Facebook 的情緒傳染研究引發了嚴厲批評,專家呼籲對社交計算研究制定新的監督和問責標準。
這兩個不同案例的共同教訓是,Facebook 的隱私政策並非資料保護的絕對保證:在 2014 年,它允許將資料重複用於研究目的,即使“研究”在資料收集時沒有列出在公司的《資料使用政策》中。幾年後,它允許一個濫用的應用程式不僅收集註冊使用者的資料,還收集他們朋友的資料。馬克·扎克伯格本人也承認資料沒有得到應有的保護。然而,在試圖理解這場醜聞時,還有兩個比資料保護更微妙的考慮因素
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過 訂閱來支援我們屢獲殊榮的新聞報道。透過購買訂閱,您將有助於確保有關當今塑造我們世界的發現和想法的有影響力的故事的未來。
首先,接受服務條款 (ToS) 和隱私政策 (PP) 是使用大多數線上服務(包括 Facebook)的先決條件。儘管如此,大多數人接受 ToS 時甚至沒有滾動到頁面末尾,這已不是什麼秘密。這種眾所周知的現象引發了一個問題,即線上協議是否符合知情同意的條件。伯格魯恩獎得主奧諾拉·奧尼爾認為,“同意程式的要點是限制欺騙和脅迫”,因此它們應該被設計為讓人們“控制他們接收的資訊量,並有機會撤銷已給予的同意”。
從 Facebook 和 Twitter 等最主流的線上服務到劍橋分析公司等最可疑的線上服務,似乎都恰恰相反。正如一家德國法院最近裁定,在註冊該服務之前,無法保證人們充分了解 Facebook 與隱私相關的選項,因此知情同意可能會受到損害。最重要的是,該平臺託管了一些活動,這些活動使用線上操縱來減少人們對其生成或接收的資訊的理性控制,無論是微定向廣告還是傳播虛假新聞的社交機器人的形式。欺騙不是被限制,而是被正常化。
在這個以削弱同意為特徵的不斷發展的線上環境中,傳統的資料保護措施可能是不夠的。資料用於什麼目的不太可能由最初提供資料的使用者來控制。資料訪問委員會、監控委員會和其他機制更有可能控制和回應不良用途。這些機制必須成為更系統性的監督計劃的一部分,該計劃貫穿整個監管活動的連續統一體,並應對資料使用生命週期中發生的意外事件。這種方法可以針對線上資料生態系統中出現的新型風險和新興形式的脆弱性。
第二個考慮因素是,不僅劍橋分析公司,而且當前的大部分線上生態系統,都是一場針對無意識思維的軍備競賽:通知、微定向廣告、自動播放外掛都是旨在誘導成癮行為,從而進行操控的策略。研究人員呼籲建立自適應監管框架,可以限制使用實驗性神經技術從某人的大腦中提取資訊並對其進行調節。社交計算表明,你不必非要讀取人們的大腦才能影響他們的選擇。收集和挖掘他們經常(並且通常在不知不覺中)在網上分享的資料就足夠了。
因此,我們需要考慮是否應該為數字空間設定一個關於認知自由的明確界限。認知自由強調控制個人認知維度(包括偏好、選擇和信念)的自由,以及免受旨在繞過個人認知防禦的操縱性策略的保護。這正是劍橋分析公司試圖做的事情,正如他們的總經理在第四頻道新聞的臥底調查中透露的那樣:該公司承認,他們的目標是利用“兩個基本的人類驅動因素”(即“希望和恐懼”,這些通常是“不言說的甚至無意識的”)來“有效地獲取資訊”。
試圖操縱他人的無意識思維和相關行為與人類歷史一樣古老。在古希臘,柏拉圖警告人們提防煽動者:他們透過迎合民眾的慾望和偏見而不是理性審議來建立共識的政治領導人。然而,古代雅典的煽動者可以用來繞過理性審議的唯一工具是說服的藝術。
在今天的數字生態系統中,想要成為煽動者的人可以利用大資料分析來揭示來自大型使用者資料集的認知脆弱性,並以繞過個人理性控制的方式有效地利用它們。例如,機器學習可以用來識別預先分組的使用者群體中根深蒂固的恐懼,然後社交媒體機器人可以利用這些恐懼來煽動憤怒和不容忍。
最近透過的歐盟《通用資料保護條例》及其目的限制原則(資料收集者必須在收集個人資訊時說明收集目的)可能會部分緩解當前有害的數字環境。然而,確定說服的終點和操縱的起點在哪裡,正如歐洲資料保護監管機構 (EDPS)最近承認的那樣,這是一個“遠遠超出資料保護權利”的問題。
EDPS 強調,微定向和其他線上策略“指向線上環境中的一種操縱文化”,其中“大多數人不知道他們是如何被利用的”。如果魯莽地應用於選舉領域,它們甚至可能減少“辯論和思想交流的空間”,這種風險“迫切需要在政治競選和決策中使用和利用資料進行民主辯論”。去年,國際專家討論了民主是否會在大資料和人工智慧中倖存下來的問題。答案將部分取決於我們如何管理資料流並保護個人思想的自由。