今年四月,一項訴訟揭露,谷歌 Chrome 的隱私瀏覽模式,即“隱身模式”,實際上並沒有我們想象的那麼私密。谷歌仍在收集資料,現在它已同意銷燬這些資料,而且它的“隱私”瀏覽實際上並不能阻止網站或您的網際網路服務提供商(如 Comcast 或 AT&T)跟蹤您的活動。
事實上,資訊收集正是我們的數字和商業模式以及智慧裝置驅動世界的全部。資料”中,這些發現被用來為了他人的利益而操縱我們。
事情不必如此。人工智慧可以被更合乎道德地用於每個人的利益。我們不應該害怕人工智慧這項技術。我們反而應該擔心誰擁有人工智慧,以及其所有者如何利用人工智慧侵犯隱私和破壞民主。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
毫不奇怪,科技公司、國家實體、企業和其他私人利益集團越來越多地侵犯我們的隱私並監視我們。保險公司監控其客戶的睡眠呼吸暫停機,以拒絕為不當使用提供保險。兒童玩具監視玩耍時間並收集關於我們孩子的資料。經期跟蹤應用程式與 Facebook 和其他第三方(包括墮胎限制州的州政府部門)共享女性上次性行為的時間、她們的避孕措施、月經細節,甚至她們的情緒。家庭安全攝像頭監視客戶,並且容易受到駭客攻擊。醫療應用程式與律師共享個人資訊。資料經紀商,即跨平臺和技術跟蹤人們的公司,透過將捆綁的使用者資料出售給任何願意付費的人,從而擴大了這些侵犯行為。
這種顯式的監視是顯而易見的,並且在直覺層面上感覺是錯誤的。然而,更險惡的是,由此產生的資料是如何被使用的——不僅出售給廣告商或任何尋求影響我們行為的私人利益集團,而且還被部署用於人工智慧訓練,以改進機器學習。這可能是一件好事。人類可以更多地瞭解自己,發現我們的缺點以及我們可能如何解決這些缺點。這可以幫助個人獲得幫助並滿足他們的需求。
相反,機器學習被用來預測和規定,也就是說,估計我們是誰,以及最有可能影響我們和改變我們行為的事物。其中一種行為是如何讓我們更多地“參與”技術並生成更多資料。人工智慧正被用來嘗試比我們自己更瞭解我們,讓我們對技術上癮,並在我們不知情、未經同意或不符合我們最佳利益的情況下影響我們。換句話說,人工智慧並沒有幫助人類解決我們的缺點,它正在利用我們的弱點,以便私人利益集團可以指導我們的思考、行動和感受。
一位 Facebook 舉報人在幾年前明確了這一切。為了實現其收入目標,該平臺使用人工智慧來延長人們在該平臺上的停留時間。這意味著找到完美數量的引發憤怒和挑釁的內容,以便欺凌、陰謀論、仇恨言論、虛假資訊和其他有害資訊得以滋生。該公司在使用者不知情的情況下進行實驗,在技術中設計了成癮性功能,儘管知道這會傷害少女。一份聯合國報告將 Facebook 標記為在緬甸未遂種族滅絕中傳播仇恨的“有用工具”,該公司承認該平臺在擴大暴力事件方面的作用。因此,公司和其他利益集團可以利用人工智慧來了解我們的心理弱點,引導我們走向最不安全的自我,並按下我們的按鈕以實現他們自己期望的目的。
因此,當我們使用手機、電腦、家庭安全系統、健康裝置、智慧手錶、汽車、玩具、家庭助手、應用程式、小工具以及其他任何東西時,它們也在使用我們。當我們搜尋時,我們也被搜尋。當我們在社交媒體上講述我們的生活時,我們的故事和滾動瀏覽也被捕捉。儘管感覺自由和掌控一切,但我們正在被微妙地引導(或用仁慈的技術術語來說是“輕推”)走向受限的想法和結果。基於之前的行為,我們被提供了一個奉承和過度個性化的世界,這個世界放大並證實了我們的偏見,利用我們自己的興趣和個性來讓我們不斷回頭。以這種方式使用人工智慧可能對商業有利,但對於民主制度所需的情感共鳴和知情審議來說是災難性的。
即使科技公司要求我們接受 cookie 或遲遲徵求我們的同意,這些努力也不是出於善意。它們給了我們一種隱私的錯覺,即使“改進”公司的服務也依賴於機器比我們自己更瞭解我們,並找到我們行為的模式,而沒有人知道他們正在尋找這些模式。即使是人工智慧的開發者也不知道它究竟是如何工作的,因此無法有意義地告訴我們我們正在同意什麼。
在當前的商業模式下,人工智慧和機器人技術的進步將使少數人致富,同時使許多人的生活更加艱難。當然,您可能會辯稱,人們將從人工智慧可能帶來的健康、設計和任何效率提升的潛在進步中受益(並且痴迷於科技行業的經濟學家無疑會如此辯稱)。但是,當人們的尊嚴被剝奪,因沒有跟上時代而被責備,並不斷地被監視和操縱以謀取他人的利益時,這一切就變得毫無意義了。
我們不應該害怕人工智慧接管人類;我們應該害怕的是,我們的人性並沒有跟上我們的技術發展。億萬富翁們沒有建立一個讓我們工作更少、生活更多的世界,而是設計了一個獎勵少數人而犧牲多數人利益的系統。雖然人工智慧已經並將繼續創造偉大的事物,但它也被用來讓人們更加焦慮、不穩定和以自我為中心,以及更不自由。除非我們真正學會關心彼此,併為所有人的利益著想,否則技術將繼續束縛而不是解放我們。沒有人為的倫理這種東西,人類的原則必須指導我們的技術,而不是反過來。這首先要問誰擁有人工智慧,以及如何以符合所有人最佳利益的方式使用它。未來屬於我們所有人。
這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。
