私人智慧:數字助理能在不窺探我們生活的情況下工作嗎?

個性化人工智慧需要個人資料。蘋果、谷歌和其他公司表示,他們現在可以在保護隱私和安全的前提下獲取更多資料

無論是用於擊敗世界撲克冠軍,還是以(基本)令人信服的人聲預約理髮,人工智慧及其底層機器學習演算法在功能上不斷取得重大進展,並深入我們生活中越來越私密的空間。而且,與任何基於海量資料集的收集和分析的技術壯舉一樣,其中一些突破也伴隨著重大的隱私風險。然而,新的資料收集技術可能會使研究人員更好地保護使用者的隱私,同時仍然從他們的個人資訊中收集有價值的見解。

以數字助理為例,人工智慧創新的成果日益顯現。如今,亞馬遜的 Alexa 和谷歌助手可以區分您家中不同人的聲音,並可以使用這些聲音簽名來提供個性化的交通報告,並在相關說話者的日曆中安排約會。完成這些技巧需要複雜的自然語言處理技能。它還需要訪問非常敏感的資料。位置歷史記錄、聯絡人、日曆、語音查詢的轉錄記錄、線上瀏覽和購買歷史記錄——所有這些都可以用於訓練人工智慧,幫助虛擬助手變得更有用和個性化。

對於製造這些產品的公司,尤其是那些聲稱認真對待使用者隱私的公司來說,這提出了一個棘手的問題。如何在不窺探使用者活動和將使用者個人資料置於風險之中的情況下,建立能夠理解個人使用者偏好的智慧虛擬助手?艾倫人工智慧研究所執行長奧倫·埃齊奧尼說:“第一道防線是對資料進行匿名化和加密。“匿名化是為了使其不以明顯的方式直接與您聯絡起來,加密是為了使外部方無法訪問該[資訊]。”


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。


除了提供全盤加密來編碼特定裝置上的所有資訊以保護其免受窺探外,蘋果和谷歌還依賴一種稱為本地差分隱私的統計方法來保持他們從這些裝置挖掘的資料匿名。卡內基梅隆大學電氣與計算機工程教授阿努帕姆·達塔說:“其理念是,當從使用者在筆記型電腦或智慧手機上收集資料時,還會向資料中新增一些經過仔細校準的噪聲。”“來自大量使用者的這種經過掩蓋的噪聲資料然後被加密併發送到谷歌或蘋果伺服器,以進行解析以獲得有意義的結果。”例如,公司可能會了解到在一天中的特定時間有多少智慧手機使用特定應用程式——但公司不會知道這些智慧手機或其所有者的身份。

蘋果公司表示,它將這種隱私保護措施用於改進包括QuickType單詞和表情符號建議(pdf)在其作業系統中的智慧性和可用性等專案。同樣,谷歌已使用本地差分隱私來遠端收集來自其 Chrome 瀏覽器的資料,該瀏覽器在使用者裝置上執行(pdf)。該過程有助於公司找出對其瀏覽器的惡意軟體威脅。儘管如此,達塔警告說,認為差分隱私與完全隱私同義是錯誤的。“這是一種相對保證,而不是絕對保證,”他說。

為了完全避免將敏感使用者資料放在遠端伺服器上,谷歌正在試驗一種名為聯邦學習的方法。該公司不是收集和傳送資料來訓練其機器學習模型,而是將模型本身直接傳送給使用者。您將當前的訓練模型下載到您的智慧手機,該模型根據從您的個人資料中學到的內容進行更改,然後這個更新的模型返回到雲端,並與所有其他更新的模型進行平均。谷歌在任何時候都看不到或收集您的個人資料。

儘管採取了這些措施,但一些安全研究人員仍然有所保留。他們指出,例如,如果駭客訪問了機器學習模型,他們可以很容易地逆向工程使用者資料。此外,南加州大學教授和前谷歌研究科學家亞歷山德拉·科羅洛娃說,像差分隱私這樣的策略實際上只對瞭解關於大型群體或人口的普遍趨勢有用。她說,這些策略不會揭示個人層面的關鍵見解——而這大概是數字助理最需要做的事情。

加州大學伯克利分校教授兼安全研究員拉盧卡·阿達·波帕認為,最大的問題是所有這些技術實際上都相當於圍繞資料構建軟體牆。“攻擊者總是最終會侵入軟體,因此這些牆永遠不會是萬無一失的機制,”她說。

波帕和她在伯克利 RISELab 的一些同事認為,他們有一個更好的解決方案,可以從高度個人化的資料中收集見解。安全多方計算pdf)據稱將使科技公司能夠從多個加密資料來源收集他們想要的資訊,而無需這些資料來源洩露他們的私人資料。實際上,研究人員可以研究大型加密資料集中的資訊,而無需檢視這些集中的原始資料。無論是尋找更好的癌症治療預測因子,還是提供個性化的廣告和餐廳推薦,公司甚至不必看到——即使他們想看也看不到——底層的個人資訊。“我真的認為這是未來,因為您不必再為了進行所有這些有用的 AI 和機器學習而放棄您的資料,”波帕說。

亞馬遜、蘋果、谷歌、微軟和其他大型科技公司可能有不同的商業模式和資料收集動機,但都將自己的未來押注於提高其裝置和服務的智慧性。這意味著他們的資料收集工作可能只會增加——正如許多人在最近幾個月發現的那樣,這些公司已經擁有的個人資訊量通常是驚人的。有一天,可能會有可能在不損害使用者隱私的情況下,使用私人資料訓練高度準確、高度個性化的人工智慧。但就目前而言,只有一種方法可以確保您的敏感資訊不會落入壞人之手:不要分享

© .