本文發表於《大眾科學》的前部落格網路,反映了作者的觀點,不一定反映《大眾科學》的觀點
近期簽署的旨在建立美國人工智慧倡議的行政命令,正確地將人工智慧確定為美國競爭力和國防的核心。然而,目前尚不清楚人工智慧是否已經取得了像許多人聲稱的那樣多的成就。事實上,當前的技術並沒有令人信服地展示出任何接近“智慧”的東西。
為了保持美國在人工智慧領域的領先地位,最佳的前進方向是採取一種更貼近人類學習方式的策略,這將使我們走上充分實現人工智慧所承諾的經濟增長和廣泛社會效益的最佳道路。
這是大多數深度學習神經網路面臨的挑戰,它們反映了當前人工智慧的主流方法:稱它們既“深度”又“智慧”是假設它們在網路更深層次上實現了對資料越來越抽象和有意義的表示。它進一步假設,在某個時候,它們超越了死記硬背,實現了真正的認知或智慧。但事實並非如此。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠持續產出關於塑造我們當今世界的發現和想法的有影響力的報道。
以計算機視覺為例,深度神經網路在基準影像分類任務中取得了驚人的效能提升。假設我們要求計算機視覺演算法正確地將影像標記為貓或狗。如果演算法正確地標記了影像,我們可能會得出結論,底層深度神經網路已經學會了區分貓和狗。
現在假設所有的狗都戴著閃亮的金屬狗牌,而貓都沒有戴貓牌。最有可能的是,深度神經網路根本沒有學會識別貓和狗,而只是學會了檢測閃亮的金屬標籤。最近的研究表明,類似的情況實際上支撐著深度神經網路在計算機視覺任務中的表現。解釋可能不像閃亮的金屬標籤那麼明顯,但大多數學術資料集都包含類似的無意線索,而深度學習演算法會利用這些線索。
使用旨在挫敗神經網路的對抗性示例,增加了更令人不安的證據,表明深度神經網路可能根本沒有“看到”,而僅僅是在檢測膚淺的影像特徵。簡而言之,對抗性示例是透過反向執行用於訓練深度神經網路的相同計算工具來建立的。研究人員發現,對影像進行非常輕微的修改(人類無法察覺)就可以欺騙深度神經網路,使其錯誤地分類影像,而且通常是徹底的錯誤分類。
事實證明,問題在於計算誤導。新增或刪除幾個畫素就可以消除深度神經網路已經學會依賴的特定線索。更根本的是,這個錯誤表明,深度神經網路依賴於膚淺的影像特徵,而這些特徵通常缺乏意義,至少對人類而言是如此。
這為不良行為者使用有針對性的對抗性示例製造了嚴重惡作劇的機會。例如,如果您指望自動駕駛汽車(旨在識別道路標誌)或識別指紋的安全系統能夠進行一致的影像識別,那麼您就麻煩了。
這種缺陷是架構固有的。以色列 Naftali Tishby 領導的最新研究發現,深度神經網路在每一層都會選擇性地丟棄非必要資訊。一個經過充分訓練的深度神經網路已經丟棄了大量資訊,並且變得如此依賴於少數關鍵的膚淺特徵——“閃亮的金屬標籤”,以至於它已經失去了所有智慧的表象。深度學習更準確地描述為深度遺忘。
更糟糕的是,深度神經網路沒有透過類比學習的能力,而類比學習是所有智慧的基礎。例如,人類和其他動物使用類比來學習世界由具有共同屬性的物體組成。無論是石頭、蘋果還是棒球,所有這些物體都會掉到地上,因為它們都遵循在智慧發展過程中學到的直覺物理定律。
布朗大學的研究人員最近測試了深度神經網路是否可以透過類比學習。該團隊發現,神經網路未能學習“相同性”的概念。深度神經網路沒有透過類比學習訓練影像集中相似影像示例背後的基本概念,而是簡單地記憶了一組模板,用於正確標記訓練集中的影像。這些網路沒有獲得推廣到訓練資料之外的能力。
很難想象有什麼比無法透過類比學習更能嚴厲地譴責深度學習的了。基本上,所有認知發展都依賴於學習和抽象一組具體示例背後的原理。到目前為止,深度學習在這方面的失敗揭示了當前人工智慧系統所呈現的智慧外表背後的空虛。
透過跳過漫長而緩慢的認知發展過程,轉而專注於解決具有高商業或營銷價值的特定任務,我們剝奪了人工智慧以智慧方式處理資訊的能力。
當真正智慧的機器最終出現時——而且它們可能會出現——它們將與深度神經網路或其他當前的人工智慧演算法截然不同。未來的道路將透過模仿生物學的系統來實現。像它們的生物學對應物一樣,智慧機器必須透過類比學習來獲得對周圍物理現象的直覺理解。為了走向這個未來,我們必須首先退後一步,給予我們的機器一個嬰兒期,讓它們在世界的結構中摸索,並發現所有智慧推理都依賴的直覺物理學。