隨著人工智慧系統變得普及,其故障帶來危險後果的可能性也在增加。例如,麻省理工學院的科學家最近愚弄了一個谷歌訓練的人工智慧程式,使其將塑膠玩具烏龜識別為步槍。如果未來的機器人警察或士兵犯了這樣的錯誤,結果可能是悲劇性的。但是研究人員現在正在開發工具,以找出構成這些系統的數十億虛擬“腦細胞”中潛在的缺陷。
許多影像識別程式、汽車自動駕駛系統和其他形式的人工智慧都使用人工神經網路,其中被稱為“神經元”的元件被輸入資料並協同工作以解決問題——例如發現道路上的障礙物。網路透過反覆調整神經元之間的連線並再次嘗試問題來“學習”。隨著時間的推移,系統確定哪些神經連線模式最擅長計算解決方案。然後它採用這些作為預設值,模仿人腦的學習方式。
這項技術的一個關鍵挑戰是,開發人員通常不知道網路如何得出其決策。哥倫比亞大學的計算機科學家 Junfeng Yang 說,這可能使得在出現錯誤時很難弄清楚哪裡出了問題,他是去年 10 月在上海舉行的一次研討會上發表的一項新研究的合著者。
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和想法的具有影響力的故事的未來。
Yang 和他的同事建立了 DeepXplore,這是一個旨在透過逆向工程人工智慧系統的學習過程來除錯人工智慧系統的程式。它使用各種令人困惑的真實世界輸入來測試神經網路,並在網路響應錯誤時告知網路,以便它可以自我糾正。例如,DeepXplore 可以確定輸入到汽車駕駛人工智慧系統的攝像頭影像是否錯誤地將車輛駛向行人。除錯工具還會監控網路中哪些神經元處於活動狀態,並單獨測試每個神經元。Yang 說,以前的人工智慧除錯工具無法判斷是否已檢查過每個神經元的錯誤。
在對 15 個最先進的神經網路(包括一些用於自動駕駛汽車和計算機惡意軟體檢測的神經網路)的測試中,DeepXplore 發現了早期技術遺漏的數千個錯誤。它將人工智慧系統的總體準確率平均提高了 1% 到 3%,使一些系統達到了 99%。芝加哥大學的計算機科學家 Shan Lu 說,DeepXplore 的技術可以幫助開發人員構建“更準確、更可靠”的神經網路,他沒有參與這項新研究。Lu 補充說,這種方法“反過來可以使許多科學研究學科和我們的日常生活受益。”