NASA 能給特斯拉自動駕駛系統帶來什麼啟示

數十年的研究已經警示了自動化駕駛艙中人類的注意力持續時間 

特斯拉 Model S。

特斯拉汽車公司聲稱,其 Model S 轎車的自動駕駛系統“讓駕駛員從道路旅行中最乏味和潛在危險的方面中解脫出來。” 今年早些時候,一輛 Model S 發生致命車禍,其自動駕駛系統未能識別出一輛在車輛前方轉彎的拖車,這使該承諾的第二部分受到了質疑。特斯拉表示,駕駛員約書亞·布朗未能及時注意到拖車以避免碰撞。結果是什麼?在特斯拉自己的話中,“剎車沒有被踩下”——汽車全速撞到拖車底部,導致布朗身亡。

自從布朗的死訊在 6 月傳出以來,公眾一直在爭論責任歸屬:是駕駛員、公司還是自動化技術本身。但 NASA 數十年來一直在研究駕駛艙中自動化的心理影響——而這項研究表明,所有三個因素的結合可能是罪魁禍首。NASA 蘭利研究中心自主孵化器主任丹妮特·艾倫說:“如果你考慮駕駛艙的功能,那可能意味著在飛機、太空梭或汽車中。” “NASA 可能比任何其他組織都更早開始思考自主和自動化。”

NASA 人類系統整合部門的研究心理學家斯蒂芬·卡斯納更加直言不諱地說:“突發新聞:2017 年的汽車等於 1983 年的飛機。”


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。


卡斯納不僅僅是指保持飛機機頭水平的基本機制,類似於汽車的巡航控制。他的意思是,用他的話說,“全套裝置”:真正的自主飛行,從起飛後到(甚至包括)著陸。“當我們擁有這項技術時,麥當娜的第一張專輯還沒有發行,”卡斯納說。“而在 33 年後的今天,我們還在就汽車進行同樣的對話。”

以下是 NASA 多年來了解的關於人類和自動駕駛汽車如何協同工作的三個要點——特斯拉可能需要對此更加關注。

“環路中”的侷限性

人們經常使用“在環路中”這個短語來描述某人與決策過程的關聯程度(或不關聯程度)。很少有人知道這個“控制環路”有一個特定的名稱:觀察、定向、決策、行動 (OODA)。該框架最初由一位美國空軍上校設計,“在”和“出” OODA 環路具有直接的含義。但隨著自動化在日常生活中變得越來越普遍,瞭解人類在中間狀態(稱為“環路上”)中的行為方式將變得更加重要。

米西·卡明斯,一位前海軍戰鬥機飛行員,也是杜克大學人類與自主實驗室主任,將“環路上”定義為人類監督控制:“人類操作員與遠端自動化系統間歇性互動,以管理受控過程或任務環境。” 例如,空中交通管制員在環路上控制著在其空域飛行的商用飛機。並且由於駕駛艙自動化日益複雜,大多數飛行員也是如此。

特斯拉將自動駕駛系統與這種環路航空進行比較,其“功能類似於飛行員在晴朗條件下使用的系統”。但卡斯納說,這種比較存在問題:“飛機在八英里高的空中。” 如果出現任何問題,飛行員通常有幾分鐘的時間——更不用說緊急情況檢查清單、預先繪製的危險以及機組人員的幫助——來過渡回控制環路中。(有關此內容的更多資訊,請參閱 Steven Shladover 的文章《“自動駕駛汽車的真正面貌”》,載於 2016 年 6 月的《大眾科學》。)

由於顯而易見的原因,汽車駕駛員的反應時間通常要短得多。“當有東西突然出現在你的車前時,你只有一秒鐘的時間,”卡斯納說。“你認為壯志凌雲飛行員需要有閃電般的反應速度?好吧,普通駕駛員需要更快。”

換句話說,日常駕駛環境提供的誤差餘地非常小,以至於“環路上”和“環路中”之間的任何區別都可能很快變得毫無意義。特斯拉透過限制駕駛員可以啟用自動駕駛系統的環境來承認這一點:“清晰的車道線、相對恆定的速度、對周圍車輛的感知以及您正在行駛區域的地圖”,《麻省理工科技評論》報道。但布朗的死亡表明,即使在這個看似保守的範圍內,“環路上”駕駛也可能是極其難以容忍的。

注意力的侷限性

當然,即使是最安全的自動化也可能因普通人的疏忽而變得致命。這就是為什麼特斯拉表示,自動駕駛系統“會頻繁檢查以確保駕駛員的手始終放在方向盤上,並且如果未檢測到手放在方向盤上,則會發出視覺和聽覺警報。”

但 NASA 之前也遇到過這種情況。在對高度自動化駕駛艙的研究中,NASA 研究人員記錄了一種特殊的心理模式:自動化效能變得越完美,環路上監督員就越難監控它。“我們從飛行員那裡聽到的是,他們很難跟上[自動化的步伐],”卡斯納說。“如果你坐在那裡看著系統,它執行良好,這會非常累人。” 事實上,人類很難長時間準確地監控重複的過程。這種所謂的“警惕性下降”最早由心理學家羅伯特·麥克沃思在 1948 年發現和測量,他要求英國雷達操作員花費兩個小時觀察一個經過改裝的模擬時鐘掃描中的錯誤。麥克沃思發現,雷達操作員的準確率在 30 分鐘後直線下降;最近版本的實驗記錄顯示,警惕性下降甚至在 15 分鐘後就會出現。

這些發現揭示了特斯拉自動駕駛系統等系統中的一個矛盾。它們工作得越好,就越有可能鼓勵我們走神——但為了確保其安全執行,它們需要持續的關注。即使約書亞·布朗在駕駛時沒有觀看《哈利·波特》,他自己的心理也可能仍然對他不利。

一些研究人員認為,這種潛在的危險矛盾根植於對自動駕駛汽車本身的需求。“沒有人會購買部分自動駕駛汽車[如特斯拉 Model S],僅僅是為了監控自動化,”麥克阿瑟獎學金獲得者、認知科學家埃德溫·哈欽斯說,他最近與卡斯納和設計專家唐納德·諾曼共同撰寫了一篇關於自動駕駛汽車的論文。“當他們應該關注道路時,人們已經在吃飯、化妝、打電話和擺弄娛樂系統,”哈欽斯解釋說。“他們會購買[自動駕駛汽車],以便他們可以做更多這類事情,而不是更少。”

自動化和自主性:並非同一件事

特斯拉開發自動駕駛汽車的方法依賴於一種假設,即自動化的逐步進步最終將達到“完全無人駕駛汽車”的程度。美國國家公路交通安全管理局 (NHTSA) 在其車輛自動化四級分類方案中預設認可了這一假設:1 級是指“隱形”駕駛員輔助系統,如帶電子穩定控制系統的防抱死制動系統。2 級適用於結合了兩個或多個 1 級系統的汽車;一個常見的例子是將自適應巡航控制與車道居中相結合。3 級涵蓋 Model S 等汽車中的“有限自動駕駛自動化”,其中“駕駛員應準備好進行偶爾的控制,但具有足夠舒適的過渡時間。” 哈欽斯警告說,3 級“是問題將要出現的地方”——但這並非因為部分自動化本身不安全。相反,他說,危險在於假設“完全自動駕駛自動化”——NHTSA 規模上的 4 級——是 3 級的邏輯延伸。“NHTSA 自動化級別鼓勵人們認為這些是同一路徑上的步驟,”哈欽斯解釋說。“我認為[3 級自動化]實際上朝著略有不同的方向發展。”

谷歌這樣的技術顛覆者和福特和沃爾沃等傳統汽車製造商似乎都同意。這兩個群體似乎都決心完全避開 3 級自動化,因為其可能在模糊情況下引發“模式混淆”。模式混淆因法航 447 空難而悲劇性地聞名,在那起空難中,飛行員沒有意識到飛機的電傳操縱安全系統已經自行解除。 (在王牌播音員 2中的這個片段中可以看到模式混淆的一個不太可怕的例子,其中羅恩·勃艮第嚴重誤解了巡航控制的功能。)

鑑於對自動駕駛汽車執行的研究現狀——以及 NHTSA 正在進行的對布朗車禍的調查——現在指責特斯拉或布朗個人都為時過早。雖然任何自動駕駛系統如果能在沒有發生致命事故的情況下行駛超過 2 億公里(正如自動駕駛系統所做的那樣)都是一項了不起的成就,但 3 級自動化可能只是具有使其不適合汽車的特性,即使它在航空和其他環境中可靠地執行。但是,雖然瞭解圍繞自動化的心理陷阱無法讓布朗復活,但人們希望它可以幫助防止更多像他這樣的死亡事件發生,因為自動駕駛汽車將繼續發展。

© .