一輛特斯拉Model S電動汽車在自動駕駛模式下發生車禍並導致司機死亡,這引發了人們對無人駕駛汽車技術安全性的質疑。本週,聯邦官員宣佈正式啟動對這起事故的調查。
據《紐約時報》報道,事故發生在5月7日佛羅里達州威利斯頓,當時一輛拖車在特斯拉前方左轉,而這輛汽車未能剎車。這是已知首例涉及自動駕駛汽車的致命事故。
在特斯拉週四(6月30日)在公司部落格上釋出的宣告中,這家汽車製造商指出,這是“在自動駕駛模式啟用後行駛的1.3億英里中發生的首次死亡事故”。[圖集:自動駕駛汽車的機器人進化]
關於支援科學新聞
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞工作 訂閱。透過購買訂閱,您正在幫助確保關於塑造我們當今世界的發現和想法的具有影響力的故事的未來。
特斯拉官員寫道:“重要的是要注意,特斯拉預設停用自動駕駛模式,並且在啟用該系統之前,需要明確承認該系統是新技術,仍處於公開測試階段。”
Model S 不是一輛自動駕駛汽車,但特斯拉的自動駕駛功能是一種輔助技術,是實現真正無人駕駛汽車上市的第一步。透過計算機軟體、感測器、攝像頭和雷達,汽車的自動駕駛功能可以完成諸如併入高速公路等任務,《大西洋月刊》報道。駕駛員被要求在自動駕駛模式下將手放在方向盤上。
特斯拉在其宣告中沒有說明事故發生時駕駛員的參與程度,但指出:“自動駕駛系統和駕駛員都沒有注意到拖車的白色側面在明亮的天空下,因此沒有踩剎車。”
其他公司,如通用汽車和谷歌,也投資了無人駕駛汽車技術的開發。今年2月,谷歌的一輛自動駕駛汽車撞到了一輛公共汽車,但沒有人員受傷的報道。
隨著對自動駕駛汽車的測試繼續進行,問題是該技術是否已經發展到政府會批准可以自己駕駛的汽車的程度。
事實上,2015年10月釋出的一項研究發現,自動駕駛汽車更容易發生事故。這項由密歇根大學交通研究所進行的研究發現,每百萬英里行駛里程,自動駕駛汽車的碰撞率高於傳統汽車。在研究進行時,沒有發現自動駕駛汽車在所涉及的碰撞事故中負有責任。
還存在一個道德困境,因為在發生嚴重事故時,無人駕駛汽車可能不得不決定拯救哪些生命。《科學》雜誌最近發表的一項研究發現,人們贊成由功利主義倫理支配的自動駕駛汽車(AV)——即使車輛中的人員受到傷害,也要儘量減少碰撞中的死亡總數。然而,大多數受訪者不希望自己乘坐這些車輛,《生命科學》報道。
該研究的合著者、法國圖盧茲經濟學院的研究主任讓-弗朗索瓦·博訥豐說:“對於自動駕駛汽車來說,道德困境是全新的。我們談論的是擁有一個物體,你每天與之互動,並且知道這個物體在某些情況下可能會決定殺死你。”
版權所有 2016 年 LiveScience.com,一家 Purch 公司。保留所有權利。未經允許,不得釋出、廣播、改寫或再分發本材料。
