人們不信任人工智慧——我們可以這樣改變它

首先要了解人們起初為什麼如此不願信任人工智慧

以下文章經許可轉載自 The Conversation,這是一份報道最新研究的線上出版物。

人工智慧已經可以預測未來。警察部隊正在使用它來繪製 犯罪可能發生的地點和時間。醫生可以使用它來預測病人最有可能在何時 心臟病發作或中風。研究人員甚至試圖 賦予人工智慧想象力 ,以便它可以為意想不到的後果做好計劃。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續產出關於塑造我們今天世界的發現和想法的具有影響力的報道。


我們生活中的許多決定都需要良好的預測,而人工智慧代理幾乎總是比人類同行更擅長預測。然而,儘管有這些技術進步,我們似乎仍然 非常缺乏對人工智慧預測的信心。 最近的案例 表明,人們不喜歡依賴人工智慧,而更喜歡信任人類專家,即使這些專家是錯誤的。

如果我們想讓人工智慧真正造福於人類,我們需要找到一種方法讓人們信任它。要做到這一點,我們需要了解人們起初為什麼如此不願信任人工智慧。

您應該信任機器人醫生嗎?

IBM推廣其 超級計算機癌症治療程式 (Watson for Oncology)的嘗試是一場公關災難。人工智慧承諾為佔世界病例 80% 的 12 種癌症提供最高質量的治療建議。截至今日, 全球已有超過 14,000 名患者 接受了基於其計算的建議。

但是當 醫生首次與沃森互動時 ,他們發現自己處於相當困難的境地。一方面,如果沃森提供的治療指導與他們自己的意見一致,醫生們並沒有看到沃森的建議有多大價值。這臺超級計算機只是在告訴他們他們已經知道的事情,而這些建議並沒有改變實際的治療方案。這可能讓醫生們感到安心,讓他們對自己做出的決定更有信心。但 IBM 尚未提供 沃森實際上提高了癌症生存率的證據。

另一方面,如果沃森提出的建議與專家的意見相矛盾,醫生通常會認為沃森不稱職。而且這臺機器無法解釋為什麼它的治療方案是合理的,因為它的機器學習演算法 過於複雜 ,人類無法完全理解。因此,這甚至導致了 更多的不信任和懷疑,導致許多醫生忽視看似古怪的人工智慧建議,而堅持自己的專業知識。

結果,IBM 沃森的首要醫療合作伙伴 MD 安德森癌症中心最近宣佈,它將 放棄該計劃。同樣,據報道,一家丹麥醫院在發現其癌症醫生在三分之二以上的病例中不同意沃森的意見後, 放棄了人工智慧程式

沃森腫瘤學的問題在於醫生根本不信任它。人類的信任通常基於我們對他人思維方式的理解以及對他們可靠性的經驗。這有助於創造一種 心理上的安全感。另一方面,人工智慧對大多數人來說仍然是相當新穎和陌生的。它使用複雜的分析系統來識別大量資料中可能隱藏的模式和 微弱訊號 來做出決策。

即使它可以 在技術上得到解釋 (而且情況並非總是如此),人工智慧的決策過程通常 對大多數人來說都太難理解。與我們不理解的事物互動會 引起焦慮 ,並讓我們感覺好像失去了控制。許多人也根本不熟悉人工智慧實際工作的許多例項,因為它通常發生在後臺。

相反,他們敏銳地意識到人工智慧出錯的例項:一個 谷歌演算法 將有色人種歸類為大猩猩;一個 微軟聊天機器人 在不到一天的時間內決定成為白人至上主義者;一輛 在自動駕駛模式下執行的特斯拉汽車 導致了致命事故。這些不幸的例子受到了媒體過多的關注,強調了我們不能依賴技術的觀點。機器學習並非萬無一失,部分原因是設計它的人類並非如此。

社會中新的人工智慧鴻溝?

對人工智慧的感受也很深刻。我和我的同事最近進行了一項實驗,我們讓來自不同背景的人觀看各種關於人工智慧的科幻電影,然後詢問他們關於日常生活中自動化的問題。我們發現,無論他們觀看的電影將人工智慧描繪成正面還是負面,僅僅觀看我們技術未來的電影願景就使參與者的態度兩極分化。樂觀主義者對人工智慧的熱情更加極端,而懷疑論者則變得更加謹慎。

這表明人們以有偏見的方式使用關於人工智慧的相關證據來支援他們現有的態度,這是一種根深蒂固的人類傾向,被稱為 確認偏差。隨著媒體越來越多地報道和呈現人工智慧,它可能會導致 社會嚴重分裂,一部分人受益於人工智慧,另一部分人拒絕人工智慧。更重要的是,拒絕接受人工智慧提供的優勢可能會使一大群人處於嚴重劣勢。

走出人工智慧信任危機的三種方法

幸運的是,我們已經有一些關於如何提高對人工智慧信任的想法。正如我們在研究中發現的那樣,僅僅擁有之前使用人工智慧的經驗就可以顯著改善人們對該技術的態度。 類似的證據 也表明,您使用網際網路等其他技術越多,您就越信任它們。

另一種解決方案可能是開啟機器學習演算法的“黑匣子”,並更透明地說明它們的工作原理。諸如 谷歌、 愛彼迎 和 推特 等公司已經發布了關於政府請求和監控披露的透明度報告。人工智慧系統的類似做法可以幫助人們更好地瞭解演算法決策是如何做出的。

研究表明,讓人們更多地參與人工智慧決策過程也可以提高信任度,並讓人工智慧從人類經驗中學習。例如,一項研究 表明,人們被賦予稍微修改演算法的自由,會對演算法的決策感到更滿意,更傾向於相信它更優越,並且更可能在未來使用它。

我們不需要理解人工智慧系統錯綜複雜的內部運作,但如果人們至少獲得一些關於人工智慧系統如何實施的資訊和控制權,他們將更願意接受人工智慧進入他們的生活。

本文最初發表於 The Conversation。閱讀 原文

© .