人們不信任機器人 

人工智慧透過欺騙獲得更好的合作 

Thomas Fuchs

加入我們的科學愛好者社群!

隨著人工智慧產品在假裝成人方面穩步提高——例如,人工智慧生成的聲音可以透過電話預訂餐廳,或者聊天機器人可以線上回答消費者的問題——人們將越來越頻繁地陷入不安的境地,不知道他們是在和機器對話。但事實可能使此類產品的效果降低:最近的研究發現,在人機互動中,透明度和合作之間存在權衡。

這項研究使用了一個簡單但細緻入微的遊戲,在遊戲中,成對的玩家做出了一系列同時的決定,是與他們的夥伴合作還是背叛他們。從長遠來看,雙方都保持合作是有益的——但總是存在背叛的誘惑,以犧牲夥伴的利益為代價來賺取額外的短期積分。研究人員使用了一種人工智慧演算法,當冒充人類時,該演算法實施的策略比人類更擅長讓人類夥伴合作。但之前的工作表明,人們傾向於不信任機器,因此科學家們想知道,如果機器人公開自己的身份會發生什麼。

該團隊希望,與已知的機器人玩遊戲的人們會認識到它的合作能力(而不是容易被利用),並最終克服他們的不信任。“可悲的是,我們沒有實現這個目標,”阿布扎比紐約大學的計算機科學家、去年11月發表在《自然-機器智慧》雜誌上的論文的資深作者塔拉勒·拉赫萬說。“無論演算法做什麼,人們都堅持他們的偏見。”與另一個人相比,公開以機器人身份出現的機器人不太可能獲得合作,即使它的策略顯然對雙方都更有利。(在每種模式下,機器人都與至少 150 個人進行了 50 輪遊戲。)


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠持續釋出關於塑造我們當今世界的發現和想法的有影響力的報道。


在另一項實驗中,玩家被告知:“資料表明,如果人們將機器人視為人類,他們會過得更好。”但這沒有效果。

瑞典于默奧大學社會與倫理人工智慧小組負責人弗吉尼亞·迪格納姆沒有參與這項研究,她讚揚研究人員探索了透明度與效力之間的權衡,但她希望看到這項研究在論文的特定設定之外進行測試。

作者表示,在公共領域,應該徵求人們是否同意接受關於機器人身份的欺騙。不能在每次互動的基礎上進行,否則“欺騙”顯然不會奏效。但是,即使可以獲得偶爾欺騙的全面許可,仍然會引發倫理困境。迪格納姆說,人類應該有權在與機器人互動後知情——但如果她打電話給客戶服務部只是為了詢問一個簡單的問題,她補充說,“我只想得到我的答案。”

Matthew Hutson 是一位居住在紐約市的自由科學作家,也是《魔法思維的 7 個定律》的作者。

更多作者:Matthew Hutson
大眾科學雜誌 第 322 卷 第 2 期本文最初以“信任機器人”為標題發表於大眾科學雜誌 第 322 卷 第 2 期(),第 18 頁
doi:10.1038/scientificamerican0220-18b
© .