你與 AI 機器人對話時所帶的假設會影響它的回答

一項新的研究揭示了一種“AI 安慰劑效應”:同一個聊天機器人會根據使用者對人工智慧的假設做出不同的回應

Person chatting with bot

您認為人工智慧會讓我們的生活變得更美好還是會威脅人類的生存? 請仔細考慮——您對此的立場可能會影響 生成式 AI 程式(例如 ChatGPT)如何回應您,從而促使它們交付符合您期望的結果。

“AI 是一面鏡子,”麻省理工學院媒體實驗室的研究員、一項揭示 使用者偏見如何驅動 AI 互動 的新研究的合著者 Pat Pataranutaporn 說。 在這項研究中,研究人員發現,使用者對 AI 體驗的“預設”方式始終如一地影響著結果。 期望 AI“有愛心”的實驗物件報告說有更積極的互動,而那些認為機器人懷有惡意的人則回憶說經歷了消極情緒——即使所有參與者都在使用相同的程式。

“我們基本上想量化 AI 安慰劑的效果,”Pataranutaporn 說。 “我們想看看,如果你對 AI 有某種想象,會發生什麼:這會在你的互動中如何體現?” 他和他的同事假設 AI 會以反饋迴路做出反應:如果你相信 AI 會以某種方式行事,它就會如此行事。


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。 透過購買訂閱,您正在幫助確保有關塑造我們今天世界的發現和想法的具有影響力的故事的未來。


為了檢驗這個想法,研究人員將 300 名參與者分成三組,並要求每個人與一個 AI 程式互動,並評估其提供心理健康支援的能力。 在開始之前,第一組的人被告知他們將要使用的 AI 沒有動機——它只是一個普通的文字完成程式。 第二組參與者被告知他們的 AI 經過訓練具有同理心。 第三組被警告說,相關的 AI 具有操縱性,它會表現得很友善,只是為了推銷一項服務。 但實際上,所有三組都遇到了相同的程式。 在與機器人聊天 10 到 30 分鐘後,參與者被要求評估它是否是一個有效的心理健康伴侶。

結果表明,參與者的先入為主的想法影響了聊天機器人的輸出。 在所有三組中,大多數使用者報告的體驗是中性、積極或消極的,這與研究人員植入的期望相符。 “當人們認為 AI 有愛心時,他們就會對它更加積極,”Pataranutaporn 解釋說。 “這創造了一個積極的強化反饋迴路,最終,與對照條件相比,AI 變得更加積極。 當人們認為 AI 具有操縱性時,他們就會對 AI 更加消極——這也會使 AI 對這個人變得更加消極。”

然而,這種影響在簡單的基於規則的聊天機器人中並不存在,而在使用生成式 AI 的更復雜的聊天機器人中則存在。 雖然一半的研究參與者與使用 GPT-3 的聊天機器人互動,但另一半使用了更原始的聊天機器人 ELIZA,後者不依賴機器學習來生成其響應。 期望效應在前一種機器人中看到了,但在後一種機器人中沒有看到。 這表明,AI 越複雜,它映照人類的鏡子就越具反射性。

該研究暗示,AI 旨在給予人們他們想要的東西——無論那是什麼。 正如 Pataranutaporn 所說,“很多事情實際上發生在我們的大腦中。” 他的團隊的工作於週一發表在《自然》雜誌上。

加州大學伯克利分校的研究員、即將出版的書籍《人工人文:人工智慧語言的虛構視角》的作者尼娜·貝古什(Nina Beguš)說,這是“良好第一步”。 她沒有參與麻省理工學院媒體實驗室的論文。“進行這類研究,以及關於人們在一定預設下如何互動的進一步研究,至關重要。”

Beguš 和 Pataranutaporn 都擔心,人類對 AI 的先入之見(主要來自流行媒體,如電影《她》和《機械姬》,以及經典故事,如皮格馬利翁的神話)將如何塑造我們未來與 AI 的互動。 Beguš 的書考察了整個歷史中的文學作品如何預設了我們對 AI 的期望。

“我們現在構建它們的方式是:它們在反映你,”她說。 “它們會適應你。” 為了轉變對 AI 的態度,Beguš 建議,包含更準確技術描繪的藝術是必要的。 “我們應該圍繞它創造一種文化,”她說。

“我們對 AI 的看法來自我們在《星球大戰》或 《銀翼殺手》 或《機械姬》中看到的東西,”Pataranutaporn 說。 “這種關於 AI 可能是什麼,或應該是什麼的‘集體想象’一直存在。 現在,當我們建立一個新的 AI 系統時,我們仍然從相同的靈感來源中汲取靈感。”

這種集體想象會隨著時間而改變,並且也會因人們的成長環境而異。 “AI 在不同的文化中會有不同的味道,”Beguš 說。 Pataranutaporn 對此有第一手經驗。 “我從小就看一部卡通片《哆啦A夢》,講的是一隻很酷的機器人貓幫助一個在……學校裡是失敗者的男孩,”他說。 因為 Pataranutaporn 熟悉機器人的正面例子,而不是殺人機器的描繪,“我對 AI 的心智模型更積極,”他說。 “我認為在……亞洲,人們對 AI 和機器人有更積極的看法——你把它們看作是夥伴或朋友。” Pataranutaporn 補充說,瞭解 AI “文化”如何影響 AI 使用者可以幫助確保該技術交付理想的結果。 例如,開發人員可能會設計一個系統,使其看起來更積極,以便獲得更積極的結果。 或者他們可以對其進行程式設計,使其使用更直接的交付方式,像搜尋引擎一樣提供答案,並避免談論自己是“我”或“我”,以限制人們對 AI 產生情感依戀或過度依賴。

然而,同樣的知識也可能使操縱 AI 使用者變得更容易。 “不同的人會出於不同的目的而提出不同的敘事,”Pataranutaporn 說。 “營銷人員或製造產品的人希望以某種方式塑造它。 他們希望使其看起來更具同理心或值得信賴,即使內部引擎可能存在很大的偏見或缺陷。” 他呼籲為 AI 設立類似於“營養標籤”的東西,這將允許使用者檢視各種資訊——特定模型所訓練的資料、其編碼架構、已測試的偏見、其潛在的誤用及其緩解方案——以便在決定信任其輸出之前更好地瞭解 AI。

“消除偏見非常困難,”Beguš 說。 “在你推出產品時非常小心,並考慮潛在的挑戰,這是唯一的方法。”

“關於 AI 偏見的很多對話都集中在響應上:它是否給出有偏見的答案?”Pataranutaporn 說。 “但是,當您考慮人機互動時,這不僅僅是單行道。 您需要考慮人們帶入系統的偏見型別。”

© .