請對ChatGPT保持禮貌

對AI保持禮貌的好處可能包括獲得更好的聊天機器人回覆,以及培養我們的人性

Sankai/Getty Images

如果你曾發現自己對ChatGPT說“請”和“謝謝”,那你並不孤單。賓夕法尼亞大學副教授伊森·莫里克進行了一項非正式的線上調查,結果顯示,近一半的受訪者表示他們經常對人工智慧聊天機器人保持禮貌,只有約16%的人表示他們“只是下命令”。在ChatGPT的建立公司OpenAI主辦的論壇上,開發人員的評論也反映了這種趨勢:“我發現自己在使用[ChatGPT]時會用‘請’和‘謝謝’,因為我也會這樣和幫助我的真人說話,”一位使用者寫道。

乍一看,這可能有點令人費解。為什麼要對一臺沒有感情的機器友善呢?在ChatGPT出現之前,我們大多數人在與自動化系統互動時,通常不會考慮自己的語氣。(例如,如果你聽到有人對銀行的客戶服務機器人代表點頭哈腰,你可能會對這個人敬而遠之。)但最近人工智慧聊天機器人的複雜性——包括ChatGPT、Claude、Gemini等——標誌著人機互動的重大飛躍:它們以聽起來自然的方式進行交流的能力,有時還帶有類似人聲的聲音,使它們看起來不那麼像冷冰冰、精於算計的機器,而更像是有意識的實體。而且,這些聊天機器人正日益融入日常生活的方方面面。今年6月,蘋果公司宣佈與OpenAI建立新的合作伙伴關係,將ChatGPT與Siri和其他裝置功能整合。不管你喜不喜歡,與對話式AI互動可能很快就會像檢視電子郵件一樣成為例行公事。因此,關於我們如何與AI互動的Questions比以往任何時候都更加緊迫。

自從ChatGPT釋出以來,一個典型的玩笑是這樣的:對聊天機器人好一點,否則在不可避免的AI起義中你就會完蛋。“如果你在與ChatGPT對話時不說‘請’和‘謝謝’,那你顯然沒看過科幻電影,”一位使用者在2022年12月在X(前身為Twitter)上發帖說。但拋開所有的玩笑(和焦慮)不談,我們應該對AI保持禮貌有什麼合理的理由嗎?


支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保關於塑造我們今天世界的發現和想法的具有影響力的故事的未來。


答案是肯定的,至少根據最近由東京早稻田大學和理化學研究所先進智慧專案中心的一個團隊在預印本伺服器arXiv.org上釋出的一項研究顯示。作者發現,使用禮貌的提示可以從大型語言模型(LLM)——為AI聊天機器人提供動力的技術——中產生更高質量的回覆。但存在收益遞減點;根據該論文,過度的奉承會導致模型的效能下降。最終,作者建議使用“適度禮貌”的提示,這與大多數人類社互動動中的規範沒有太大區別。“LLM在一定程度上反映了人類渴望被尊重的願望,”他們寫道。

支援性提示,例如“深呼吸,逐步解決這個問題”,可以提高LLM解決小學數學問題的能力

內森·博斯是約翰·霍普金斯大學研究人類與AI之間關係模式的高階研究員——他與最近的預印本研究無關——他經常對聊天機器人使用“請”,“因為這是一個良好的提示習慣,”他說。“‘請’表示接下來的是一個請求,使LLM更容易知道如何回應。”(博斯還說“謝謝你”,他認為這歸功於他良好的密歇根州教養。)

博斯補充說,提示的語氣也可能導致LLM在制定回覆時從語言相關的回覆中提取資訊;換句話說,AI會反饋你輸入的內容。禮貌的提示可能會引導系統從更禮貌、因此可能更可信的網際網路角落檢索資訊。一個諷刺的提示可能會產生相反的效果,引導系統尋找Reddit上的論點。“LLM可能會在訓練中捕捉到這一點,甚至無需註冊‘積極性’或‘消極性’的概念,並給出更好或更詳細的回覆,因為它們與積極的語言相關聯,”博斯解釋說。

一位有耐心的老師可能對掙扎的學生表現出的那種微小的支援也可能影響聊天機器人的表現。谷歌DeepMind的一組研究人員去年釋出的一篇預印本論文發現,支援性提示,例如“深呼吸,逐步解決這個問題”,可以提高LLM解決需要基本推理能力的小學數學問題的能力。同樣,這種解釋可以追溯到模型的訓練資料:這種語言可能會觸發系統參考線上輔導資源,這些資源通常鼓勵學生將問題分解成幾個部分——從而導致演算法也這樣做。

那麼,似乎對AI保持禮貌確實可以提高其技術性能。但像所有交流一樣,與聊天機器人的交流是雙向的。當我們訓練AI以某種方式表現時,這些互動也可能在訓練我們。根據這種觀點,我們應該對AI助手保持禮貌的真正原因是,它可以簡單地幫助我們保持對人類同胞文明禮貌的習慣。

對AI的禮貌是“一種尊重的標誌”——不是對機器,而是對自己,雪莉·特克爾說,她是一位臨床心理學家,也是麻省理工學院技術與自我倡議的創始主任。“這關乎,”她說。她認為,危險在於我們可能會習慣於對AI使用粗魯、不尊重和專橫的語言,然後不知不覺地以同樣的方式對待其他人。世界可能已經瞥見了這種麻木不仁的現象:近年來,一些家長開始抱怨他們的孩子,習慣於對Siri和Alexa等自動化虛擬助手大聲發號施令,變得越來越不尊重人。2018年,谷歌試圖透過為Google Assistant引入一項名為“Pretty Please”的功能來補救這種情況,以此鼓勵孩子們在提出請求時使用禮貌的語言。“我們必須保護自己,”特克爾說,“因為我們才是需要與真人建立關係的人。”

西方密歇根大學傳播學教授、人機互動專家奧特姆·P·愛德華茲說,隨著AI日益穩定地滲入我們的日常生活,我們與AI的互動將影響人類社會規範的演變。“這是一個時刻,我們可以完全適應基於命令和機器式的互動,並改變在廣泛意義上進行人類交流的意義,”她說,“或者我們可以保留[我們的人性],並嘗試將人類交流的最佳方面融入我們與這些實體的對話中。”

愛德華茲還指出,公司有時會聘請真人冒充聊天機器人,因為如果人們相信他們是在與AI而不是活生生的工作人員互動,那麼客戶對服務質量的期望可能會降低,這可能會減少對企業時間和責任的要求。“那些人報告說,他們因人們對他們說的那種話而遭受了一些非常可怕的心理影響,”她說。“我們認為我們是在對一個系統發洩謾罵……而沒有意識到另一端可能有人必須看到它。”

生成式AI的進步正以驚人的速度發生。OpenAI在5月份釋出的GPT-4o可以用各種聽起來非常像人類的自動化聲音進行交流。(OpenAI的代表拒絕就本文接受採訪。)與此同時,AI生成的影片的創新使得一些聊天機器人很可能很快就會配備虛擬的、極具表現力的面孔,將我們進一步推向恐怖谷的遠端。特克爾稱之為我們的“達爾文按鈕”——將能動性歸因於任何看起來像人類的事物的進化衝動——即將比以往任何時候都更加巧妙地被操縱。科技公司有明顯的經濟動機來推動這種進步。對個人和社會的心理後果還有待觀察。然而,就目前而言,對AI聊天機器人表現出一些文明禮貌似乎是值得的——為了您自己以及您周圍人的福祉。

© .