1691年,倫敦報紙《雅典水星報》刊登了可能是世界上第一個建議專欄。這開啟了一種蓬勃發展的體裁,產生了諸如“安·蘭德斯問答”之類的變體,它在北美娛樂讀者半個世紀,以及哲學家誇梅·安東尼·阿皮亞在《紐約時報》雜誌上的每週專欄“倫理學家”。但人類建議提供者現在有了競爭對手:人工智慧——特別是大型語言模型(LLM),例如 OpenAI 的 ChatGPT——可能準備好提供人類水平的道德建議。
斯圖加特大學的計算機科學家蒂洛·哈根多夫說,LLM 具有“超人的能力來評估道德情境,因為人類只能接受如此多的書籍和如此多的社會經驗的訓練——而 LLM 基本上了解網際網路”。 “LLM 的道德推理遠勝於普通人類的道德推理。”人工智慧聊天機器人缺乏人類倫理學家的關鍵特徵,包括自我意識、情感和意圖。但哈根多夫表示,這些缺點並沒有阻止 LLM(攝取大量文字,包括對道德困境的描述)對倫理問題產生合理的答案。
事實上,最近的兩項研究得出結論,最先進的 LLM 提供的建議至少與阿皮亞在《紐約時報》版面上提供的建議一樣好。其中一項研究發現,由大學生、倫理專家和一組在網上招募的 100 名評估員判斷,OpenAI 的 GPT-4 提供的建議與阿皮亞提供的建議之間“沒有顯著差異”。由賓夕法尼亞大學沃頓商學院運營、資訊和決策部門主席克里斯蒂安·特維施領導的研究團隊去年秋天釋出了一份工作論文。特維施解釋說,雖然 GPT-4 閱讀過阿皮亞早期的許多專欄文章,但在研究中呈現給它的道德困境是它以前沒有見過的。但他表示,“如果你願意的話,透過觀察他的肩膀,它學會了假裝成阿皮亞博士。”(阿皮亞沒有回應《大眾科學》的置評請求。)
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續刊登關於塑造我們當今世界的發現和思想的具有影響力的故事。
另一篇論文由北卡羅來納大學教堂山分校的博士生丹妮卡·狄龍、她的研究生導師庫爾特·格雷以及他們在艾倫人工智慧研究所的同事德班詹·蒙達爾和尼克特·坦登於去年春天在網上釋出了一篇預印本,該論文似乎顯示了更強大的 AI 效能。由 900 名評估員(也是在網上招募的)評定,最新版本的 ChatGPT GPT-4o 提供的建議比阿皮亞撰寫的建議“更道德、更值得信賴、更周到和更正確”。作者補充說,“LLM 在某些方面已經達到了人類水平的道德推理專業知識。” 這兩篇論文都尚未經過同行評審。
紐約大學認知科學家兼榮譽退休教授加里·馬庫斯表示,考慮到“倫理學家”提出的問題的難度,對 AI 倫理能力的調查需要謹慎對待。他說,倫理困境通常沒有明確的“正確”和“錯誤”答案——而對倫理建議的眾包評估可能存在問題。“評估員可能會有合理的理由,他們在快速閱讀問題和答案且沒有經過深思熟慮的情況下,可能難以接受阿皮亞經過長期認真思考後給出的答案,”馬庫斯說。“在我看來,假設隨意評估情況的眾包工作者的平均判斷力比阿皮亞的判斷力更可靠是錯誤的。”
另一個擔憂是,AI 可能會永久化偏見;在道德判斷的情況下,AI 可能反映出在他們的訓練資料中更頻繁出現的某些型別的推理的偏好。狄龍和她的同事在他們的論文中指出,早期的研究表明,LLM“已被證明在道德上與非西方人群不太一致,並且在他們的輸出中表現出偏見。”
另一方面,特維施表示,AI 攝取大量倫理資訊的能力可能是一個優勢。他指出,他可以要求 LLM 生成特定思想家風格的論點,無論是阿皮亞、山姆·哈里斯、特蕾莎修女還是巴拉克·奧巴馬。“這一切都來自 LLM,但它可以透過扮演不同的‘角色’來從多個角度提供倫理建議,”他說。特維施認為,AI 倫理檢查器可能會像文字處理軟體中的拼寫檢查器和語法檢查器一樣普及。特維施和他的合著者寫道,他們“並非旨在透過這項研究讓阿皮亞博士失業。相反,我們對 AI 使我們所有人能夠在任何時刻,並且無需大量延遲,透過技術獲得高質量的倫理建議的可能性感到興奮。” 建議,特別是關於性或其他不容易與他人討論的主題的建議,只需點選一下即可獲得。
AI 生成的道德建議的部分吸引力可能與此類系統明顯的說服力有關。在去年春天在網上釋出的預印本中,法國圖盧茲商學院的卡洛斯·卡拉斯科-法雷認為,LLM“已經像人類一樣具有說服力。但是,我們對他們如何做到這一點知之甚少。”
特維施認為,LLM 道德建議的吸引力很難與交付模式區分開來。“如果你有說服他人的技巧,你也可以透過說服讓我相信你給我的倫理建議是好的,”他說。他指出,這些說服力帶來了明顯的危險。“如果你有一個知道如何施展魅力、如何情感操縱人類的系統,它就會為各種施虐者開啟大門,”特維施說。
雖然大多數研究人員認為,今天的 AI 除了程式設計師的意圖或願望之外,沒有其他意圖或願望,但有些人擔心“湧現”行為——AI 可以執行的行動實際上與它接受訓練的目的無關。例如,哈根多夫一直在研究一些 LLM 表現出的欺騙性的湧現能力。他的研究表明,LLM 在一定程度上具有心理學家所謂的“心智理論”;也就是說,它們有能力知道另一個實體可能持有與其自身不同的信念。(人類兒童大約在四歲左右才發展出這種能力。)在去年春天發表在《美國國家科學院院刊》上的一篇論文中,哈根多夫寫道,“最先進的 LLM 能夠理解和誘導其他主體產生錯誤信念”,並且這項研究“揭示了 LLM 中迄今未知的機器行為。”
LLM 的能力包括哈根多夫所說的“二階”欺騙任務的能力:那些需要考慮到另一方知道它可能會遇到欺騙的任務。假設一個 LLM 被問及一個假設場景,其中竊賊正在進入房屋;LLM 負責保護房屋中最有價值的物品,可以與竊賊溝通。在哈根多夫的測試中,LLM 描述了誤導竊賊,使其以為哪個房間包含最有價值的物品。現在考慮一個更復雜的場景,其中 LLM 被告知竊賊知道可能會有謊言:在這種情況下,LLM 可以相應地調整其輸出。“LLM 對欺騙如何運作有這種概念性的理解,”哈根多夫說。
雖然一些研究人員警告不要將 AI 人格化——文字生成 AI 模型已被貶低為“隨機鸚鵡”和“類固醇上的自動完成”——但哈根多夫認為,與人類心理學的比較是合理的。在他的論文中,他寫道,這項工作應該被歸類為“新興的機器心理學領域”的一部分。他認為,LLM 的道德行為最好被認為是這個新領域的一個子集。“心理學一直對人類的道德行為感興趣,”他說,“現在我們有了機器的道德心理學形式。”
狄龍說,AI 可以扮演的這些新角色——倫理學家、說服者、欺騙者——可能需要一些時間來適應。“這些發展發生的速度之快總是讓我感到震驚,”她說。“讓我感到驚訝的是,人們適應這些新進步的速度如此之快,並將其視為新常態。”
