在聊天機器人ChatGPT以其不可思議的能力讓世界驚歎,它能像人類一樣撰寫文章和回答問題幾個月後,人工智慧(AI)即將進入網際網路搜尋領域。
世界三大搜索引擎——谷歌、必應和百度——上週表示,它們將把ChatGPT或類似技術整合到其搜尋產品中,讓人們能夠獲得直接答案或進行對話,而不是僅僅在輸入單詞或問題後收到一列連結。這將如何改變人們與搜尋引擎的關係?這種人機互動形式存在風險嗎?
微軟的必應使用了與ChatGPT相同的技術,該技術由加利福尼亞州舊金山的OpenAI開發。但這三家公司都在使用大型語言模型(LLM)。LLM透過模仿在大型資料庫中遇到的文字的統計模式來建立令人信服的句子。谷歌的人工智慧驅動搜尋引擎Bard於2月6日釋出,目前正在一小群測試人員中使用。微軟的版本現在已廣泛可用,儘管獲得無限制訪問許可權需要等待。百度的文心一言將於3月推出。
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們當今世界的發現和想法的具有影響力的故事。
在這些公告之前,一些較小的公司已經發布了人工智慧驅動的搜尋引擎。“搜尋引擎正在演變成一種新狀態,您實際上可以開始與它們交談,像與朋友交談一樣與它們對話,”舊金山的計算機科學家阿拉溫德·斯里尼瓦斯說,他於去年八月與人共同創立了Perplexity——一個基於LLM的搜尋引擎,以對話式的英語提供答案。
信任的轉變
與傳統的網際網路搜尋相比,對話的強烈個人性質可能有助於改變對搜尋結果的看法。蘇黎世大學的計算社會科學家亞歷山德拉·烏爾曼表示,人們可能天生更信任與他們進行對話的聊天機器人的答案,而不是來自冷冰冰的搜尋引擎的答案。
佛羅里達大學蓋恩斯維爾分校的一個團隊進行的一項2022年研究1發現,對於與亞馬遜和百思買等公司使用的聊天機器人互動的參與者來說,他們感知到的對話越像人類,他們就越信任該組織。
這可能是有益的,使搜尋更快更流暢。但信任感的增強可能會帶來問題,因為人工智慧聊天機器人會犯錯。谷歌的Bard在其技術演示中在關於詹姆斯·韋伯太空望遠鏡的問題上犯了一個錯誤,自信地給出了錯誤的答案。而ChatGPT有一種傾向,即對其不知道答案的問題創造虛構的答案——業內人士稱之為“幻覺”。
谷歌發言人表示,Bard的錯誤“突顯了嚴格測試過程的重要性,我們本週將透過我們的可信測試人員計劃啟動這項工作”。但一些人推測,這種錯誤如果被發現,可能會導致使用者對基於聊天的搜尋失去信心,而不是增加信任。“早期的認知可能會產生非常大的影響,”位於加利福尼亞州山景城的計算機科學家、一月份推出的LLM驅動搜尋引擎Neeva的執行長斯里達爾·拉馬斯瓦米說。這個錯誤使谷歌市值蒸發了1000億美元,因為投資者擔心未來並拋售股票。
缺乏透明度
使不準確問題更加複雜的是相對缺乏透明度。通常,搜尋引擎會向用戶展示其來源——一系列連結——並讓他們自己決定信任什麼。相比之下,人們很少知道LLM的訓練資料是什麼——是《大英百科全書》還是八卦部落格?
“人工智慧驅動的搜尋將如何工作是完全不透明的,如果語言模型出錯、產生幻覺或傳播錯誤資訊,可能會產生重大影響,”烏爾曼說。
烏爾曼說,如果搜尋機器人犯了足夠多的錯誤,那麼它們有可能削弱使用者對搜尋引擎作為真理公正仲裁者的認知,而不是透過其對話能力來增強信任。
她進行了一項尚未發表的研究,表明目前的信任度很高。她研究了人們如何看待谷歌用來增強搜尋體驗的現有功能,稱為“精選摘要”,其中從一個被認為與搜尋特別相關的頁面中提取的片段出現在連結上方,以及“知識面板”——谷歌自動生成的摘要,以回應關於例如某人或組織的搜尋。烏爾曼調查的人中,幾乎80%的人認為這些功能是準確的,約70%的人認為它們是客觀的。
巴黎資料科學平臺Hugging Face的首席倫理學家吉亞達·皮斯蒂利表示,聊天機器人驅動的搜尋模糊了機器和人類之間的區別,該平臺提倡負責任地使用人工智慧。她擔心公司採用人工智慧進步的速度過快:“我們總是被丟擲這些新技術,沒有任何控制或教育框架來了解如何使用它們。”
本文經許可轉載,並於2023年2月13日首次發表。
