這聽起來可能像幻想或虛構,但人們一直都在預測未來。現實世界中的算命先生——我們稱他們為精算師和氣象學家——多年來已經成功地使用了計算機模型。而今天機器學習的加速發展正在迅速升級他們的數字水晶球。現在,根據《自然計算科學》雜誌最近的一項研究,一種將人類生活視為語言的新型人工智慧系統可能能夠勝任地猜測你是否會在特定時期內死亡,以及其他生活細節。
該研究團隊開發了一個名為 life2vec 的機器學習模型,該模型可以對人們生活的細節和過程做出一般性預測,例如與死亡、國際遷移和性格特徵相關的預測。該模型從數百萬丹麥居民的資料中提取資訊,包括出生日期、性別、就業、地點和該國全民醫療保健系統的使用情況等詳細資訊。研究指標發現,新模型在預測研究人群四年內的死亡率方面準確率超過 78%,並且明顯優於其他預測方法,例如精算表和各種機器學習工具。在一項單獨的測試中,life2vec 還預測了在同一時期內人們是否會搬出丹麥,準確率約為 73%(根據一項研究指標)。研究人員進一步使用 life2vec 預測人們對性格問卷的自我報告回覆,他們發現有希望的早期跡象表明該模型可以將性格特徵與生活事件聯絡起來。
普林斯頓大學社會學教授馬修·薩爾加尼克說,這項研究展示了一種預測和分析人們生活軌跡的令人興奮的新方法,他研究計算社會科學,並且是《位元接位元:數字時代的社會研究》一書的作者。life2vec 的開發者“使用了一種非常不同的風格,據我所知,以前沒有人使用過,”他說。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過 訂閱來支援我們屢獲殊榮的新聞報道。透過購買訂閱,您正在幫助確保關於塑造我們當今世界的發現和想法的有影響力的故事的未來。
這個新工具以一種奇特的方式工作。有很多不同型別的機器學習模型,它們具有不同的底層架構,並且被認為適用於不同的目的。例如,有些模型可以幫助機器人解釋攝像頭輸入,而另一些模型可以幫助計算機吐出影像。Life2vec 基於與 OpenAI 的 ChatGPT 和 Google 的 Bard 等流行的 AI 聊天機器人相同的架構。具體來說,新的預測模型最接近 BERT,BERT 是 Google 於 2018 年推出的語言模型。“我們採用了一種為語言建模開發的原理……並將其應用於一些關於人類的非常、非常、非常有趣的序列資料,”研究作者、丹麥技術大學網路和複雜性科學教授蘇恩·萊曼說。
給定一系列資訊,通常以書面文字的形式,這些模型透過將輸入翻譯成數學向量並像一個渦輪增壓的自動完成過程來做出預測,該過程根據學習到的模式填寫下一部分。
為了讓語言處理工具對人們的未來做出預測,萊曼和他的同事將個人的資料處理成獨特的時間線,這些時間線由諸如薪資變動和住院等事件組成——特定事件表示為計算機可以識別的數字“令牌”。因為他們的訓練資料捕捉了關於人們的如此多的資訊,並且他們的模型架構如此靈活,研究人員認為 life2vec 可以提供一個基礎,可以很容易地對其進行調整和微調,以提供關於人類生活的許多尚未探索的方面的預測。
萊曼說,醫療專業人員已經聯絡他,要求幫助開發與健康相關的 life2vec 版本——包括一種可以幫助闡明人群層面罕見疾病風險因素的版本。他希望使用該工具來檢測以前未知的世界與人類生活結果之間的關係,可能探索諸如“你的關係如何影響你的生活質量?”以及“決定薪資或早逝的最重要因素是什麼?”等問題。該工具還可以梳理出隱藏的社會偏見,例如一個人的職業發展與其年齡或原籍國之間意想不到的聯絡。
但就目前而言,仍存在一些嚴重的侷限性。萊曼指出,該模型的資料特定於丹麥。並且所使用的資訊中仍然存在許多空白。儘管資訊廣泛,但它並沒有捕捉到與一個人的死亡風險或生活軌跡相關的所有內容,萊曼指出,一些人群不太可能有廣泛的健康和就業記錄。
最大的警告之一是,該研究的準確性衡量標準不一定可靠。多位訊息人士稱,它們更多的是概念驗證,而不是證明 life2vec 可以正確預測給定的人是否會在給定的時間段內死亡。
杜克-馬戈利斯健康政策中心數字健康研究主任克里斯蒂娜·西爾科克斯在檢視該研究的統計分析後表示,她不會對 life2vec 的個人四年死亡率預測抱有太大的信心。“我不會辭掉工作然後去巴哈馬群島,”她說,並指出這並不是對萊曼和他的合著者的方法的批評,而更多的是對生活結果預測領域的內在侷限性。
薩爾加尼克說,很難知道評估像這樣的工具的準確性的最佳方法,因為目前還沒有其他完全可比的東西。個人死亡率尤其難以評估,因為雖然每個人最終都會死亡,但大多數年輕人和中年人每年都能倖存下來。死亡在研究中涵蓋的 65 歲以下年齡組中是一個相對罕見的事件。如果你只是猜測丹麥(研究人群)年齡在 35 歲到 65 歲之間的一組人每年都能倖存下來,那麼你已經得到了一個相當準確的死亡預測。根據該研究,life2vec 的表現確實明顯優於那種無效的猜測,但薩爾加尼克說,很難確定它相對於現實的準確程度。
加州大學聖巴巴拉分校統計學和應用機率教授邁克爾·盧德科夫斯基對此表示贊同。“我很難解釋這些結果的真正含義,”他說。他的大部分工作都在精算科學或風險預測領域,他說 life2vec 的結果“用一種與精算師的說法不同的語言表達”。例如,盧德科夫斯基說,精算預測分配的是風險評分,而不是生死二元預測——而且這些風險評分以 life2vec 沒有的方式考慮了不確定性。
西爾科克斯指出,還存在重大的倫理考量。如果誤用像這樣的工具,顯然可能會造成傷害。演算法偏見是一個真實存在的風險,“人工智慧工具需要針對它們試圖解決的問題進行非常具體的測試,”她說。對於 life2vec 的每一種新用途進行徹底評估,並不斷監測資料漂移等常見缺陷至關重要——在訓練資料中反映的過去條件不再適用(例如,在重要的醫學進步之後)。
研究人員承認他們已經涉足了令人擔憂的領域。他們的研究強調了丹麥擁有強有力的隱私保護和反歧視法律這一事實。獲得 life2vec 訪問許可權的學者、政府機構和其他研究人員將必須確保資料不會洩露或用於非科學目的。作者在論文中寫道,“嚴格禁止”使用 life2vec “進行自動化的個人決策、個人資料分析或訪問個人層面資料。“我之所以對此感到放心,部分原因是我信任丹麥政府,”萊曼說。他“不會放心”在美國開發這樣的模型,因為美國沒有聯邦資料隱私法。
然而,萊曼補充說,同樣具有侵入性和強大的機器學習工具可能已經存在。其中一些工具甚至接近菲利普·狄克 1956 年的中篇小說《少數派報告》(以及 2002 年根據其改編的轟動一時的科幻電影)中提出的反烏托邦概念。在美國,許多法院使用演算法工具做出量刑決定。執法機構使用預測性警務軟體來決定如何分配警官和資源。甚至美國國稅局也依靠機器學習來發布審計通知。在所有這些例子中,偏見和不準確一直是反覆出現的問題。
在私人領域,科技公司使用先進的演算法預測和他們收集的關於使用者的海量資料來預測消費者行為並最大化參與時間。但政府和企業工具的確切細節都處於保密狀態。
萊曼說,透過建立一個學術研究人員可以訪問的強大的 AI 預測工具,他希望在已經開始的預測時代促進透明度和理解。“我們可以開始談論它,我們可以開始決定我們想要如何使用它:什麼是可能的,什麼是正確的,以及我們應該放任不管的,”他說。
“我希望,”萊曼補充說,“這可以成為推動我們走向烏托邦並遠離反烏托邦的討論的一部分。”
