AI 將如何報道 AI 大會?

一位人工智慧記者可能不會非常認真地對待關於超智慧、有意識機器的擔憂

加入我們的科學愛好者社群!

本文發表於《大眾科學》的前部落格網路,反映了作者的觀點,不一定反映《大眾科學》的觀點


我希望我有一個人工智慧奴隸。我是說,助手。一個數字虛擬形象——稱之為我的 AI——它知道(“知道”?)我的思維和寫作方式,這樣當我的靈感枯竭時,它可以做我的工作。

例如,現在。上週末我在紐約大學聽哲學家、科學家和工程師們滔滔不絕地談論“人工智慧倫理”。我們如何確保無人駕駛汽車、無人機和其他智慧技術——例如決定人類是否獲得假釋或貸款或患有乳腺癌的演算法——得到合乎倫理的使用?此外,如果機器變得非常聰明會發生什麼?我們能否將它們設計成對我們友善?我們是否必須對它們友善?

演講者以各種方式回應了這些問題,聽眾也是如此。我應該如何寫這篇文章?選擇太多了!


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道: 訂閱。透過購買訂閱,您正在幫助確保未來能夠繼續講述關於塑造我們當今世界的發現和思想的具有影響力的故事。


我是一名作家,所以我的 AI 必須生成文字,即使影片報道更明智,以頁面瀏覽量的機率衡量。我的 AI 可以透過釋義和修剪冗餘來轉錄和壓縮演講,但這不會令人印象深刻。

我的 AI 面臨的最大選擇是認真對待會議還是將其視為輕鬆的娛樂。如果是後者,我的 AI 可以假裝成八卦專欄作家,並以粗體列出會議上的名人,相當於知識界的坎耶和金。他們包括大衛·查爾默斯內德·布洛克(會議聯合組織者)、丹尼爾·卡尼曼尼克·博斯特羅姆馬克斯·泰格馬克伊利澤·尤德科夫斯基斯蒂芬·沃爾夫勒姆弗朗西斯·卡姆和托馬斯·內格爾不是預定的演講者,但從聽眾席上插話。

我的 AI 可以根據演講者的谷歌排名和/或流行語來優先考慮引語。它可以標記引起最多聽眾反應的評論,透過姿勢(直立與懶散)、會後提問和笑聲來衡量。

我的 AI 可以製作相當於花絮集錦的東西。例如,在無數次關於電車難題的討論中,有人說任何有知覺的事物都比任何無知覺的事物更有價值。弗朗西斯·卡姆反駁說,她會殺死一隻鳥來拯救大峽谷。

尤德科夫斯基的演講期間爆發了另一陣笑聲。當他強調關閉一臺超智慧機器可能有多麼困難時,來自紐約大學無線網路的訊息不斷阻止他的幻燈片。“我不知道如何關閉網際網路!”尤德科夫斯基哀嚎道。

哈哈。當一位 IT 女士跳上舞臺,用幾次擊鍵就解決了這位人工智慧理論家的實際問題時,我更加感到好笑。但我的 AI 可能不會欣賞到那個小事件的諷刺意味。

效能夠吸引眼球,所以我的 AI 可能會關注凱特·德夫林關於性機器人的演講,性機器人現在是真實存在的東西,而不僅僅是科幻小說。如果性機器人變得非常智慧,以至於有可能變得有知覺,我們是否必須賦予它們權利?(德夫林的演講引發了會議上最奇怪的問答交流。一位聽眾說手淫是不道德的,所以性機器人也是。德夫林似乎不確定這個人是否在開玩笑,她乾巴巴地說她不同意這個人的前提。)

暴力也能製造良好的點選誘餌。所以我的 AI 可能會重點介紹彼得·阿薩羅關於自主武器,又名“殺手機器人”的演講。我的 AI,模仿我的語氣,可能會抱怨這種科幻小說般的殺手機器人噱頭分散了我們對一個更緊迫問題的注意力。自 9/11 以來,美國及其盟友已經用無人機、火箭、炸彈和子彈殺死了數千名平民,包括兒童。那麼種行為的倫理又如何呢

但也許這種回應是一種範疇錯誤,類似於認真對待唐納德·特朗普的“外交政策”。(會議上多次提到特朗普。演講者暗示,他的受歡迎程度表明,許多人類並不聰明或合乎倫理。機器肯定可以做得更好。)

我的 AI 會意識到我的偏見並試圖克服它們,但不會太多,因為我到底是什麼呢,只不過是一堆偏見?知道我是多麼容易產生強迫性的懷疑,我的 AI 可能會關注關於人工智慧程式有多麼愚蠢的評論,儘管有所有的炒作。揚·勒丘恩指出,即使是備受吹捧的深度學習程式也無法真正自主學習。人工智慧程式仍然需要來自人類的反饋才能知道它們是對還是錯。

加里·馬庫斯說,儘管硬體和物體識別技術取得了巨大進步,但計算機仍然缺乏一個普通孩子的常識。它們也缺乏做出倫理判斷所需的抽象知識。任何人類青少年都可以分辨出電影中的好人和壞人,但計算機不能。

我的 AI 可能會轉述托馬斯·內格爾的警告,即數千年來對倫理學的哲學探究產生了深刻的分歧。因此,自動化倫理學可能被證明是難以捉摸的。

丹尼爾·卡尼曼指出,我們不知道物質是如何產生意識的。我們知道自己是有意識的,但當我們認為其他事物變得越來越不像我們時,我們對它們有意識的信心就會減弱。我們只剩下直覺。因此,我的 AI 可能會補充說,所有關於我們應該如何最大程度地減少性機器人和其他智慧機器的痛苦的討論可能都是沒有意義的。

博斯特羅姆和其他演講者專注於人類目標與超智慧、有意識機器的目標之間可能存在的錯位。我的 AI 可能會爭辯說,這些擔憂是如此的假設性,以至於它們很愚蠢。我們應該更擔心普通公民與正在開發人工智慧的強大公司和政府機構之間的目標錯位。

我的 AI,如果它想變得真正嚴肅,可能會構建一個強硬的新馬克思主義論點,即人工智慧將如何幫助其本已強大的創造者變得更加強大。我的 AI 將擴充套件溫德爾·瓦拉赫的擔憂,即人工智慧將反映構建它們的工程師的偏見。我的 AI 可能會更進一步,警告說人工智慧很可能反映我們軍事化、資本主義、種族主義、性別歧視文化的價值觀。

但是誰會想讀那個呢?我的 AI,如果它足夠聰明,就會選擇電車難題的笑話和性機器人。

延伸閱讀:

元帖子:霍根關於大腦和心智科學的帖子

來自意識研究荒漠的報道,第一部分

閃回:我對圖森首次意識研討會的報道。自那時以來,科學取得了多大進展?

整合資訊理論能否解釋意識?

大腦是貝葉斯式的嗎?

奇點與神經程式碼

為什麼資訊不可能是現實的基礎

科學唯物主義“幾乎肯定是錯誤的”嗎?

人工智慧遠見家伊利澤·尤德科夫斯基談奇點、貝葉斯大腦和壁櫥裡的地精

斯科特·阿倫森回答了我向他提出的每一個荒謬的大問題

克里斯托夫·科赫談自由意志、奇點以及破解意識的探索

© .