本月,我的《大眾科學》專欄是關於麻省理工學院教授馬克思·泰格馬克以及他對人工智慧潛在陰暗面敲響的警鐘。與他一起登上頭條的還有同樣擔憂的公民比爾·蓋茨、埃隆·馬斯克和斯蒂芬·霍金。(特斯拉汽車公司和SpaceX創始人馬斯克表示,人工智慧是人類“最大的生存威脅”。)
泰格馬克是一位引人入勝的思想家。以下是我們關於為何我們應該謹慎地走上創造超智慧人工智慧之路的對話中的一些精彩摘錄。
為什麼我們必須謹慎程式設計人工智慧
“如果你走在人行道上,那裡有一隻螞蟻,你會為了好玩而主動去踩它嗎?”(我:“不會。”)
關於支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您將幫助確保有關當今塑造我們世界的發現和想法的具有影響力的故事的未來。
“現在,假設你負責這個大型水力發電廠,它將為美國的一個大區域帶來綠色能源。就在你開啟水閘之前,你發現蟻丘正好位於洪泛區的中間。你會怎麼做?這對螞蟻來說太糟糕了,對吧?這並不是說你討厭螞蟻。這並不是說你是一個邪惡的殺螞蟻者。只是你的目標與螞蟻的目標不一致,而且你比螞蟻更強大。螞蟻真倒黴。我們希望在未來設計人工智慧,以便我們最終不會成為那些螞蟻。”
為什麼你不能只是程式設計人工智慧不傷害我們
“如果你想想像邁達斯國王的故事這樣的古老神話,例如,他希望他觸控到的一切都變成黃金。這聽起來像是一個非常聰明的想法,直到所有他想吃的食物都變成了黃金。然後他給了他的女兒一個擁抱。哎呀!因此,真正聽話的智慧機器的問題在於,它們會完全按照我們告訴它們的方式去做;字面上地。”
暴富綜合症
“如果我,或者我擁有的公司,成為世界上第一個開發出真正超人類智慧的公司,當然,那麼我可以很快成為世界上最富有的人,在股市中勝過所有人,比所有人更快地獲得專利,在網路上撰寫大量精彩的文章,說服人們我是最偉大的人。現在突然發生的事情是,我,在沒有任何人投票給我的情況下,被賦予了對人類命運的巨大權力。我不知道你是否想要那樣。也許你應該對誰控制這項技術有發言權。當然,地球上有些人是我不希望他們掌管這項技術的。”
時機
“在1925年,當核武器還只是一個想法時,向某人解釋核武器的危險將非常困難。這就是我們現在在人工智慧方面所處的位置:人們擔心的事物並不存在。它們可能會在20年、50年或100年後存在。而可能出錯的基本想法實際上非常古老。現在,突然之間,很多人開始認真對待這可能真的會在我們有生之年發生。所以我們現在應該考慮一下。”
