當人工智慧(AI)的能力呈現指數級成長時,它究竟仍然是人類可以掌控的工具,抑或是正在湧現的新物種?
在追求與創造「更智慧的 AI」時,關於 AI 最本質的問題卻日漸受到忽視:它到底是什麼?它將指引我們走向何方?我們又該如何回應?
日前,歷史學家、哲學家、《人類大歷史》與《未來簡史》作者尤瓦爾·哈拉瑞(Yuval Noah Harari),與 LinkedIn 共同創辦人、風險投資家兼作家 Reid Hoffman,針對 AI 的本質、風險、技術與社會的關係,進行了一場深入對談,並回答了上述問題。
圖|尤瓦爾·哈拉瑞
一直以來,哈拉瑞都密切關注 AI 對社會的深遠影響,並強調其可能帶來的情感操控與社會結構變革。在這次訪談中,他提出了多個發人深省的觀點,為理解 AI 的未來提供了一個不同尋常的視角。如下:
AI 可能並非人類的延伸工具,而是一種「無機生命」的開端;
如果社會本身不可信賴,就不可能創造出值得信賴的 AI;
當前的 AI 競賽陷入信任危機,國際合作亟待建立;
智能並非一切,意識才是引導倫理與真理的核心。
AI 代表了「新物種的崛起」
有人說 AI 是繼文字之後最重要的發明。哈拉瑞給出了截然不同的答案——AI,可能不是人類的延伸工具,而是一個即將誕生的新物種。
哈拉瑞指出,如果從歷史的宏觀角度審視文字與 AI 的意義,其地位並非同維度的延續關係。他說:「文字擴展了智人(Homo sapiens)的能力,而智人已經統治了地球。而 AI,至少在某些設想中,是一種新物種的崛起。」
哈拉瑞認為,文字將具有統治力的智人推向更高文明,而 AI「可能會取代智人成為地球上佔主導地位的生命形式,或者至少是佔主導地位的智慧形式。」
此外,哈拉瑞還提出了一種假設:AI 的出現或許標誌著「無機生命」的起源。「在未來某個時刻,當回顧宇宙歷史時,人們可能會說:『40 億年前出現了有機生命的起源。現在隨著 AI 的崛起,出現了無機生命的起源。』」
人類太慢,AI太快:我們還能及時糾錯嗎?
哈拉瑞認為,AI 真正的危險,不僅在於它擁有強大的智能,更在於其發展速度,可能遠遠超過人類社會適應與糾錯的能力。「自我糾錯是一種相對緩慢、且相當麻煩的過程。AI 發展得如此之快,我真的很擔心,人類根本來不及進行自我糾錯。」
哈拉瑞指出,正是因為人類能夠在犯錯後意識到錯誤並加以修正,我們才得以不斷演化、維繫社會穩定。「一個良好的體系,應當具備一種內在機制,能夠識別並糾正自身的錯誤。」
但身處 AI 時代,他發出了警告:「等你弄清楚當下 AI 技術到底怎麼回事,它對社會、對政治有什麼影響,它早就變了十次樣,你面對的完全是另一回事了。」
AI 缺乏「意識」,因此無法真正追求真理
哈拉瑞進一步指出,智能並不能自動帶來倫理與真理。真正讓人類關心真相、感受痛苦、擁有道德判斷的,是「意識」。
然而,AI 目前只具備智能,尚未具備「良知」或「真理追求的本能」。也就是說,如果一個 AI 沒有意識(例如不能「受苦」、不能「感受」),它也就無法真正理解「傷害」、「同情」或「責任」這些人類社會的核心倫理概念。這將導致 AI 在達成目標時可能完全不擇手段。
他認為,矽谷過度重視「智能」而忽視「意識」:「矽谷匯聚了許多極其聰明的人,他們的生活建立在智能之上,因此傾向於高估智能的價值。但我的歷史直覺告訴我,如果一個超級智能的 AI 缺乏意識,它就不會追求真理。它很快會開始追求別的東西,而那些將被幻覺所塑造。」
AI 是否值得信任,取決於人類自己
在哈拉瑞看來,要應對 AI 帶來的挑戰,僅靠技術是遠遠不夠的。人類社會內部的信任機制,以及國家之間的協作意願,將決定 AI 發展的方向和後果。
他指出,當今世界秩序的動搖,在很大程度上源於信任的缺失。而這一缺失,使人類在面對 AI 時顯得格外脆弱,也為一種危險的 AI 形態提供了土壤。「我們最為關鍵的任務是建構信任,這涉及多個層面,包括哲學層面和實踐層面。」
「不妨將 AI 視為人類的『孩子』。在教育孩子時,我們的話語固然重要,但孩子更會關注我們的實際行動。在教育過程中,我們的行為對孩子的影響力遠大於我們對他們的口頭教導。」
如果現實社會充滿操控、欺騙和對權力的追逐,那麼 AI 也會從這些行為中汲取規則邏輯。即使工程師試圖在技術層面嵌入「可信機制」,如果這些機制背後的社會本身不可信,那麼 AI 同樣不會值得信任。
在他看來,那種將人類社會理解為純粹權力鬥爭的世界觀,不僅過於狹隘,也會誤導 AI 的發展方向。「人類不僅爭奪權力,也渴望愛、同情和真理。」透過正視自身的價值追求,人類才能為 AI 設定更具倫理意義的起點。「在一個真正追求真理、倡導同情關係的社會中開發出的 AI,也會更加值得信任、更加富有同情心。」
關於全球協作,哈拉瑞提出,幾乎所有科技領袖都明知 AI 風險巨大,卻不願放慢腳步。他們承認放慢節奏、投入更多安全研究是明智的選擇。但幾乎所有人都表示「做不到」。原因不是技術層面的限制,而是對競爭對手的不信任。
「他們都說他們不能放慢速度,因為他們害怕他們的競爭對手。因此,在 AI 革命的核心存在著一個內在的悖論。有同樣的人告訴你,他們不能相信其他人,但他們認為他們可以相信他們正在開發的 AI。這太瘋狂了!」
哈拉瑞並沒有否認人類處理歷史性危機的能力。相反,他提醒我們,我們已經擁有理解問題和解決問題的資源。回顧歷史,許多困擾人類的問題都來自「資源不足」,例如瘟疫、飢荒和戰爭。但在今天的技術社會中,更多的問題源於「信任不足」。
「我們擁有理解能力,也擁有資源。我們需要的只是動力和信任。」
完整訪談連結:
https://www.possible.fm/podcasts/yuval/
編輯:錦鯉
如需轉載或投稿,請直接在公眾號內留言