與 Murray Shanahan 探討意識、推論與人工智慧哲學

Google DeepMind 播客:關於「奇異心智實體」與人工智慧未來的編輯紀錄

徐樂林的大頭貼

林旭樂

2025年4月25日

「奇異的類心智實體」:為什麼我們需要為人工智慧提供新的語言

我非常喜歡漢娜·弗萊和穆雷·沙納漢關於人工智慧意識和推論本質的這段對話。這場對話確實會讓人停下來,重新思考一些關於人工智慧(包括人工智慧和人類智慧)的基本假設。有興趣觀看完整版的觀眾可以在 YouTube 上觀看。

在 Claude 3.7 和 Gemini 2.5 Pro 的幫助下,我對成績單做了一些簡單的編輯,添加了章節標題和 TLDR,以使其更具可讀性,並幫助您瀏覽它們涵蓋的密集哲學領域。

享受這次談話吧——非常精彩!

編者註:本紀錄經人工智慧輕微編輯,以提高清晰度和可讀性,刪除了重複的詞語、填充詞和錯誤的開頭,同時保留了原意和說話者的對話語氣。重大遺漏或需要澄清之處以[括號]標出。

圖片

簡介與背景

[00:00:00 - 01:56:03]

Murray Shanahan:我認為人工智慧引發了大量非常有趣的哲學問題。人類思維的本質是什麼?心靈的本質又是什麼?

漢娜·弗萊:那麼意識呢?

穆雷·沙納漢:我確實認為這是一個錯誤的問題,而且我認為它在很多方面都是錯誤的。

漢娜·弗萊:您認為人工智慧的推論能力有多強?

穆雷·沙納漢:嗯,這是一個非常有趣、有點開放性的問題,也有些爭議。想到今天出生的每個孩子都將在一個他們從未體驗過機器無法與他們對話的世界裡長大,真是令人震驚。

漢娜·弗萊:歡迎回到《Google DeepMind》播客。本期節目的來賓是倫敦帝國理工學院認知機器人學教授、Google DeepMind 首席研究科學家穆雷·沙納漢。我們都聽過各種各樣的故事,比如人們愛上聊天機器人,或者利用大型語言模型來思考自身的存在,或者質疑自己對現實概念理解的局限性。但這些關於自我認同、思考和元認知的問題,幾千年來一直困擾著哲學家們。因此,他們轉向人工智慧,探究關於人工智慧智慧本質、現有能力,甚至意識等最深奧的問題,也合情合理。

漢娜·弗萊:穆雷·沙納漢自 20 世紀 90 年代以來一直致力於人工智慧領域的研究。如果你關注這個播客一段時間了,你一定會記得他曾為 2014 年的科幻電影《機械姬》擔任顧問,這部電影講述了一位電腦程式設計師有機會測試女性機器人艾娃的智力,並最終質疑她是否具有意識的故事。歡迎再次收聽播客,穆雷。

穆雷·沙納漢:謝謝漢娜。

科幻小說與人工智慧呈現

[01:56:03 - 03:31:41]

簡而言之:穆雷討論了他在《機械姬》中的工作,以及像《她》這樣的科幻電影是如何描繪人工智慧關係的。他指出,《她》出人意料地預測了人類將如何與脫離實體的人工智慧系統建立關係。

漢娜·弗萊:回想一下,因為我知道你在亞歷克斯·加蘭主演的電影《機械姬》中扮演了一個關鍵角色。你認為你在這部電影中哪些地方做得對?在當時其他科幻電影中呢?我的意思是,回想一下10到15年前,我們當時的思路是否正確?

穆雷·沙納漢:《機械姬》真正出色的一點在於,它提出了一系列關於意識、人工智慧與意識,乃至意識本身的有趣且發人深省的問題。所以,這可以說是一個巨大的成功。

Murray Shanahan:有趣的是,就在《機械姬》上映前不久,《她》上映了。也就是斯派克·瓊斯的電影《她》上映了。當時,我對《她》這部電影其實不太感興趣,因為我覺得一個人愛上這種非實體的聲音太不可思議了,即使是史嘉蕾·喬韓森的聲音。我當時的想法錯得有多離譜?作為一點預測,我認為《她》非常準確地預測了我們現在所處的世界。現在,我們不知道未來幾年事情會如何發展,因為機器人技術或許也會像人工智慧語言那樣迅速發展。但目前,一切都與非實體語言有關。此外,《她》還展示了人們如何與非實體人工智慧系統建立關係,無論廣義上如何,這確實是一件非凡的事情。

人工智慧的歷史與演進

[03:31:41 - 05:46:34]

漢娜·弗萊:好的。我們說的是10到15年前的事了,但您參與人工智慧的歷史遠不止於此。您認識約翰·麥卡錫嗎?

穆雷·沙納漢:我確實認識約翰·麥卡錫。我非常了解他。

穆雷·沙納漢:約翰·麥卡錫是一位電腦科學和人工智慧教授,他創造了「人工智慧」這個詞。他也是1956年著名的達特茅斯會議提案的作者之一,那次會議是世界上第一個D人工智慧會議。那次會議真正地勾勒出了整個人工智慧領域的藍圖。

穆雷·沙納漢:人們根本沒認真考慮過這種事。只是少數人而已。我認為他是一位真正激進的思想家,而且一直都是。

「人工智慧」一詞

[04:05:23 - 05:46:34]

TLDR:Murray 討論了麥卡錫於 1955 年創造的「人工智慧」術語,回應了對該術語的批評,同時捍衛了其儘管存在局限性但仍屬恰當的說法。

漢娜·弗萊:好的,這個詞語的選擇,1955 年的人工智慧。這是一個好的詞語選擇嗎?

Murray Shanahan:是的,我的意思是,我仍然認為是的。我知道有些人可能不認為我這麼說不太恰當,但我仍然……

漢娜·弗萊:請給我們講講他們的一些論點。

Murray Shanahan:首先,要說的是「智慧」這個詞。從某種程度上來說,智慧本身是一個非常有爭議的概念,尤其是考慮到智商測試之類的東西。智慧是一種可以用簡單直接的尺度來量化的東西,有些人確實比其他人更聰明。我認為,在心理學領域,如今人們普遍認為智慧有很多種。這一點非常重要,對吧?人們對「智慧」這個詞有所顧慮。那麼,你會用什麼不同的詞來表達呢?嗯,也許是人工認知之類的。我經常使用「認知」這個詞來表示思考、處理資訊等等。但是,說實話,它聽起來確實不一樣,對吧?

漢娜·弗萊:不,尤其是現在。我覺得我們已經走得太遠了,不是嗎?

Murray Shanahan:是的。「人工」這個詞,我其實對它沒什麼意見。它看起來是合適的詞。它暗示著它是我們建造的,而不是自然演化而來的。所以,它看起來是正確的詞。

漢娜·弗萊:我猜對這個詞的異議在於,人工智慧所建立的一切最終都是在某種程度上由人類建構的。

穆雷·沙納漢:當然。沒錯。但確實如此。那麼在這種情況下,這個詞有什麼問題嗎?我的意思是,我認為確實如此。

從符號人工智慧到神經網路

[05:46:34 - 09:44:04]

TLDR:Murray 解釋了從符號 AI(基於規則的系統)到神經網路的轉變,描述了符號 AI 如何依賴明確的規則,而現代方法如何從數據中學習模式。

漢娜·弗萊:您研究的是符號人工智慧,對嗎?能不能跟我們聊聊它和其他類型的人工智慧的區別,以及我們目前的對比情況。

Murray Shanahan:沒錯。所謂的符號範式在人工智慧領域佔據了主導地位,甚至幾十年來一直佔據主導地位。其理念是,人工智慧的核心是對符號、類似語言的句子和符號進行操作,並運用這些符號進行推論。專家系統就是一個典型的例子。早在20世紀80年代,人們就開始建構這些專家系統。他們的想法是,嘗試將醫學知識編碼成一套規則。這些規則可能是這樣的:「如果病人的體溫是104華氏度(約39攝氏度),皮膚呈紫色,那麼他們患皮膚炎或其他疾病的機率是0.75%。」你可能看得出來我不是醫生。然後,成千上萬條這樣的規則會被存入一個龐大的知識庫中。然後你就會有所謂的推論引擎,它會對所有這些規則進行邏輯推論,從而得出關於該案例中可能出現的疾病的結論。

漢娜·弗萊:但是有很多如果這樣,那麼那樣的事情。

Murray Shanahan:這基本上就是一堆「如果-那麼」類型的規則。其中最大的問題之一是,這些規則從何而來?嗯,基本上,得有人把它們都寫出來。因此,出現了一個知識獲取的領域,你需要四處諮詢專家,嘗試從他們那裡獲取他們在各自領域的理解,這些領域可能是醫療診斷,可能是影印機維修,也可能是法律,然後你嘗試將所有這些知識編纂成電腦可理解的、非常精確的規則。這是一個非常繁瑣的過程,而且最終得到的結果非常非常脆弱。它會以各種方式出錯。

Murray Shanahan:另一個重要的研究領域是常識,因為人們常常意識到,我們內心深處蘊藏著大量關於日常世界的常識性知識,這些知識僅僅與日常物品有關,比如它們是固體,它們以特定方式運動,它們以特定方式相互融合,液體、氣體、重力等等。實際上,我們一直在運用所有這些知識,但這種運用是無意識的。因此,我們開展了一個或多個大型專案,試圖將這些常識性知識整理成規範。而試圖將它們轉化為公理、邏輯、規則等等,簡直是一場惡夢。

Murray Shanahan:所以,說實話,我最終,大概在21世紀初,我真的覺得這種研究範式註定要失敗。然後我開始遠離它。

漢娜·弗萊:當然,後來出現了神經網路之類的技術。沒錯。神經網路不再僅僅關注「如果-那麼」的規則,而是更多地關注從大量數據中提取資訊。

穆雷·沙納漢:是的。

漢娜·弗萊:但我現在有點好奇,既然語言已經被有效破解,我們是否已經達到了更高的抽象層次,可以回到更多的象徵性技術,一些更具象徵性的想法。

Murray Shanahan:是的,我們當然有,因為如今大型語言模型的一個熱門話題就是推論。所以,這些所謂的思維鏈模型實際上執行著一整套推論——它們不僅僅是生成問題的答案,而是在給出答案之前生成一整條推論鏈。這非常非常有效。有趣的是,這在很多方面都讓人回想起人們在符號人工智慧時代所研究的東西。但所有這些工作的底層基礎確實非常不同,因為它不是硬編碼的規則。正如你提到的,它是神經的,是經過學習的神經網路。

AI推論與智慧

[09:44:04 - 13:20:23]

TLDR:Murray 討論了人工智慧系統中類人推論和更正式的數學推論之間的差異,並指出 LLM 可以在日常環境中進行推論,但與專用系統相比,在正式定理證明方面可能會遇到困難。

漢娜·弗萊:我來談談關於推論的問題。作為一名擁有邏輯學背景的哲學家,您認為人工智慧的推論能力如何?

Murray Shanahan:嗯,這是一個非常有趣、有點開放性的問題,也有些爭議。電腦科學家和人工智慧研究人員對推論有著獨特的理解,這種理解很大程度上可以追溯到形式邏輯和定理證明。例如,在符號人工智慧時代,系統非常擅長運用形式邏輯進行定理證明。人們認為,這才是真正的推論,才是真正的核心推論。而如今的大型語言模型,其性能卻無法與手工編碼的定理證明器或已經存在幾十年的邏輯引擎相媲美。

漢娜·弗萊:請舉一個可以透過硬編碼系統證明的定理類型的例子。

Murray Shanahan:所以,它將會是你擁有的20到30條邏輯公理,所以它可能是類似於「1後面的數字是2」之類的東西。它可能屬於數論領域,或者非常數學化的領域,但也可能是更日常的東西。例如,假設你遇到了一個非常困難的物流規劃問題,你可能有數百輛卡車、倉庫、貨物等等。你需要規劃卡車的路線和部署,以及它們的目的地。這是一個非常困難的計算問題,它可以用非常精確的形式規則來表達。在這種情況下,你可能想要使用一種老式的、簡單的演算法,那種已經存在很長時間的規劃演算法。現在,當代的大型語言模型在這方面做得越來越好,但它們仍然無法提供那種數學上的保證,確保它們總能得出完全正確的答案。而且,當公理越來越多的時候,它們很容易出錯。

Murray Shanahan:還有一個完全獨立的研究方向,那就是嘗試建構更多手工編碼的東西,將當今的人工智慧技術與更傳統的符號技術相結合,專門用於數學定理證明。DeepMind 在這方面已經取得了一些令人矚目的成果。但這與大型語言模型不同。對於大型語言模型,我們設想的是那些可以談論任何話題的聊天機器人。而它們恰好能夠做到的事情之一就是推論。因此,目前這種推論能力還不如手工建構的模型。

漢娜·弗萊:這很有趣,因為手工製作的東西最終會變得非常堅硬。

穆雷·沙納漢:是的,這就是問題所在。

漢娜·弗萊:而且很脆弱。是的,絕對如此。但與此同時,生成式人工智慧方法所帶來的靈活性,也太過鬆散了。你知道,你需要的是剛性。

穆雷·沙納漢:嗯,你知道,也許是,也許不是。我的意思是,我認為很多人類事務並非如此黑白分明。你或許確實希望事情更模糊一些。即使是一些簡單的日常瑣事,比如,花園這個角落應該種什麼花?嗯,我們那個角落已經種了一些玫瑰,而且是黃色的。所以也許黃色不太適合,所以我們可能需要把它們移到花園的另一個角落。

定義「真實推論」

[13:20:23 - 14:33:22]

簡而言之:Murray 挑戰了「真實推論」的概念,他認為推論存在於一個範圍內,並且在不同的情境下會有不同的表現。他認為日常推論不同於正式的數學推論。

漢娜·弗萊:但與此同時,這是真正的推論嗎?或者這只是人工智慧在某種新環境中模仿訓練數據中已經存在的結構良好的論證?

Murray Shanahan:是的。嗯,當然,這引出了一個問題:什麼是真正的推論?我認為真正的推論並非天上掉餡餅。真正的推論或推論的概念由我們來定義。所以我們之前討論的是邏輯學家所做的那種數學推論,過去和現在,定理證明者都在進行這種推論。但是,當人們第一次使用「推論」這樣的術語時,他們並沒有想到這種東西。當我們在日常生活中使用「推論」這個詞時,我們並沒有想到這種東西。所以,如果你和一個大型語言模型討論你的花園,你說,我在想什麼植物?它會說,嗯,也許你應該考慮在那種地方種植這種植物,因為那樣對土壤最好,而且既然你說了風,那裡風很大,我們會說這提供了理由。我的意思是,它提供了理由。至於這些理由從何而來,則是另一回事。人們可能會說,它只是在模仿訓練集中的內容,但它可能從未見過那個例子,那種場景。所以它在一定程度上超越了訓練集。我認為它只是在以日常的方式運用日常的推論概念來調用這種推論。

測試人工智慧能力

[14:33:22 - 22:06:41]

圖靈測試及其局限性

[14:33:22 - 16:48:12]

TLDR:Murray 批評圖靈測試過於狹隘,因為它只關注語言而不測試具身認知,儘管他承認現代法學碩士很可能通過該測試。

漢娜·弗萊:我回想了一下早期哲學家們希望人工智慧具備的一些不同特徵。推論能力就是其中之一。此外,還有圖靈測試,它當然經常被提起,用來測試人工智慧的能力。我的意思是,它有點爭議,對吧?我想,就它作為人工智慧能力的測試來說,究竟有多好而言。您對此有何看法?您認為它曾經是一個好的測試嗎?

穆雷·沙納漢:不。我一直覺得這是個糟糕的測試,但它確實極大地激發了關於事物的哲學討論。再說一次,事後看來,我或許會稍微改變一些觀點,因為我當時非常非常堅持認為,具身化是智力的一個關鍵方面,對於獲得智力至關重要。

漢娜·弗萊:這根本就不符合圖靈測試,對吧?

Murray Shanahan:不,圖靈測試絕對與具身化無關,因為評判者,我只是想提醒大家它是什麼。所以,在圖靈測試中,你有兩個受試者,一個是人類,另一個是電腦。然後你有一個評判者。人類評判者無法分辨哪個是電腦,哪個是人類。他們只是透過一種類似聊天的介面與這些受試者交談。他們無法判斷他們是否具身化。所以我們可以很容易地假設,電腦可能是當今大型語言模型之一。在這種情況下,我不得不說,今天它們幾乎可以通過圖靈測試。我的意思是,我們已經達到了這一點,這真的很棒。但是,我過去認為這是一個糟糕的測試,因為它沒有測試任何具身化的技能。因此,你確實需要一個機器人來測試某物是否具備我們在泡茶或做其他事情時所使用的那種日常認知能力。

漢娜·弗萊:因為否則它就是一種非常非常狹隘的智力形式。

穆雷·沙納漢:是的,這都與語言和推論有關,而不是與人類和其他動物在語言出現之前演化而來的能力有關,對吧?語言是指操縱、移動、導航和探索日常物質世界的能力,也就是「語言」這個詞的最佳含義。

具身與智慧

[16:48:12 - 18:12:24]

TLDR:Murray 強調,人類的智力植根於我們的身體經驗,並指出即使我們的語言也很大程度上依賴於源自我們身體存在的空間隱喻。

漢娜·弗萊:所以,這真的很有趣。我經常會想,我們目前擁有的大型語言模型或許可以通過圖靈測試,但即使你把球丟到電腦上,它們也不會退縮。確實如此。從某種意義上說,正如你所說,存在著這些更深層次的形式,也許我們不會像現在這樣把它們歸類為智慧。但最終,它們也算是一種智慧。

Murray Shanahan:嗯,我認為很大程度上是一種智慧形式。而且,我認為從生物學角度來看,我們現在必須對所有這些事情提出警告,那就是,從生物學角度來看,我們思考、推論和說話的能力很大程度上植根於我們與日常世界的互動。想想看,幾乎所有的日常用語都在使用空間隱喻。我的意思是,它們完全滲透到我們的日常用語中,甚至「滲透」這個詞。「扎根」,我用的是「扎根」這個詞。所以,我們一直在使用這類詞語。

漢娜·弗萊:因為我們從根本上來說都是肉體存在。

穆雷·沙納漢:因為我們從根本上來說都是物質生物,我們的大腦演化是為了幫助我們在這個物質世界中導航、生存和繁衍。同時,我們還要與所有其他做著同樣事情的生物互動,對吧?

替代測試方法

[18:12:24 - 19:59:38]

TLDR:Murray 討論了《機械姬》中的「加蘭測試」,該測試關注的是即使我們知道它是人工智慧,機器是否可以被識別為具有意識 - 這與圖靈測試關注的智慧程度不同。

漢娜·弗萊:因為還有其他選擇。當你嘗試測試人工智慧的能力時,請跟我講講我們有哪些潛在的替代方案。

Murray Shanahan:嗯,我想你可能想到了加蘭測試。我稱之為加蘭測試,這可以追溯到電影《機械姬》,當然,這部電影的導演是亞歷克斯·加蘭。劇本裡有一段描述億萬富翁內森和凱勒布的對話,凱勒布被請來與機器人艾娃互動。凱勒布說,哦,我來這裡是為了對艾娃進行圖靈測試。內森說,哦,不,我們已經遠遠超過了這個標準。艾娃可以輕鬆通過圖靈測試。測試的目的是向你證明她是個機器人,看看你是否仍然認為她有意識。哇。這就是我所說的加蘭測試,它與圖靈測試在兩個方面有所不同。首先,評判者,也就是加蘭測試中的凱勒布,能夠看出她是個機器人。所以在圖靈測試中,評判者無法分辨真假。但這裡,Caleb 的思路是,她知道自己是機器人,卻仍然賦予這些特徵。然而,沒錯,這個特徵也有所不同,因為它不是智慧,不是「她能思考嗎」,而是「她有意識嗎?」或者「她有意識嗎?」,這完全是另一個測試?我認為,智力和意識是兩碼事,我們可以將兩者區分開來。所以,當我第一次讀到電影劇本,看到 Caleb 和 Nathan 的那幾句台詞時,我在我的版本旁邊寫下了「太棒了!」,並加了一個驚嘆號,因為我覺得 Alex 完全抓住了一個非常重要的點。

穆雷·沙納漢:所以在我的文章中,我把這稱為「加蘭測試」,也有不少人注意到了這一點,也把它稱為「加蘭測試」。

抽象推論測試

[19:59:38 - 21:56:41]

簡而言之:Murray 介紹了 Francois Chollet 的 ARC(抽象推論語料庫)測試,該測試透過視覺謎題來評估模式識別能力。雖然最初令人印象深刻,但他指出,暴力方法已經開始解決這些挑戰。

漢娜·弗萊:如果人工智慧能夠通過某項測試,你會對此印象深刻嗎?

Murray Shanahan:我一直對 Francois Chollet 的 ARC 測試印象深刻。ARC 是抽象推論語料庫 (Abstract Reasoning Corpus) 的縮寫。ARC 是類似於智商測試之類的圖像序列,圖像成對排列。第一張圖像有點像像素化圖像,裡面有一些小單元,裡面有一些你可以解讀為物體、線條等等的小東西。你感興趣的挑戰是找出一條規則,讓你從一張圖像推導出第二張圖像。然後,你必須將這條規則應用到第三張圖像上。首先,所有測試圖像都是完全保密的。所以你無法透過了解實際測試版本來作弊,也無法在訓練集中使用它。這就是我所說的作弊。而且,他非常精心地設計了這些測試,每次都有不同的規則。每條規則都與其他規則截然不同。而且你通常必須找到某種直觀的應用,通常是我們日常的常識,將其視為朝這個方向移動的液體,或者想像這個東西在移動、生長或諸如此類。

漢娜·弗萊:所以從某種程度上來說,它需要基礎。

Murray Shanahan:嗯,看起來是這樣,但最近人們已經能夠以一種更「暴力」的方式取得重大進展。所以,我認為這些解決方案並沒有真正觸及最初測試的精髓。

漢娜·弗萊:嗯,我想就是這樣。某種程度上,一旦你設定了一個指標,一旦你設定了一個門檻,一旦我們跨過了這個門檻,我們就會擁有能力、智慧、意識,無論它是什麼。這在某種程度上改變了測試本身的性質。

穆雷·沙納漢:是啊,或者說人們會開始鑽考試的空子,對吧?這就是古德哈特定律,對吧?所以,絕對沒錯。

擬人化與人工智慧理解

[21:56:41 - 26:36:42]

TLDR:Murray 討論了擬人化人工智慧系統的細微差別,認為某些形式可能是合適的,而其他形式可能會導致對人工智慧能力的誤解。

漢娜·弗萊:很多參加這個播客的人都表示,確實需要謹慎對待擬人化這些事物。你是那種認為我們不應該這樣做的人嗎?

Murray Shanahan:嗯,我認為看待這個問題有很多不同的角度,擬人化也有好有壞。一方面,人們可以開始與人工智慧系統建立他們所理解的關係,比如友誼、陪伴和師徒關係。但如果人們被誤導,認為這些系統擁有他們實際上並不具備的能力,那麼這可能是一件壞事。所以我認為這就是問題所在。你說的是《大英百科全書》,對吧?《大英百科全書》的紙質版並不知道阿根廷贏得了世界杯,因為它太老了。所以,如果你這麼說,這完全說得通,你可能會這麼說,而且沒問題。但如果有人問你,為什麼不和它談談英格蘭的足球實力,或者說英格蘭足球的不足之處,那就太荒謬了,對吧?現在,有趣的是,我們有了這些大型語言模型,你可以與它們進行對話,你可以告訴它一些事情,這樣它就可以突破我們可能開始說的界限,嗯,它實際上並不是 XYZ,它把它推得更遠了。

漢娜·弗萊:我想知道人類的這種需求是否有更深層次的原因,或者也許只是希望人工智慧能夠具備擬人化的特徵。

Murray Shanahan:是啊,是啊。嗯,這是一個非常有趣的問題,不是嗎?所以,我覺得這跟語言沒關係。這又回到了語言本身。在這種情況下,我們傾向於將事物擬人化,因為它們非常擅長使用語言。而對我們來說,唯一擅長使用語言的只有人類。所以,突然間,我們身處一個擁有語言的世界,而語言的使用者並非只有人類。這在某種程度上非常奇怪。這太令人驚訝了。是啊。我的意思是,這太令人驚訝了。這太令人驚訝了。想到今天出生的每一個孩子,都將在一個他們從未體驗過機器無法與他們對話的世界裡長大,這真的太令人驚訝了。這難道不是一件非同尋常的事情嗎?是啊。我的意思是,這確實是。這對我們所有人意味著什麼,真的很難說。

具身化、意識和未來人工智慧

[26:36:42 - 38:12:34]

具身的重要性

[26:36:42 - 28:09:05]

TLDR:Murray 討論了具身人工智慧如何帶來更深層次的智慧,並指出與世界的物理互動可能是當前語言模型所缺乏的某些類型的理解所必需的。

漢娜·弗萊:回想一下您所說的關於人類在物質世界中如何扎根的事情。

穆雷·沙納漢:是的。

漢娜·弗萊:感覺人工智慧的具身化方面已經遠遠落後於語言方面了。

穆雷·沙納漢:是的。

漢娜·弗萊:無論您如何定義它,您是否認為一旦我們擁有良好且有效的具身人工智慧,我們將會看到人工智慧的巨大進步或更廣泛的能力?

Murray Shanahan:嗯,我認為這可能會帶來很大的不同,因為坦白說,我們目前擁有的大型語言模型目前很難判斷它們的極限在哪裡,也很難判斷我們是否真的走在了開發與人類通用智慧相當的通用智慧的道路上。通常,當你觸及這類事物的能力邊界時,你會覺得,有時你會覺得人工智慧系統並沒有真正理解某些東西。它並沒有真正深入地理解某些東西。當你達到某種極限時,你會意識到它有點虛偽。但或許,這種真正在深層次或某種常識層面理解事物的通用能力,仍然需要一些具體化。它仍然需要訓練數據,這些數據涉及與現實世界中物理對象及其空間組織的互動。這其中有一些根本性的東西。

人工智慧意識的問題

[28:09:05 - 31:13:17]

TLDR:Murray 將意識分解為多個方面(世界意識、自我意識、元認知和感知),認為這些方面可以分離,並且現代人工智慧系統可能表現出一些但不是全部的組成部分。

漢娜·弗萊:好的。如果理解,無論我們如何定義它,都是隨著越來越多的數據而產生的。那麼意識呢?我的意思是,我相信你已經被問過一千遍關於人工智慧意識的問題了,以及它是我們可以預期會發生還是已經發生了。

Murray Shanahan:是的,是的。首先要指出的是,我確實認為我們可以將智力或認知與認知能力區分開來。我們可以將其與意識區分開來。所以我認為我們可以想像一些非常有能力的事物,它們擁有……我們想說它們非常聰明,因為它們能夠實現目標等等,但我們不想將它們賦予意識。但實際上,將意識賦予某物究竟意味著什麼?我認為意識本身的概念可以分解成許多部分。它是一個多方面的概念。例如,我們可能會談論對世界的意識。在意識的科學研究中,有很多實驗方案和範式。其中許多都與感知有關,你觀察的是一個人是否意識到了某事,即是否有意識地感知了世界上的事物。大型語言模型在這方面根本無法感知世界。但意識還有其他方面。我們也有自我意識。自我意識的一部分是對我們自身身體及其在空間位置的意識。但自我意識的另一個方面是對我們內心活動或意識流的意識,正如威廉·詹姆斯所說。所以我們也有這種自我意識。我們也有一些人所說的元認知。我們有能力思考我們所知道的事物。此外,意識或感知力還有情感方面,或者說感覺方面。

也就是感受的能力,承受痛苦的能力。這是意識的另一個方面。現在,我認為我們可以把所有這些方面區分開來。在人類身上,它們都像一個整體,一個大包裹。但你只需要想想非人類動物,就會意識到我們可以開始稍微區分這些東西,因為我認為,儘管我很喜歡貓,但我認為貓的自我意識是有限的。你怎麼敢?好吧,我是個貓迷。我不得不說,這麼說確實有些猶豫,而且,我們應該說,他們缺乏元認知嗎?嗯,是的,他們當然沒有意識到自己持續不斷的言語意識流,因為他們沒有這種意識。所以他們不會用言語來思考昨天做了什麼,或者他們想要如何度過這一生。

所以,如果我們以機器人為例,你可能有一個非常複雜的機器人,甚至是掃地機器人,你可能會說,嗯,它確實擁有某種對世界的意識。使用「對世界的意識」這個短語並不算不恰當。我想稱之為意識嗎?好吧,那麼我似乎也把所有其他的東西都考慮進去了。但你不必這樣做。你可以把意識的概念分解成這些不同的方面。

共享世界和意識

[31:13:17 - 35:31:27]

總而言之:穆雷認為,在共同的物理體驗背景下討論意識才最有意義。他以章魚為例,闡述了我們的意識概念是如何隨著我們與不同實體的互動而演變的。

漢娜·弗萊:因為你的掃地機器人能夠準確地知道自己在空間中的位置,並以一種智慧而敏感的方式對自身位置和周圍物體做出反應,最終實現目標等等。所以,它們具備某種對世界的感知能力。我不認為它們沒有自我意識。它們當然也不具備承受痛苦的能力。

因此,在一個大型語言模型中,它們可能不具備感知意義上的世界意識。但它們或許具備某種自我意識或反思能力,例如反思性認知能力。例如,它們可以談論之前在對話中討論過的事情,並且能夠以反思的方式進行,這有點像我們人類擁有的某些自我意識。我認為,把它們想像成擁有感覺並不合適。它們無法感受到痛苦,因為它們沒有身體。我認為,我們可以將這個概念從根本上拆開來看。

漢娜·弗萊:那麼問題來了,人工智慧是否有意識?它是不是二元對立的?這個問題從一開始就是錯的。

穆雷·沙納漢:我確實認為這是一個錯誤的問題。而且我認為它在很多方面都是錯誤的。剛才我們討論的是,意識實際上是一個多層面的概念。但同時,我認為我們傾向於對意識持有非常深刻的形而上學觀點,認為它是一種神奇的東西,一種形而上學的東西。所以,某物是否有意識的問題,並非共識問題,也並非我們語言的問題,而是存在於形而上學的現實中,存在於上帝的思想中,存在於柏拉圖式的天堂中,或者諸如此類的地方。但最終,我確實認為,這種思考意識的方式是錯誤的。

漢娜·弗萊:那麼,讓我們來談談你所描述的意識中情感層面。承受痛苦的能力,不一定是身體上的痛苦,也包括情感上的痛苦。以及某種情感上的自我意識。你認為這是智慧自然而然產生的嗎?如果你創造出一個足夠智慧的東西,在某個時刻,這種感覺就會出現嗎?或者,生物體是否擁有某種獨特之處?我想,是我們經歷的演化過程導致了這種獨特之處,而這種獨特之處無法被機器複製?

Murray Shanahan:我認為你的問題沒有正確或錯誤的答案。我認為我們只能拭目以待,看看我們給這個世界帶來了什麼,以及我們最終會如何對待它們、談論它們、思考它們。我認為,只有當它們真正融入我們的生活,也就是我們正在創造的這些事物時,我們才會真正有所了解。然後,我們才會被引導去思考它們、談論它們,並以特定的方式對待它們。在這方面,我喜歡舉章魚的例子。最近,英國立法將章魚納入了我們必須關注其福祉的物種類別。我認為這是一系列事件的結果。因此,公眾接觸章魚的機會越來越多。現在,你不必真的潛入水下,和章魚一起探索,就能體會到與它們相處的滋味,因為市面上有很多精彩的紀錄片和書籍,比如彼得·戈弗雷·史密斯就寫過很多關於與章魚互動的優秀書籍。這些敘事和紀錄片讓我們感受到與章魚相處的感覺,以及與章魚相遇的感受。然後,你會情不自禁地把它看作一個有意識的同類。而科學的進步也與此相輔相成。與此同時,科學家們研究章魚的神經系統,意識到它們的神經系統與人類的相似程度,以及當我們感受到疼痛時,它們的神經系統與人類的相似之處。綜合起來,我認為這會影響我們對它們的看法、談論它們的方式以及對待它們的方式。所以我認為同樣的事情也會發生在人工智慧系統上。「我們是否會被誤導?」這個問題有正確或錯誤的答案嗎?我認為這是一個非常非常深奧難懂的形而上學哲學問題。

人工智慧苦難的倫理考量

[35:31:27 - 38:12:34]

簡而言之:Murray 強調了考慮人工智慧潛在痛苦的倫理意義,並指出我們應該謹慎對待創造能夠承受痛苦的實體。他認為,目前的系統可能不具備這種能力。

漢娜·弗萊:不過,我確實想知道,我關於痛苦的觀點與其他觀點有所不同,因為元認知,即對世界的感知等等。這些不一定與倫理相關。但我認為,就痛苦而言,你不會希望你的鞋子有意識。你懂嗎?你也不會希望一輛堆高機有意識。

Murray Shanahan:除非他們真的喜歡當堆高機。當然,當然。

漢娜·弗萊:但是我們是否需要對這個特定方面更加小心一點呢?

Murray Shanahan:當然。是的,我們確實如此。如果真的有可能創造出某種能夠承受痛苦的東西,那麼我們應該認真思考是否應該這麼做。我傾向於認為,就我們目前擁有的任何東西而言,情況並非如此。但是,有些人會對此表示反對。

Murray Shanahan:以大型語言模型為例,好吧,它們在某個層面上所做的是預測下一個詞條、下一個單詞。但為了能夠以目前的方式非常非常出色地做到這一點,它們必須學習並掌握各種自發機制。所以,誰知道語言模型中如此龐大、驚人的數千億個權重中是否已經習得了某種自發機制?是否還未習得某種機制,例如,它是否具備真正的理解力,無論它意味著什麼,甚至是意識。

穆雷·沙納漢:回到具身化的問題,我一直認為,只有在我們能夠與之共享世界、與之相遇,就像我們與章魚、狗、馬或其他動物相遇一樣,與它們共處一室、共同對事物做出反應的背景下,談論意識才是真正合理的。那麼我毫不懷疑它們是有意識的。對我來說,這是一種原始的假設。現在,在一個大型語言模型中,你無法以那種方式與它們共處一室,也無法用當今的大型語言模型與它們相處並與物理對象互動,對吧?所以,在我看來,在那種語境中使用意識語言,嗯,[維根斯坦]會說,這是在讓語言休假。這種用法遠遠超出了語言的正常用途,或許是不恰當的。但這種情況可能會改變,我與大型語言模型的互動越多,我與它們進行的複雜而有趣的對話越多,我就越傾向於思考,好吧,也許我想擴展意識的語言,彎曲它,改變它,扭曲它,創造一些新詞,以適合我一直在與之互動的這些新事物的方式將其分解。

與人工智慧的互動和未來概念化

[38:12:34 - 41:43:06]

AI 互動技巧

[38:12:34 - 39:37:15]

TLDR:Murray 建議以禮貌和對話的方式對待人工智慧系統 - 就好像它們是人類一樣 - 以獲得更好的結果,並指出禮貌地對待人工智慧可能會改善其反應。

漢娜·弗萊:我知道您花了很多時間與這些大型語言模型進行互動。我甚至看到有人說您是一位著名的「提示語耳語者」。您有什麼秘訣嗎?

Murray Shanahan:嗯,一個秘訣就是像與人對話一樣與大型語言模型對話。所以,如果你認為它們扮演的是人類角色,比如說,一個非常聰明且樂於助人的實習生,那麼你就應該像對待一個聰明且樂於助人的實習生一樣對待它們,並像對待一個聰明且樂於助人的實習生一樣與它們交談。例如,禮貌地問一句,明白了嗎?「請」和「謝謝」。根據我的經驗,這樣做通常會得到更好的回應。

漢娜·弗萊:你會說「請」和「謝謝」嗎?

Murray Shanahan:你可以說「請」和「謝謝」。是的。現在有一個很好的科學理由來解釋為什麼這種情況會發生,這要視情況而定,而且模型一直在變化。為什麼這樣做可能會獲得更好的表現呢?因為如果是角色扮演,比如說扮演一個非常聰明的實習生,對吧?那麼它們可能會扮演你,如果它們沒有受到禮貌對待,它們可能會表現得更暴躁一些。這只是在模仿人類在那種情況下會做的事情。所以這種模仿可能會延伸到,如果它們的老闆是一個有點暴躁專橫的老闆,它們就不會那麼積極地回應。

重新概念化人工智慧

[39:37:15 - 41:43:06]

TLDR:Murray 建議將現代人工智慧系統視為「奇異的類心智實體」——具有類心智特質但在存在和運作方式上與人類心智有顯著不同的東西。

漢娜·弗萊:我非常喜歡這個話題。我想回到我們最初的話題,也就是我們如何看待人工智慧,如何用語言描述它,以及如何在腦海中建構它。您認為我們需要一種新的方式來談論人工智慧嗎?兩位作者都承認人工智慧的潛力,但並沒有高估它,同樣也沒有輕視它所能做的事情。

Murray Shanahan:我認為這正是我們所需要的。在我的一篇論文中,我用「奇異的類心智實體」(exotic mind-like entities)這個短語來描述大型語言模型。所以我認為它們在某種程度上就是奇異的類心智實體。再說一遍。奇異的類心智實體。太棒了。它們確實有點像心智,而且越來越像心智。現在,使用「像」這個小連字符有一個非常重要的原因,那就是我想對它們是否真的符合心智的條件進行規避。所以我可以用「像」來解決這個問題。它們之所以奇異,是因為它們不像我們。語言的使用方式不同,但在其他方面,它們首先是無形的。也許有一些非常奇怪的自我概念適用於它們。所以它們也是相當奇特的實體。所以我認為它們是奇異的類心智實體。只是我們還沒有合適的概念框架和詞彙來談論這些奇異的類心智實體。我們正在努力。它們在我們身邊出現得越多,我們就越能發展出新的談論和思考它們的方式。

漢娜·弗萊:有趣的是,你仍然在尋求一種類似圖靈的生物方法,而不是工具的想法。

Murray Shanahan:嗯,「實體」這個詞挺中性的,對吧?我想你也可以直接說「東西」。如果你願意,也可以說「像奇異心智一樣的東西」。好的,我們就這麼用吧。我覺得我們應該爭取用這個新名字。好的。不過,Hannah,我不能這麼說,因為我已經在很多出版物裡用過「實體」這個詞了,所以……「像奇異心智一樣的實體」。我喜歡這個說法,非常喜歡。Murray,非常感謝你加入我們。

穆雷·沙納漢:很榮幸,漢娜。謝謝你。

結論

[41:43:06 - 42:29:07]

TLDR:漢娜反思了人工智慧專家的觀點是如何隨著時間的推移而演變的,並指出隨著人工智慧以意想不到的方式發展,物理體現和意識正在被重新考慮。

漢娜·弗萊:多年來一直做這個播客的一大好處是,你能真正了解人工智慧前沿領域的人們,他們的觀點是如何隨著時間推移而變化的。過去幾年在各個方面都發生了翻天覆地的變化。這涉及到智慧在多大程度上需要肉體。我們需要在多大程度上擴展我們對意識的定義,才能解釋這些類似思維的實體運作方式的微妙差異。至於未來幾年,誰知道呢?但如果過去的預測可以作為參考,那麼我們對未來科技的唯一了解就是,它將與我們今天的想像截然不同。

Hannah Fry:您一直在收聽我,Hannah Fry 教授的《Google DeepMind》播客。如果您喜歡這期節目,請訂閱我們的 YouTube 頻道。您也可以在您最喜歡的播客平台上找到我們。當然,我們還會推出更多涵蓋各種主題的節目,敬請期待。下次再見。

主標籤:人工智慧

次標籤:意識倫理具身認知推論


上一篇:Sakana AI新研究:具備自我編碼改進、自指開放式演化能力的達爾文-哥德爾機誕生

下一篇:AI竟會「自己認錯」?破解多智能體協作「羅生門」,斬獲ICML 2025 Spotlight

分享短網址