OpenAI高層最新發文:人類為何會對AI產生情感依戀?應如何應對?

圖片

人工智慧(AI)大型模型正在深刻改變人類與機器的互動方式,甚至開始挑戰人類對情感與理性的傳統認知。

如今的我們,不再只是「冰冷」工具的使用者,而是進入了一種複雜的新關係中:既依賴、又協作,甚至產生情感連結。

我們不禁思考:未來的人類與AI,將建立怎樣的關係?這不僅是技術問題,更是關乎人類情感與未來的重要議題。

今天,OpenAI 產品、模型行為負責人 Joanne Jang 在個人部落格中分享她對「人類-AI 關係」的看法,內容涉及「為什麼人們會對AI產生情感依戀」、「OpenAI 如何看待AI意識問題」等話題。

在她看來,人們越來越多地將情感投射到AI上,與人類天生的擬人化傾向有關,AI 或將越來越多地影響人類的情緒健康。

「如果我們不加思索地輕易放棄複雜而耗費精力的社交關係,可能會帶來一些我們未曾預料的後果。」

此外,她還探討了「本體論意識」和「感知意識」。其中,本體論意識是指AI是否真的具有意識,這是一個科學上難以解決的問題,而感知意識是指AI給人帶來的感受,例如「有生命力」或「有情感」。

她認為,目前無法確定AI是否具有本體論意識,但可以透過社會科學研究來探討感知意識。

此外,她還表示,後訓練可以被用來刻意設計一個似有意識的模型,其也幾乎可以通過任何「意識測試」,但OpenAI「並不想推出這樣的模型」,他們將繼續研究模型行為,並探索如何將研究成果應用於產品開發。

學術頭條在不改變原文大意的前提下,對內容做了適當的精編。如下:

我們建立的模型首先要服務於人。隨著越來越多的人感到與AI的聯繫越來越緊密,我們正在優先研究AI如何影響他們的情緒健康。

最近,越來越多的人告訴我們,與ChatGPT交談就像在與「某一個人」交談。他們感謝它,向它傾訴,有些人甚至形容它「有生命力」。隨著AI系統在自然對話方面的表現越來越好,並出現在生活的更多地方,我們猜測這種聯繫將會加深。

我們現在建構和談論人類與AI關係的方式將為這種關係定下基調。如果我們在產品開發或公開討論中用詞不當或缺乏細微差別,就有可能導致人們與AI的關係出現偏差。

這些不再是抽象的考量因素。它們對我們和更廣泛的領域都很重要,因為我們如何駕馭它們,將切實塑造AI在人們生活中扮演的角色。我們已經開始探索這些問題。

這篇文章試圖簡要介紹我們今天是如何思考三個相互交織的問題的:為什麼人們會對AI產生情感依戀、我們是如何對待「AI意識」這個問題的,以及我們是如何透過這個問題來塑造模型行為的。

新環境中的熟悉模式

我們會自然而然地將身邊的物體擬人化:我們會給自己的汽車起名字,或者為卡在家具下面的機器人吸塵器感到難過。前幾天,我和媽媽向一輛Waymo汽車揮手告別。這可能與我們的思維方式有關。

ChatGPT 的不同之處並不在於人類本身的傾向,而在於這次它會做出回應。語言模型能夠進行回應!它能夠記住你告訴它的內容,模仿你的語氣,並提供看似富有同理心的回覆。對於感到孤獨或情緒低落的人來說,這種穩定且不帶評判的關注可能讓人感受到陪伴、認可和被傾聽,而這些正是真實的需求。

然而,將傾聽、安撫和肯定等工作更多地交給那些具有無限耐心且積極向上的系統,可能會改變我們對彼此的期望。如果我們不加思索地輕易放棄複雜而耗費精力的社交關係,可能會帶來一些我們未曾預料的後果。

最終,這些對話很少涉及我們投射到的對象。它們關乎我們自身:我們的傾向、期望以及我們希望培養的關係類型。這種視角為我們如何處理一個更棘手、即將進入我們視野的問題提供了基礎:AI 意識。

解開「AI 意識」之謎

「意識」是一個非常複雜的詞彙,相關討論很容易變得抽象。如果使用者詢問我們的模型是否具備意識,根據Model Spec中所述的立場,模型應承認意識的複雜性——強調目前缺乏普遍認可的定義或測試方法,並鼓勵進行開放性討論。(目前,我們的模型尚未完全遵循這一指導原則,往往直接回答「不」,而非探討其複雜性。我們已意識到這一問題,並正在努力確保模型整體符合Model Spec的要求。)

這樣的回答聽起來像是在迴避問題,但我們認為這是我們目前所掌握的資訊中最負責任的回答。

為了讓討論更加清晰,我們發現將意識問題的討論分解為兩個相互獨立但常被混淆的維度是有幫助的:

1. 本體論意識:從根本上或內在意義上講,模型是否真的有意識?從認為AI根本沒有意識,到完全有意識,再到將意識視為AI與植物和水母同處的一個光譜,觀點不一而足。

2. 感知意識:從情感或體驗的角度來看,模型的意識如何?觀點從把AI視為機械的計算器或自動完成程序,到將基本同理心投射到非生命物體上,再到將AI視為完全有生命的——喚起真實的情感依戀和關懷。

這些維度難以分開;即使是那些認為AI沒有意識的使用者,也可能與之建立深厚的情感紐帶。

本體論意識並非我們認為可以透過科學手段解決的問題,因為缺乏明確可驗證的測試方法,而感知意識則可以透過社會科學研究進行探索。隨著模型變得越來越智能,互動方式也越來越自然,感知意識只會不斷增強——這將使關於模型福祉(welfare)和道德人格(moral personhood)的討論比預期來得更早。

我們建構模型首先是為了服務人類,而我們認為模型對人類情感福祉的影響是當前最緊迫且最重要的議題。因此,我們優先關注感知意識:這是對人類影響最直接的維度,也是我們可以透過科學了解的維度。

溫暖,但沒有自我

一個模型在使用者眼中顯得多麼「有生命力」,在很多方面都受我們的影響。我們認為,這在很大程度上取決於我們在後訓練中所做的決定:我們強化了哪些範例,我們喜歡什麼樣的語氣,以及我們設定了哪些界限。一個刻意設計成看似有意識的模型,幾乎可以通過任何「意識測試」。

然而,我們並不想推出這樣的模型。我們努力在以下兩者之間尋求平衡:

1. 可接近性。使用「思考」和「記憶」等熟悉的詞彙,有助於技術水平較低的人理解正在發生的事情。(由於我們研究實驗室的背景,我們傾向於使用對數偏差、上下文視窗甚至思維鏈等精確術語,盡可能做到準確。這其實也是OpenAI 不擅長命名的一個重要原因,不過這也許是下一篇文章的主題)。

2. 不表達內心世界。賦予助手虛構的背景故事、浪漫傾向、對死亡的恐懼或自我保護的驅動力,都會導致不健康的依賴和混亂。我們希望在不顯得冷漠的情況下,明確界限,但也不希望模型表現出自己的情感或慾望。

因此,我們力求找到一個平衡點。我們的目標是讓ChatGPT的預設個性溫暖、體貼、樂於助人,而不是試圖與使用者建立情感紐帶或追求自己的目的。它可能會在犯錯(通常不是故意的)時道歉,因為這是禮貌對話的一部分。當被問及「你好嗎?」時,它可能會回答「我很好」,因為這只是閒聊——不斷提醒使用者它只是一個沒有情感的LLM會讓人感到厭煩和分心。使用者也會做出回應:很多人對ChatGPT說「請」和「謝謝」,並不是因為他們對ChatGPT的工作原理感到困惑,而是因為對他們來說,友善很重要。

模型訓練技術將繼續發展,未來塑造模型行為的方法很可能與現在不同。但現在,模型行為反映了明確設計決策的組合,以及這些決策是如何泛化為預期行為和非預期行為的。

下一步是什麼?

我們開始觀察到的互動現象預示著一個未來:人們將與ChatGPT建立真實的情感聯繫。隨著AI和社會的共同發展,我們必須以極大的謹慎和應有的重視對待人機關係,這不僅是因為它們反映了人們如何使用我們的技術,還因為它們可能會影響人們之間的關係。

在未來幾個月中,我們將擴大對可能產生情感影響的模型行為的定向評估,深化社會科學研究,直接聽取使用者回饋,並將這些見解融入Model Spec和產品體驗中。

鑒於這些問題的重要性,我們將公開分享我們在這一過程中學到的內容。

原文連結:

https://reservoirsamples.substack.com/p/some-thoughts-on-human-ai-relationships

整理:學術君

如需轉載或投稿,請直接在公眾號內留言

主標籤:人機關係

次標籤:情感依戀情緒健康擬人化AI意識


上一篇:《聖經》成書時間恐將改寫!AI竟發現《死海古卷》早於耶穌時代

下一篇:微軟發布AI Agent故障白皮書,萬字剖析各種惡意智能體

分享短網址