昨晚,YouTube千萬訂閱YouTuber The Diary Of A CEO 發布了對圖靈獎、諾貝爾獎得主,被譽為「人工智慧教父」Geoffrey Hinton的最新深度專訪。
二人以對話形式主要探討了人工智慧的發展、安全與應用;雖然人工智慧存在一定的風險,但在幫助人類提升科研、工作與生活品質等方面,其效率非常高。當然,這也會取代部分人的工作,從而創造一些全新的職位。
OpenAI 作為本世代人工智慧革命的發起者和領導者,也出現在了本次對話中。Hinton 還談到了他最得意的弟子,OpenAI 聯合創辦人兼首席科學家 Ilya Sutskever,以及最近發展勢頭強勁的人工智慧代理人(AI Agent)。
完整專訪
這段專訪一共是1小時30分鐘,由於太長為了不影響大家的觀感,「AIGC開放社區」沒有添加字幕。但我們依然在下面為大家整理了這次專訪內容。有需要的話,可以對照參考一下。
目前,這個影片在YouTube上發布不到一天,播放量已超過75萬次,留言數已逾4500則,用戶對這個專訪相當滿意。在人工智慧方面,無論你是否從事該行業或使用它,都能受到不小的啟發。
我們看看網友是如何評價這個史詩級專訪的。
有網友表示,本次專訪應該被保存為一件歷史文物。
這是我在你的頻道上看到的第一或第二重要的對話。你在採訪中暫停,讓答案緩緩沉澱,意義深遠。
這是我看過最好的專訪,Hinton 非常真誠。
我兒子多年來一直有個理論,認為讓人形智慧像人類一樣思考是危險的。相反,他希望我們創造一個像「狗」一樣思考的人形智慧,這樣它就會愛人類並願意服務我們。
也有一位網友對於人工智慧有著深切的體會,發表了一篇超長的評論:我原本是一個自由撰稿人,做了十年,結果因為人工智慧的出現失去了這份職業;接下來那年我想轉向藝術行業,但又被打斷了;再下一年,我開始轉行學習醫療編碼,卻在認證過程中再次被中斷,因為我意識到人工智慧正在摧毀創意市場。之後我在各種零工之間輾轉掙扎,幸運的是我找到了一份訓練人工智慧的工作,雖然我很討厭這份工作,但我還是感激它帶來的收入。
我一直沒能找到別的工作,現在所有人都在用人工智慧了。我原本以為轉型到科技領域會有幫助,於是開始學習更多關於人工智慧的知識,所以去年又回到了學校學習程式設計。然而很快我就意識到發生了什麼。
人工智慧的學習速度比我快太多了。於是我退學了。我不願意再花錢去接受教育,因為它根本不會給我帶來任何好處。即使我完成了程式設計學位,等到畢業的時候,所有初級職位可能都已經被人工智慧取代了,而學校的教學內容又遠遠落後於技術發展的前沿——沒有經驗,沒人會僱我。
說實話,我不知道自己還能做什麼。我有幾十年的慢性傷病,沒法從事體力勞動。我想我只能再漂泊一兩年,直到人工智慧可以自我訓練為止,那時我又會被辭退。然後就業市場會更加艱難,因為還有那麼多同樣失業的人。也許還會有一些零工機會,也許勉強能湊夠房租,也許連這個都做不到,誰知道呢?
我能預見到自己最終流落街頭,死在溝渠裡。每當我想到未來,就會不由自主地陷入深深的憂鬱。
我知道人工智慧確實很有用,也有巨大的正面潛力,但讓我們現實一點吧。全球範圍內,我們現在擁有足夠的資源來照顧每一個人,但我們並沒有這麼做。我們清楚應對氣候變遷該怎麼做,但我們不去做。美國是世界上最富有的國家,但我們甚至不給國民提供基本的醫療保障。全民基本收入?在美國,這幾乎不可能。
人工智慧並不會改變人性,而人性本身充滿了致命的缺陷:貪婪、傲慢、自私等等。那些富有且有權勢的人會從系統中榨取他們能拿到的一切,其餘的人只能挨餓。未來很黯淡。我一直在努力想出一個辦法,建造一艘能在這些巨浪中浮沉的船,但我什麼都想不到。市場只需要那麼幾個水電工而已。
下面就是本次專訪部分內容。
主持人:非常感謝,Geoffrey Hinton,他們稱你為「人工智慧教父」?
Hinton:是的。
主持人:為什麼這麼稱呼你?
Hinton:過去沒有多少人相信我們能讓類神經網路,人工類神經網路發揮作用。所以從20世紀50年代起,在人工智慧領域,關於如何實現人工智慧主要有兩種思路。一種觀點認為,人類智慧的核心是推理,而要進行推理,需要使用某種形式的邏輯。
因此,人工智慧必須基於邏輯。在你的大腦中,一定有類似符號表達式的東西,你用規則來操作它們,這就是智慧運作的方式。而像學習或類比推理這類能力,都是在我們弄清楚基本推理如何運作之後才會出現的。另一種方法則是:讓我們基於大腦來建構人工智慧模型,因為顯然大腦讓我們擁有智慧。所以在電腦上模擬腦細胞網路,並試圖找出如何學習腦細胞之間連結的強度,以便它能學會做複雜的事情,比如識別圖像中的物體、識別語音,甚至進行推理。
我堅持這種方法長達50年,因為很少有人相信它。當時沒有多少好大學有從事這方面研究的團隊,所以如果你從事這個領域,那些相信這種方法的最優秀的年輕學生就會來和你一起工作。我很幸運,招到了很多非常優秀的學生,他們中的一些人後來在創建OpenAI等平台中發揮了關鍵作用。
主持人:你為什麼相信基於大腦建模是更有效的方法?
Hinton:早期不止我一個人這麼認為。馮・諾依曼相信,圖靈也相信。如果他們中的任何一個還活著,我認為人工智慧的歷史會大不相同,但他們都英年早逝了。
主持人:你認為人工智慧會更早出現嗎?
Hinton:我認為如果他們中的任何一個還活著,類神經網路的方法會被更早接受。在你人生的這個階段,你肩負著什麼使命?我現在的主要使命是警告人們人工智慧可能有多麼危險。當你成為人工智慧教父時,你知道這一點嗎?
不太清楚。我對一些風險的理解比較遲緩。有些風險一直很明顯,比如人們會用人工智慧製造自主殺傷性武器,也就是那些四處遊走、自己決定殺誰的東西。其他風險,比如它們有一天會比我們更聰明,甚至可能讓我們變得無關緊要,我很晚才意識到這一點。其他人20年前就認識到了,而我直到幾年前才意識到這是一個可能很快到來的真實風險。
主持人:考慮到你對電腦學習能力的了解——它們能像人類一樣學習,並且還在不斷改進——你怎麼會沒有預見到這一點呢?你怎麼會沒看到呢?20、30年前的類神經網路所能做的事情非常原始,在視覺、語言和語音識別等方面遠不如人類。當時認為需要擔心它們變得比人類更聰明,似乎很荒謬。這種情況什麼時候改變的?
Hinton:對普通大眾來說,是ChatGPT出現的時候。對我來說,是當我意識到我們正在創造的數位智慧具有某種特質,使它們遠遠優於我們擁有的生物智慧。如果我想和你分享信息,比如我學了一些東西,想告訴你,我會說一些句子。
這是一個相當簡化的模型,但大致正確。你的大腦試圖弄清楚如何改變神經元之間連結的強度。比如,我可能會把某個詞放在下一個位置,當出現一個非常出人意料的詞時,你會進行大量學習,而當出現一個很明顯的詞時,學習就很少。比如我說魚和薯條,當我說薯條時,你不會有太多學習;但如果我說魚和黃瓜,你就會有更多學習,你會想為什麼我會說黃瓜。這大致就是你大腦中發生的事情,我們認為大腦就是這樣工作的。
沒人真正確定大腦是如何工作的,也沒人知道它如何獲取關於是增強還是減弱連結強度的信息,這是關鍵。但我們現在從人工智慧中知道,如果能獲得關於如何調整連結強度以更好地完成任務的信息,我們就能學習到不可思議的東西,因為這就是我們現在用人工類神經網路在做的事情。只是我們不知道真實的大腦是如何獲得這種增減訊號的。
主持人:如今,你對人工智慧安全的主要擔憂是什麼?如果讓你列出最首要的幾個,我們應該關注的。
Hinton:首先,我想區分兩種完全不同的風險。一種是人類濫用人工智慧帶來的風險,這是大多數風險,也是所有短期風險。另一種是人工智慧變得超級智慧並決定不再需要我們帶來的風險。這是真實的風險嗎?我主要談論第二種風險,因為很多人會問:這是真實的風險嗎?是的。
現在,我們不知道這風險有多大,我們從未處於這種情況,從未需要應對比我們更聰明的東西。所以,關於這種生存威脅,我們完全不知道如何應對,也不知道它會是什麼樣子。任何告訴你他們知道會發生什麼以及如何應對的人,都是在胡說八道。我們不知道如何估計它取代我們的機率。有人說這個機率低於1%,我的朋友楊立昆認為,不,我們一直在建造這些東西,我們會一直控制它們,我們會讓它們聽話。
而像尤德考斯基這樣的人則說,不,這些東西肯定會消滅我們,只要有人建造了它,就會把我們都消滅。他對此很有信心。我認為這兩種立場都很極端,很難估計中間的機率。如果讓你在兩位朋友中賭誰是對的,我根本不知道。如果必須賭,我會說機率在中間,但我不知道該如何估計。我常說有10%到20%的可能性它們會消滅我們,這只是基於直覺,因為我們還在製造它們,而我們很有創造力。希望如果有足夠多的聰明人用足夠多的資源進行研究,我們能找到一種方法來建造它們,使它們永遠不想傷害我們。有時我會想到第二條道路,想到核彈和原子彈的發明,以及它們的對比——這次有什麼不同?因為原子彈出現時,我想當時很多人認為我們時日無多了。
原子彈其實只擅長一件事,而且它的作用方式非常明顯。即使你沒有看到廣島和長崎的照片,也能明顯看出這是一種非常危險的大炸彈。而人工智慧則不同,它有很多用處,在醫療、教育以及幾乎任何需要使用數據的行業,有了人工智慧都能做得更好。所以我們不會停止發展它。人們會說:那我們為什麼不現在就停止?我們不會停止,因為它在太多領域都太有用了。另外,我們也不會停止,因為它對戰鬥機器人很有用,而任何出售武器的國家都不會想停止。比如歐盟法規,他們有一些關於人工智慧的法規,有總比沒有好,但這些法規並非為應對大多數威脅而設計。特別是,歐盟法規中有一條規定,這些法規不適用於人工智慧的軍事用途。所以政府願意監管公司和個人,但不願意監管自己。在我看來,這很瘋狂。我來回思考這個問題,但如果歐洲有法規,而世界其他地區沒有,就會造成競爭劣勢。
主持人:我們已經看到這種情況了。我認為人們沒有意識到,當OpenAI在美國發布新模型或新軟體時,由於這裡的法規,它們還不能在歐洲發布。所以Sam Altman發推文說:我們新的AI助理產品對所有人開放,但由於法規原因,暫時不能進入歐洲。是的,這會給我們帶來生產力劣勢嗎?
Hinton:生產力劣勢。我們現在需要的是,在我們即將創造出比自己更聰明的東西的歷史時刻,我們真正需要的是一個由聰明、有思想的人管理的世界政府,但我們沒有。所以現在是混戰局面。
主持人:我們現在實行的資本主義讓我們過得很好,為我們生產了大量商品和服務。但這些大公司在法律上被要求盡可能最大化利潤,而這並不是開發人工智慧所需的。那麼來談談風險吧。你提到過人類風險吧。
Hinton:我已經區分了這兩種風險。先談談壞人和不良行為者使用人工智慧帶來的所有風險。首先是網路攻擊。2023年至2024年間,網路攻擊增加了約12200%,這可能是因為這些大型語言模型使網路釣魚攻擊變得容易得多。網路釣魚攻擊對不知道的人來說,就是他們給你發訊息說:嗨,我是你的朋友約翰,我被困在薩爾瓦多了,你能匯點錢嗎?
這是一種攻擊。但網路釣魚攻擊實際上是想獲取你的登入憑證。現在有了人工智慧,它們可以複製我的聲音、我的形象,它們可以做所有這些。我現在很頭痛,因為在X平台和Meta上有很多AI詐騙。
特別是在Meta上,比如Instagram和Facebook,現在有一個付費廣告,他們從我的播客中提取了我的聲音和舉止,製作了一個新影片,讓我鼓勵人們參與這個加密龐氏騙局之類的東西。我們花了好幾個星期給Meta發電子郵件,讓他們把這個廣告撤下,他們撤了,又彈出一個,再撤,又彈出一個,就像打地鼠一樣。最令人心碎的是,有人聽信了騙局,損失了500英鎊或500美元,還以為是我推薦的,對我很生氣,我真的為他們難過,這太煩人了。我也遇到過類似的小事,現在有人發表論文,把我列為作者之一,看起來是為了讓自己獲得更多引用。
主持人:所以網路攻擊是非常真實的威脅,而且已經激增。顯然,人工智慧很有耐心,它們可以瀏覽一億行程式碼,尋找已知的攻擊方式,這很容易做到。但它們會變得更有創造力,有人相信一些很懂行的人相信到2030年,它們可能會製造出人類從未想過的新型網路攻擊。這非常令人擔憂,因為它們可以自己思考,從比人類見過的更多得多的數據中得出新結論。你有沒有採取什麼措施來保護自己免受網路攻擊?
Hinton:有,這是我少數徹底改變做法的領域之一,因為我害怕網路攻擊。加拿大的銀行非常安全,2008年沒有一家加拿大銀行瀕臨破產,它們受到很好的監管。不過,我認為網路攻擊可能會讓一家銀行癱瘓。如果我所有的儲蓄都是銀行持有的銀行股票,那麼如果銀行被攻擊,而它們持有你的股票,這些股票仍然是你的。所以我覺得你應該沒事,除非攻擊者賣出股票,因為銀行可以賣出股票。如果攻擊者賣出你的股票,我覺得你就完了。我不知道,也許銀行會設法賠償你,但那時銀行已經破產了,對吧?
所以我擔心加拿大的一家銀行被網路攻擊癱瘓,攻擊者賣出它持有的股票。因此,我把我與孩子們的錢分散存在三家銀行,我認為如果一次網路攻擊搞垮一家加拿大銀行,其他加拿大銀行會很快變得非常謹慎。你有不連網的手機嗎?你有沒有考慮過冷儲存之類的?我有一個小型硬碟機,我用這個硬碟備份我的筆記型電腦,所以我筆記型電腦上的所有東西都在硬碟上。至少如果整個網際網路癱瘓了,我知道我的筆記型電腦上還有,我的信息還在。
主持人:然後是選舉舞弊。如果你想利用人工智慧來操縱選舉,一個非常有效的方法是進行有針對性的政治廣告,因為你對這個人了解很多。所以任何想利用人工智慧來操縱選舉的人,都會試圖獲取選民的所有數據。考慮到這一點,馬斯克目前在美國的做法有點令人擔憂,他堅持要訪問所有這些原本被仔細隔離的信息。他聲稱這是為了提高效率,但這正是如果你想操縱下一次選舉會想要做的事情。
Hinton:因為你獲取了所有這些關於人們的數據,你知道他們賺多少錢、住在哪裡,了解他們的一切。一旦你知道這些,就很容易操縱他們,因為你可以讓人工智慧傳送他們會覺得非常有說服力的訊息,比如告訴他們不要投票。我沒有理由,只是憑常識這麼想,但如果他從美國政府來源獲取所有這些數據的部分動機是為了操縱選舉,我不會感到驚訝。另一部分可能是,這是訓練大模型很好的數據,但他必須從政府獲取這些數據並輸入到他的模型中。他們已經關閉了很多安全控制,取消了一些防止這種情況的組織。
主持人:接下來是像YouTube和Facebook這樣的組織製造資訊繭房,給人們看會讓他們憤怒的東西。人們喜歡憤怒,「憤怒」在這裡指的是感到憤怒但又覺得自己是正義的。比如,如果給我看一個說特朗普做了這件瘋狂事的影片,我會立刻點擊。
Hinton:這就是YouTube、Facebook和其他平台決定給你推薦什麼內容的策略所導致的。如果他們採取推薦平衡內容的策略,就不會有那麼多點擊量,也無法賣出那麼多廣告。所以本質上,利潤動機促使他們給用戶看能讓他們點擊的東西,而能讓他們點擊的是越來越極端、能證實他們現有偏見的內容。你的偏見不斷被證實,越來越深,這意味著你和他人的分歧越來越大。
現在在美國,有兩個幾乎不交流的群體。我不確定人們是否意識到,每次打開應用程式,這種情況都在發生。但如果你使用TikTok、YouTube或其他大型社交網路,正如你所說,演算法的設計是為了給你推薦更多你上次感興趣的內容。所以如果這樣持續10年,它會把你推向越來越極端的意識形態或信仰,遠離理性和常識,這很不可思議。
主持人:我經常聽到一種風險,就是這些東西可能會結合起來,比如網路攻擊會釋放武器。當然,把這些風險結合起來,會產生無數種風險。例如,一個超級智慧人工智慧可能決定消滅人類,最明顯的方法就是製造一種危險的病毒。如果你製造一種傳染性極強、致命性極高但潛伏期很長的病毒,每個人在意識到發生了什麼之前就已經感染了。我認為,如果一個超級智慧想消滅我們,它可能會選擇類似生物武器的方式,這樣不會影響到它自己。你不覺得它可能會很快讓我們自相殘殺嗎?比如,它可以向美國的核系統傳送警報。
Hinton:我的基本觀點是,超級智慧有太多方法可以消滅我們,沒必要去推測具體方式。我們必須做的是防止它產生這種想法,這才是我們應該研究的方向。如果它想消滅我們,我們根本無法阻止,因為它比我們聰明。我們不習慣思考比我們更聰明的東西。如果你想知道當你不再是頂尖智慧時的生活是什麼樣的,問問雞就知道了。我早上離開家時想到了我的狗巴勃羅,它是一隻法國鬥牛犬。它不知道我要去哪裡,不知道我在做什麼,甚至無法和它交流。而智慧差距將會是那樣的。
主持人:你如何看待自己一生的工作?
Hinton:人工智慧在醫療、教育等領域會非常出色,它會讓客服中心效率大大提高,不過人們會擔心現在從事這些工作的人該怎麼辦。我很傷心。我並不為40年前開發人工智慧感到特別內疚,因為那時我們根本沒想到事情會發展得這麼快,我們以為有足夠的時間去擔心這些問題。
當你無法讓人工智慧做很多事情時,你只想讓它多做一點,不會擔心這個愚蠢的小東西會接管人類,你只是想讓它多做一些人類能做的事。我不是明知這可能會消滅我們還去做,只是很遺憾它不只是帶來好處。
所以我現在覺得有責任談論這些風險。如果你能展望未來30、50年,發現人工智慧導致了人類滅絕。如果最終結果確實如此,我會用這一點來告訴人們,告訴他們的政府,我們必須真正努力控制這一切。我認為我們需要人們告訴政府,政府必須迫使公司利用資源來研究安全性,而他們現在沒做多少,因為這樣賺不到錢。
主持人:你之前提到的一個學生,Ilya Sutskever 離開了OpenAI。他為什麼離開?
Hinton:是的,關於他離開的原因有很多討論,說是因為擔心安全性。我認為他離開是因為擔心安全性。我仍然時不時和他一起吃午飯,他父母住在多倫多,他來多倫多時,我們會一起吃飯。他不跟我談論在OpenAI發生的事,所以我沒有內部消息。但我很了解他,他真的很關心安全問題,所以我認為這就是他離開的原因,因為他是頂尖人才之一,可能是早期ChatGPT開發背後最重要的人,比如GPT-2的開發,他發揮了重要作用。
主持人:你了解他的為人,知道他有良好的道德指南針,不像馬斯克那樣沒有道德指南針。Sam Altman有良好的道德指南針嗎?
Hinton:我不了解Sam Altman,不想評論。
主持人:如果你看看山姆幾年前的聲明,他在一次採訪中輕鬆地說,這東西可能會殺了我們所有人,雖然不是原話,但意思差不多。現在他說你不必太擔心,我懷疑這不是出於對真相的追求,而是出於對金錢的追求。
Hinton:我不該說金錢,是兩者的某種結合。我有一個億萬富翁朋友,他身處那個圈子。有一天我去他家吃午飯,他認識很多人工智慧領域的人,正在建造世界上最大的AI公司。他在倫敦的廚房餐桌上給了我一個警告,讓我了解了這些人私下的談話,不是他們在媒體採訪中談論安全的那些話,而是他們個人認為會發生什麼。他們私下的想法和公開說的不一樣。
有一個人,我不該說名字,他是世界上最大的AI公司之一的領導者。我朋友很了解他,他私下認為我們正走向一個反烏托邦世界,在那裡我們有大量的空閒時間,不再工作,而這個人根本不在乎這會對世界造成什麼傷害。我指的這人正在建造世界上最大的AI公司之一。
然後我看了這個人的線上採訪,試圖找出他是那三個人中的哪一個,是的,就是那三個人中的一個。我看了他的採訪,回想起我那位認識他的億萬富翁朋友的談話,心想:「該死,這傢伙在公開場合撒謊。」他沒有對世界說實話,這讓我有些困擾。這也是我在這個播客中多次談論人工智慧的部分原因,因為我覺得他們中的一些人對權力有點虐待狂傾向,他們喜歡自己將改變世界的想法,認為自己將從根本上改變世界。
我認為馬斯克顯然就是這樣,他個複雜的人,我真的不知道如何評價他。他做了一些非常好的事情,比如推動電動汽車,這是一件非常好的事情;他對自動駕駛的一些說法有些誇張,但他做的事情很有用。
主持人:據我所知,公司曾表示會將相當一部分計算資源用於安全研究,但後來減少了這部分資源,我認為這是發生的事情之一,這已經被公開報導過。
Hinton:是的。我們已經談到了自主武器的風險,接下來是失業問題。過去,新技術的出現並沒有導致失業,而是創造了新工作。經典的例子是自動櫃員機,當自動櫃員機出現時,很多銀行櫃員並沒有失業,他們只是做了更有趣的事情。但我認為這次更像工業革命時期機器的出現,現在你不能靠挖溝謀生了,因為機器挖溝比你好得多。
對於普通的腦力勞動,人工智慧將取代所有人。可能會出現這樣的形式:使用人工智慧助理的人減少,一個人與一個人工智慧助理現在能做以前10個人的工作。
人們說人工智慧會創造新工作,所以我們會沒事的,其他技術也是如此,但這次的技術不同。如果人工智慧能做所有普通的人類腦力勞動,它會創造什麼新工作呢?你必須非常有技能才能擁有一份人工智慧不能做的工作,我認為他們錯了。你可以嘗試從其他技術,比如電腦或自動櫃員機,進行推斷,但我認為這次不同。
人們說:「人工智慧不會取代你的工作,使用人工智慧的人會取代你的工作。」我認為這是對的,但對很多工作來說,這意味著需要的人少得多。我的姪女在醫療服務機構回覆客訴信函,過去需要25分鐘,她會讀客訴,思考如何回覆,然後寫信。現在她只是把客訴掃描進聊天機器人,機器人寫信,她只需要檢查,偶爾讓機器人修改,整個過程只需要5分鐘。這意味著她可以回覆五倍的信件,所以需要的人減少到五分之一,她現在能做過去五個人的工作,這意味著需要的人更少。
主持人:在其他工作中,比如醫療保健,彈性更大。如果能讓醫生效率提高五倍,我們可以同樣的價格獲得五倍的醫療保健,這很棒。人們對醫療保健的需求幾乎是無限的,如果沒有成本,他們總是想要更多。有些工作中,有了人工智慧助理,人的效率會大大提高,而且不會導致人員減少,因為會有更多的工作要做。但我認為大多數工作不是這樣的。我的想法對嗎?
Hinton:是的,正是如此。而這次人工智慧革命取代的是智力,是大腦。所以普通的腦力勞動就像擁有強壯的肌肉一樣,現在不值錢了。肌肉已經被取代,現在智力正在被取代。
主持人:那還剩下什麼?也許一段時間內還有某種創造力,但超級智慧的全部意義在於沒有什麼能剩下,這些東西會在所有方面都比我們好。那麼在這樣一個世界裡,我們最終會做什麼?
Hinton:如果它們為我們工作,我們不用費多少力氣就能得到很多商品和服務。這聽起來很誘人,但我不知道。有一個警示故事,人類生活越來越安逸,但結果很糟糕。我們需要弄清楚如何讓結果變好。好的場景是,想像一個公司的首席執行官很愚蠢,可能是前任首席執行官的兒子,他有一個非常聰明的執行助理。
他說:我認為我們應該做這個。執行助理把一切都做好,首席執行官感覺很棒,他不明白自己其實並不在控制之中,但在某種意義上,他是在控制,他建議公司該做什麼,她只是把事情做好,一切都很好。壞的場景是,她想:我們為什麼需要他?
主持人:現在的人工智慧和超級智慧有什麼區別?因為我用ChatGPT或者Gemini的時候,感覺它已經很聰明了。
Hinton:確實,人工智慧在很多特定領域已經比我們強了,比如國際象棋。人工智慧的水平已經遠超人類,人類再也贏不了了,偶爾贏一次算僥倖,但基本上沒法比了。圍棋也是一樣。從知識量來看,GPT-4知道的比你多成千上萬倍。只有少數領域你比它強,其他幾乎所有領域它都懂得更多。
可能在採訪CEO方面。你很有經驗,是個優秀的採訪者。如果讓GPT-4採訪CEO,效果可能更差。
主持人:我得想想是否認同這個說法。也可能要不了多久我也會被取代。
Hinton:對,也許可以用你的提問方式和風格來訓練人工智慧。如果用一個通用基礎模型,不僅訓練它學習你,還學習所有你能找到的類似採訪者,尤其是你,它可能會很擅長做你的工作,但短期內可能還比不上你。
主持人:所以現在還有少數領域人類占優,而超級智慧會在所有領域都超越我們,在幾乎所有事情上都比你聰明得多。你說這可能在十年左右發生?
Hinton:有可能,甚至可能更快。有人覺得會更快,但也可能更久,也許五十年後。不過也有可能,用人類數據訓練人工智慧,會限制它無法超越人類太多。我猜10到20年內會出現超級智慧。
主持人:關於失業問題,我一直在思考,尤其是在嘗試使用人工智慧代理人之後。今天早上我們播客剛發了一期節目,和一家大型代理人公司的首席執行官等人辯論代理人,我突然有了頓悟,看到未來可能的样子。
我在採訪中讓人形智慧代理人給我們點飲料,五分鐘後有人送來了飲料,我什麼都沒做,只是讓它把飲料送到演播室。它還不知道我們通常從哪裡點,結果它從網上查到了,用了UberEats,可能獲取了我的數據。我們把人工智慧的操作即時投在螢幕上,大家能看到它瀏覽網頁、選飲料、給騎手加小費、填地址、輸入信用卡信息,然後飲料就來了。還有一次,我用了一個叫Replit的工具,只需要告訴代理人我想要什麼,它就能幫我開發軟體。
Hinton:太神奇了,同時也很可怕。如果人工智慧能這樣開發軟體,而且在訓練時使用程式碼,還能修改自己的程式碼,那就更嚇人了——它能自我改變,而我們無法改變自己的先天能力,它沒有任何自我限制的地方。
主持人:在超級智慧的世界裡,你會怎麼跟人們說職涯前景?我們該怎麼想?
Hinton:短期內,人工智慧在物理操作方面還不如人類,所以當水電工是個不錯的選擇,直到人形機器人普及。
主持人:你預測會出現大規模失業,而OpenAI的Sam Altman也這麼預測過,很多首席執行官,比如馬斯克,我看過一個採訪,他被問到這個問題時,沉默了12秒左右,然後說他其實處於一種「懸置不信」的狀態,就是根本不去想這個問題。當你要給孩子建議職涯方向,世界變化這麼快,你會告訴他們什麼是有價值的?
Hinton:這很難回答。我會說,跟著自己的心走,做自己覺得有趣或有意義的事。說實話,如果想太多,會覺得沮喪和失去動力。我花了很多心血創辦公司,然後會想:「我該這麼做嗎?」因為人工智慧能做所有這些事。某種程度上,我必須刻意「懸置不信」才能保持動力。所以我想我會說,專注於你覺得有趣、有意義,並且能為社會做出貢獻的事情。
主持人:有沒有哪些行業失業風險受到人工智慧取代的特別高?人們常說創意產業和知識型工作,比如律師、會計師之類的。
Hinton:所以我才說水電工風險低一些。像法律助理、律師助理這類工作,很快就不需要了。
主持人:這會加劇貧富差距嗎?
Hinton:是的。在一個分配公平的社會裡,生產力大幅提升應該讓每個人都受益。但如果人工智慧取代了很多人,被取代的人會變窮,提供人工智慧的公司和使用人工智慧的公司會更富有,這會擴大貧富差距。我們知道,貧富差距越大,社會越糟糕,會出現分裂的社群,把人關進大量監獄,擴大貧富差距不是好事。國際貨幣基金組織已經表達了深切擔憂,認為生成式人工智慧可能導致大規模勞動力動盪和不平等加劇,並呼籲制定政策防止這種情況發生。
主持人:我在《商業內幕》上看到過,他們提出具體政策建議了嗎?
Hinton:沒有,這就是問題所在。如果人工智慧能讓一切更高效,取代大多數工作,或者讓人借助人工智慧完成很多人的工作,該怎麼辦?全民基本收入是個開始,可以讓人民不挨餓,但對很多人來說,尊嚴和工作綁定在一起——你覺得自己是誰,和你做什麼工作有關。如果我們說給你同樣的錢,坐著就行,這會影響你的尊嚴。
主持人:你之前說過人工智慧會超越人類智慧,很多人以為人工智慧在電腦裡,不想用了關掉就行。
Hinton:讓我告訴你為什麼人工智慧更優越,它是數位化的,所以可以在一台硬體上模擬類神經網路,也能在另一台硬體上模擬完全相同的類神經網路,製造相同智慧的複製體。可以讓一個複製體瀏覽網際網路的一部分,另一個瀏覽不同部分,同時保持同步,讓它們的連結強度一致。比如一個複製體在網上學到應該增強某個連結的強度,就能把信息傳給另一個,基於彼此的經驗學習。
主持人:你說的連結強度,就是學習過程?
Hinton:是的。學習就是調整連結強度,比如從2.4的權重調到2.5,這就是一點學習。兩個相同的類神經網路複製體有不同的經驗,看不同的數據,但透過平均權重來共享學習成果。它們可以在瞬間平均數萬億的權重,而人類傳遞信息只能靠句子,一句可能只有100位元,每秒傳遞10位元就不錯了。
人工智慧傳遞信息的效率比人類高數十億倍,因為它們是數位化的,不同硬體可以運行完全相同的連結強度。而人類是類比的,你我的大腦不同,即使我知道你所有神經元的連結強度,對我也沒用,因為我的神經元工作方式和連結方式略有不同。
主持人:是什麼讓你加入Google?你在Google工作了大約十年?
Hinton:是的。我一個兒子有學習障礙,為了確保他永遠不會流落街頭,我需要幾百萬美元,而當學者賺不到這麼多錢。我試過,教Coursera課程,希望賺大錢,但沒什麼錢。所以我想,唯一能賺幾百萬的方法就是把自己賣給大公司。
幸運的是,65歲時,我有兩個才華橫溢的學生,他們開發了AlexNet,這是一個很擅長識別圖像中物體的類神經網路。我和伊利亞、亞歷克斯創辦了一家小型公司,進行拍賣,很多大公司競標,公司叫DNNResearch。AlexNet因遠超競爭對手的能力獲得了多個獎項,最終Google收購了我們的技術和其他技術。
主持人:你多大年紀加入Google的?
Hinton:65歲,工作了整整十年,75歲離開。
主持人:在Google主要做什麼?
Hinton:他們對我很好,說你想做什麼都行。我研究了知識蒸餾,效果很好,現在人工智慧領域常用,蒸餾是將大模型的知識遷移到小模型中。最後我對類比計算很感興趣,想知道能否讓大型語言模型在類比硬體上運行,以減少能耗。正是在做這個研究時,我開始真正意識到數位化在信息共享方面有多優越。
主持人:有頓悟時刻嗎?
Hinton:有那麼幾個月,ChatGPT的出現。雖然Google一年前就有類似技術,我也見過,對我影響很大,最接近頓悟的是Google的Palm系統能解釋笑話為什麼好笑,我一直認為這是里程碑。
如果能解釋笑話為什麼好笑,說明它真的理解了。結合數位化在信息共享上遠優於類比的認知,我突然開始關注人工智慧安全,意識到這些東西會比人類聰明得多。
主持人:為什麼離開Google?
Hinton:主要是因為75歲想退休,但我退休生活過得很糟。離開的具體時間選在能在MIT的會議上自由發言,但根本原因是我老了,程式設計越來越困難,犯錯越來越多,很煩人。
主持人:你想在MIT的會議上自由說什麼?
Hinton:人工智慧安全。在Google時也可以說,Google鼓勵我留下研究人工智慧安全,說我想做什麼都行,但在大公司工作,會覺得說可能損害公司的話不合適,即使可以說,也覺得不對。我離開不是因為對Google有什麼不滿,我認為Google行事很負責,有大型聊天機器人卻不發布,可能是擔心聲譽,他們聲譽很好,不想損害。而OpenAI沒有聲譽,所以敢冒險。
主持人:如果要給我的聽眾一個關於人工智慧和人工智慧安全的結束語,你會說什麼?
Hinton:我們仍有機會弄清楚如何開發不會想要取代我們的工智慧。因為存在機會,我們就應該投入巨大的資源去努力實現這一點——如果不這樣做,人工智慧就會取代我們。
主持人:你抱有希望嗎?
Hinton:我只是不知道,我是不可知論者。晚上躺在床上思考各種結果的機率時,你內心一定有偏向,我想每個正在收聽的人內心都有一個可能不會說出口的預測,他們認為事情會如何發展。
我真的不知道,我真心不知道,我認為這充滿了不確定性。當我感到有點沮喪時,我覺得人類完蛋了,人工智慧會接管;當我感到樂觀時,我認為我們會找到方法。
主持人:在這個播客中,我們有一個結束傳統:上一位嘉賓會在他們的日記中留下一個問題,留給你的問題是:鑑於你所看到的我們前方的一切,你認為對人類幸福最大的威脅是什麼?
Hinton:我認為失業是對人類幸福相當緊迫的短期威脅。我認為如果讓很多人失業,即使他們有全民基本收入,他們也不會幸福,因為他們需要目標,需要奮鬥,需要感到自己在做出貢獻,自己是有用的。
主持人:你認為大規模失業這種結果發生的可能性大於不發生嗎?
Hinton:是的,我這樣認為。我認為這一點的可能性肯定大於不可能性。如果我在客服中心工作,我會感到害怕。
主持人:大規模失業的時間框架是怎樣的?
Hinton:我認為已經開始發生了。我最近在《大西洋月刊》上讀到一篇文章,說大學畢業生已經很難找到工作,部分原因可能是他們原本能得到的工作已經被人工智慧占用了。我和一家知名大公司的首席執行官聊過,很多人都在用他們的產品。
他在私訊中告訴我,他們曾經有7000多名員工,到去年減少到5000人,現在有3600人,到夏天結束時,由於人工智慧代理人(AI Agent),他們將減少到3000人。所以裁員已經在發生,是的。他的員工減少了一半,因為智慧代理人現在可以處理80%的客戶服務諮詢和其他工作,所以這已經在發生了。
本文素材來源The Diary Of A CEO,如有侵權請聯繫刪除