編輯 | 聽雨
「我們正走向一個運算極度稀缺的世界,而能源將是下一個巨大的瓶頸。」
「未來,所有的授權都會變成『角色扮演』授權。」
「我們希望能建立可以自主思考一年、甚至十年的AI。」
以上觀點出自幾天前OpenAI聯合創辦人兼總裁Greg Brockman在DevDay期間的一場閉門深度訪談,時間是Sora 2發布後不久。
這場訪談中Greg表現得十分真實和坦誠,資訊密度極高。
Greg沒有迴避OpenAI面臨的困境,他用"pain and suffering"(痛苦與掙扎)來形容內部的運算資源分配決策,以及他們如何從一家純軟體公司轉變為需要考慮建設資料中心、甚至自建能源設施的基礎設施公司。
他直言美國的能源供應將成為AI發展的最大瓶頸。此外,他還分享了基礎模型(base model)與後期訓練模型(post-trained model)的對比,以及對AGI定義的重新思考。
除了坦誠當前最大的瓶頸是運算與能源,Greg還首次系統解釋了:
- 為何將Sora 2 從技術模型打造成一款社交產品。
- AI代理人(Agent) 將如何改變網際網路的貨幣化方式。
- 在內部,他們如何像玩「俄羅斯方塊」一樣,痛苦地分配極度稀缺的GPU資源。
- 他對AGI時間表的最新看法,以及人類在其中的價值。
小編在這裡精編了整場對話內容,資訊密度極高,建議收藏細讀。
模型擴展與Transformer架構的普適性
主持人:
Sora 2 上週發布了,擴展一個像Sora 這樣的模型是怎樣的體驗,它與文字或圖像模型有什麼不同?
Greg Brockman:
我想從基本層面來思考,所有的東西仍然是深度學習,機制是一樣的,底層原理也沒有變化。你需要擴展大量的運算資源,進行正向傳播和梯度計算。從更細節的層面看,它依然是Transformer,這一點非常驚人。你用不同的方式進行訓練,採用不同的處理過程,涉及擴散等概念。你在考慮如何將運算能力注入這些模型,但從根本上講,最令我驚訝的是,儘管我們討論的是文字和影片,它們似乎是完全不同的模態,但它們的底層運算過程有著巨大的重疊。這點真的很深刻。
主持人:
你認為Transformer 架構會推動我們邁向下一個階段嗎?甚至是實現全世界級的模型,Sora 2 顯然是朝這個方向邁出了重要的一步。
Greg Brockman:
是的,我認為有兩點需要說。首先,我認為有很多問題值得討論,比如我們是否遺漏了重大的創意,是否需要像Transformer 這樣的創新。我認為創新的空間依然很大,我們已經看到過這種進展,演算法的提升步伐也在保持同步。
我們做過多年的研究,追蹤模型進化的曲線,我不認為這些進展會停滯。擴展曲線和資料曲線仍在繼續,而正是這些推動了這場革命。每一個環節都有自己的限制因素,你只需要不斷調整,你會看到模型的性能顯著提高。所以,我認為我們還有很多東西可以建設。如果AGI看起來跟現在的模型有些相似,我並不感到驚訝,但如果它完全一樣,我會非常震驚。
主持人:
當你查看這些不同類型的模型時,雖然它們都是基於Transformer的,但它們的成本差異大嗎?你們是如何衡量不同類型模型的單元經濟學的?
Greg Brockman:
是的,確實存在不同的性能特徵,有時我們會使用不同的推論堆疊,最佳化方法也不一樣。一些模型可能會更適合不同類型的硬體,在記憶體和運算之間的平衡可能存在差異。
很多系統的工作在細節上看起來非常不同,當你試圖從硬體中擠出極限性能時,它會推動你走向非常不同的方向。但歸根結底,我們始終認為,推動這一切創新並將其帶到世界的核心驅動力仍然是運算。
AMD合作進展與晶片生態的挑戰
主持人:
最近OpenAI和AMD的合作宣布了新的進展。那麼,建構在AMD硬體上與其他硬體有根本性的區別嗎?是說我們現在可以呼叫越來越龐大的資源池,還是需要進行深度技術改進?
Greg Brockman:
我們實際上已經在多個方面投資了AMD的軟體,因為我們在Triton基礎上建構。Triton是一個我們資助的專案,它幾乎支撐了我們大多數GPU。
我們目前面臨的最大挑戰是推論與訓練。推論的固定成本已經很高,而訓練的固定成本更高。現在,我們已經能夠透過很少的工作量使用AMD軟體並獲得不錯的表現。這一切得益於我們與AMD長期的合作關係,我們也提供了很多回饋。現在,從推論角度來看,我們感覺在擴展方面已經有了不錯的進展,並且每種硬體平台都有適合它的定位和創新。
主持人:
你是否曾考慮過像Cerebral或其他類似的公司,它們在晶片架構上採用了不同的路徑,你是否考慮過這些新興競爭者?
Greg Brockman:
是的,2017年我們看到Cerebral時非常興奮,因為它是一個完全不同的範式。你看到這些數字時,會覺得「哇,如果我們有一百萬個這樣的設備,我們就能實現AGI」。這顯然是一個非常不同的、非常特別的平台。
然而,事實證明,建構非GPU架構的挑戰遠比我們預期的要大。在2017年,我們非常積極地考慮了整個生態系統,試圖與不同的晶片公司溝通,給他們一些建議,告訴他們工作負載應該如何設計。老實說,大部分公司並沒有聽取我們的建議。這就像是2017年時。
主持人:
OpenAI當時確實與現在很不一樣。
Greg Brockman:
你會很驚訝地發現,有些人現在仍然沒有聽取我們的建議。不過,我認為很大程度上,這並不是因為他們認為我們錯了,而是因為如果你從晶片行業的人角度看問題,他們的思維方式是固定的,無法理解工作負載的需求。當你試圖說,「不,不,問題應該從另一個角度來看」,那時你才會發現,模型應當是大型的,而不是小型的。如果你不接受這種設計思路,很難改變你原本的世界觀。所以,成功的公司通常是那些從深度學習角度切入的,或者至少能夠理解工作負載發展方向的公司。
當前最大的瓶頸:運算與能源稀缺
堪稱「痛苦與掙扎」
主持人:
當你看到從電腦建設到推論服務的整個流程時,你認為今天最大的瓶頸在哪裡?
Greg Brockman:
我認為我們正走向一個運算極度稀缺的世界,而能源,尤其是在美國,將會成為一個巨大的瓶頸。而且現在供應鏈中有許多環節尚未適應我們預見到的需求。因此,這就是我們多年來一直在反覆強調的事情:我們需要建設更多的運算能力。
主持人:
關於OpenAI是否正在開發自己的晶片,也有很多流言。那麼你們是否考慮過投資自己的能源系統?或者在這方面做一些新的嘗試?
Greg Brockman:
如果你問我十年前的自己,2015年的我,我們會告訴你我們要建設AGI。當時我們將其視為一個軟體任務。
但實際上我們逐漸意識到,運算能力就是建構AGI所需的基本物質。它是可以更容易擴展的,而不像其他資源那樣難以擴展。這就是為什麼我們如此專注於運算能力。
你不得不將其推到極限,而後你開始意識到,實際上你需要建設巨大的物理基礎設施。所以我們現在正走入這個領域,開始像Stargate那樣建設自己的資料中心。
我認為我們現在的瓶頸主要取決於市場是否能夠及時回應我們所傳遞的需求。我們已經很大聲地向市場發出了訊號,這不僅僅是來自OpenAI,而是整個產業的需求。如果市場能醒悟並回應這些需求,那我們就能避免自己去開發能源基礎設施。
主持人:
但是我們還是要完成任務的。因此,在目前有限的GPU和運算資源下,你們有許多互相衝突的需求,包括消費者產品、企業產品、開發者API和訓練。你們如何決定這些運算資源的分配,如何在內部進行協調?
Greg Brockman:
痛苦與掙扎,這是最真實的狀態。非常艱難,因為你看到各種令人驚嘆的專案,很多人來推銷自己的想法,你會覺得「這真是太棒了!」
主持人:
你們做得如此多,如何選擇該做什麼呢?像我們這樣的公司規模小,做決策都很困難。你能不能描述一下OpenAI內部如何處理這些問題?
Greg Brockman:
從機制上講,我們現在已經有了一個流程。比如,Jakub Pachocki(OpenAI首席科學家)和Mark Chen(OpenAI首席研究官)負責決定運算資源的分配。不過更廣泛地講,研究和應用部門之間有分歧,通常由Sam和我來協調最終的決策。
在研究方面,我剛才描述了運算資源是如何分配的。在具體操作層面,我的團隊中有一些人專門負責這個艱鉅的任務——實際排程GPU資源。你知道,這是一個非常有趣的過程。例如,Kevin Park就是我的團隊成員之一,當你去找他時,告訴他,「我們需要更多的GPU來支持這個新專案」,他就會說:「好的,現在有五個專案正在接近完成,這個新專案要先完成。」然後我們就能調整資源。
這就像是在做「俄羅斯方塊」遊戲一樣,非常驚人地看到整個過程的實現。我覺得運算資源的分配不僅僅是一個簡單的決策,它實際上是一個非常複雜的協調工作,一些部分由人來解決,有些部分則由表格來管理。真的是非常有趣的過程,能夠親眼見證這一切,尤其是在團隊生產力的推動下,人們對是否能獲得運算資源的關注度是無法低估的。
主持人:
你們宣布了一個新舉措,正在將「網路」引入ChatGPT。你展示了Zillow的例子。隨著應用程式逐漸轉向更加原生的體驗,你們如何看待這種網際網路體驗的解耦?隨著代理人越來越多地在我們的名義下瀏覽,似乎人們親自上網瀏覽傳統網站的時間在減少。你認為接下來的18個月會是什麼樣的?
Greg Brockman:
實際上,我想在回答前一個問題時補充一下。我認為我們正在朝著一個以運算能力驅動整個經濟生產力的世界前進。你在OpenAI中看到的這種小型生態系統,我認為在未來會在各個地方出現。所以我真正認為的是,我們需要建設計算能力,以緩解運算資源稀缺的問題,並且在我們面臨運算分配問題時,能更好地處理這些問題。
主持人:
你認為目前供應和需求的比例是什麼樣的?
Greg Brockman:
我們離目標還遠嗎?哦,我覺得我們還遠得很。我不確定具體差距有多大,但我可以說,如果我們現在的運算能力增加十倍,我們的收入是否能增長十倍?我不確定,但可能會增長五倍。因為我們有很多產品在等待發布,卻無法推出。
你可以很直觀地看到一些專案,比如Pulse,它現在只有專業版。Pulse是一個很棒的專案。
主持人:
是的,我們之後會討論這個專案。這個專案真的對運算資源要求很高。
Greg Brockman:
我們確實需要更多的運算資源。
AI代理人正在重塑網際網路?可能會出現新的貨幣化方式
主持人:
讓我們討論一下網際網路的解耦問題。你會發現,瀏覽網際網路的基本方式正在發生劇烈變化,尤其是隨著代理人開始為我們瀏覽網際網路,並且現在將傳統網站引入ChatGPT。你對這種變化怎麼看?
Greg Brockman:
我覺得ChatGPT真的讓你意識到,去一個靜態的網站只是為了查看資訊是多麼不自然。就像瀏覽一些靜態資訊一樣。
你在瀏覽頁面時尋找一個你需要的事實,但大部分頁面的內容都與之無關。我們幾乎已經跨越了這個階段,儘管偶爾還會遇到,但它已經不再是主流,也不再是人們希望去做的事情。當你意識到你花了那麼多時間去做這些事情時,這其實並不增加任何價值,就像是在大海撈針。實際上,應該是機器來為你做這些事情。
我認為,隨著應用程式和ChatGPT這樣的動態應用程式的發展,未來我們將不再需要進入網站點擊一堆按鈕去做一些動態操作。那感覺像是完全倒退的事情,我們本應該早就突破這一點。所以我認為,我們正朝著一個人們會更加重視自己時間的世界發展,因為現在已經沒有藉口浪費時間在那些不產生價值的事情上。如果人類沒有在思考、創造或提供回饋,那就是AI的工作了。
主持人:
那麼這將如何改變網路的貨幣化方式呢?你知道,傳統上,網路是基於CPM廣告盈利的,使用者給網站提供瀏覽量,網站則提供一些免費的內容和廣告。但當代理人在你的名義下進行瀏覽,尤其是當你將像Zillow這樣的網站帶入ChatGPT時,就會產生一些衝突。比如,他們是否仍在展示廣告?那這樣的模式會是什麼樣子?你如何看待隨著這些變化的發生,網路貨幣化層面的變化?
Greg Brockman:
實際上,真相是,現在沒有人知道確切答案。但我認為我們可以看得到這個趨勢,我們必須探索並找到合適的方式來調整新的貨幣化模式,找到正確的擴展方式。我認為從根本上來說,這些技術對使用者提供價值提出了新的要求。
如果你看看ChatGPT,現在它是一個訂閱制的產品,對吧?我們可能在三年前推出時沒有預測到這一點,但人們願意為它付費,因為它確實增加了價值——無論是對個人生活還是職業生活都有幫助,這種價值是全面的。因此,我並不是說廣告就沒有位置,但我認為現在的廣告形式,比如你無意識地滾動頁面,去找某個你關心的句子,結果你只是碰巧點擊了某個廣告頁面,這種廣告方式不再是價值的主要推動力。
不過,我確實認為會出現新的收入模式,會有新的貨幣化方式。而且,老實說,我認為這是目前最激動人心的時刻。
ChatGPT並非「另一個應用程式商店」
主持人:
這確實是一個建構的黃金時代。如果回想十多年前,看看行動網際網路過渡時期的出版商,很多公司在進入蘋果的應用程式商店後變得依賴於它。那麼你會怎麼向他們解釋,為什麼這次不一樣,為什麼ChatGPT可能成為你人工智慧體驗的「主頁」?
Greg Brockman:
我認為這個故事還沒有寫完。我有一個觀察,AI似乎總是會以一種令人驚訝的方式發展,完全不同於我們以前見過的任何東西。
它有些元素讓人聯想到過去,但我認為沒有一個明確的類比。比如說,「這是網際網路的延續」、「這是行動網際網路的延續」或者「這就像應用程式商店」。我認為它是一些全新的東西。那麼,你希望如何與AI互動呢?是透過一個網站來中介你與其他所有事物的互動嗎?我不確定。
因為AI的意義之一是將機器帶得更接近人類,而不是你要強迫自己去思考:「哦,那裡有一個URL,我得去造訪那個網站。」其實,機器應該直接按照你的需求來做,甚至主動地去思考你可能想要什麼並為你去做。我認為這種範式的轉變,可能會改變我們對入口點和機會的看法。所以我認為這裡有非常大的發展空間,我並不確定是否可能透過一個門戶來實現與所有事物的互動。
從被動工具到主動夥伴:AI自主性的未來
主持人:
我想繼續問你一個問題。你認為我們離AI能夠預測我大多數需求的那一天還有多遠?當ChatGPT首次發布時,它是一個非常被動的工具。我給它提示,它會返回相應的內容。現在,像Pulse這樣的功能開始變得更加主動。你如何看待在未來24個月裡,AI從反應性到主動性之間的比例變化?
Greg Brockman:
我看到主動性將變得更加重要。比如,你給AI一個小任務,它可能會花一天、一周、一個月的時間來思考。我們的目標是建立能夠在一年、甚至十年內主動思考的AI。這就像人類一樣。
主持人:
這是否意味著在這段時間內完全沒有人工干預?
Greg Brockman:
我覺得有點像人類解決費馬定理的過程。比如說,安德魯·懷爾斯花了十年時間基本上自己解決了這個問題,雖然他並不是完全沒有和人類互動,但他大部分時間是獨立思考的。這也是我們想要達到的目標。
我們希望AI能夠幫助我們解決宏大的問題。能夠有AI自主去做生產性工作,而不需要我們不斷地進行微觀管理。這對人類來說很痛苦,對AI來說也是如此。我們希望建立這樣一個世界:你可以選擇是否進行微觀管理,然而,如果你總是對生產性的人類進行微觀管理,他們很可能會很快感到不快。所以,我認為這種轉變將徹底改變工作方式,你將能夠真正選擇自己想花時間去做的事情。
主持人:
我看到很多關於AI能夠獨立思考多少小時的討論。通常,它可以自主思考很多小時。那麼,你如何看待AI能夠自主思考的持續時間與它在這段時間內能完成的任務之間的權衡?比如,如果它花了30小時才完成「1+1」的計算,這顯然與解決癌症問題的複雜性不同。你是如何看待在給定時間窗口內的智慧壓縮與延長時間窗口之間的權衡?
Greg Brockman:
是的,我覺得這是一個很好的問題,而且很容易出現一些看似有意義的標準,但實際上可能會誤導你。正如你所說的,某些問題需要更多的思考、更強的運算能力和更多的運算資源。你真正想要的是一個能夠高效地去思考一天的AI,解決這些複雜的問題。但如果我們能輕鬆解決它,那就太好了。
主持人:
對,像十個土星那樣。
Greg Brockman:
如果能做到那樣,當然很好。我覺得這些問題是兩個不同的維度,重要的是我們要在這兩個維度上持續推動。
主持人:
那好,考慮到這個問題,Codex能夠完全自主思考多久呢?目前的紀錄是多少?
Greg Brockman:
實際上,我並不知道具體的紀錄是什麼。我想我們曾經發布過相關數據。我知道有一些人報告說,Codex已經能夠獨立思考七個小時左右,但我不確定這個是不是極限。你可以在網上找到相關的資訊。我的意思是,現在我們已經能夠在一些有趣的問題上投入大量的運算資源了。
Sora 2 為何成為社交產品?
主持人:
讓我們來聊聊Sora 2。我想我團隊的一些成員可能有點上癮了,使用起來真的非常好。你們在開發這個新模型時,從Sora 1到Sora 2,你們為什麼決定把它做成一個社交體驗,而不是像Sora 1那樣,以更傳統的方式發布和使用?
Greg Brockman:
我們通常在思考要建構哪些功能時,主要是看模型的能力,這也是我們最終推出ChatGPT的原因。我記得當時我們在進行聊天功能的基礎設施開發,而後推出了GPT-4。
那時我們做了第一個訓練,並且我們當時只是做指令跟隨,即使用一組資料集,模型接收一個問題並提供回答。我記得當時我嘗試過另一個方法:給模型提供另一個問題,這個問題的答案依賴於前一個問題的上下文。模型應該能理解並利用這個資訊,但實際上它沒有做到。
你會想:「哇,這個模型很聰明!它能夠進行這種推論。」它顯然想成為一個聊天模型,技術已經發展到應該將它作為聊天系統發布的地步。
對於Sora 2,確實有一些相似的感覺,尤其是在思考模型的優缺點、它能做什麼以及它的新穎性方面。因此,我們有很多方向可以走,仍然有許多未走的路。就我個人來說,任何一個介面,任何後期訓練的模型,都會讓人覺得稍顯遺憾,因為你實際上縮小了原始模型的能力範圍。原始的基礎模型非常有趣,它們很難使用,但其中蘊藏著無窮的可能性。
主持人:
我能理解,你們在決策時背後一定有很多考慮。
Greg Brockman:
我認為這點外界並不完全理解,這讓我感到有些惋惜,因為我們曾經發布過基礎模型。比如GPT-3那時就是一個基礎模型,非常完美,但非常難用。
你用過GPT-3嗎?那時你需要提供六個任務範例,模型才會知道如何回答。
主持人:
我明白了,原來這是模型處於基礎階段,而不是它經歷過多次迭代後變得更好。
Greg Brockman:
是的,你應該這麼理解。這些基礎模型,我們訓練它們做的是「下一個步驟預測」,它們幾乎在觀察人類的思維、行為,以及所有公開的資料。
它就是在說,給定這個前綴,接下來是什麼?接下來是什麼?在推論時,它就像是從某個公開資料中提取出一個文件,並詢問:「接下來是什麼?」
然後,你需要考慮如何將查詢格式化成一種在自然發生的分佈中能出現的方式。於是就發現了這樣一種模式,如果我有一個問題和答案,然後再提供另一個問題和答案,模型會知道接下來應該是一個答案。但如果只有問題,那接下來可能是另一個問題。
這就像是在引導AI進行角色扮演,讓它覺得自己正處於某個合理的檔案中,且符合訓練資料的分佈。
然而,這麼做非常難用,用戶體驗非常差,產品並不好用,且我們無法控制它表達出來的行為和價值觀。它有點像一個人,透過觀察這個世界累積知識,擁有對一切的理解。有人曾經比喻說,基礎模型更像是在訓練人類而不是一個機器人。它包羅萬象,擁有所有的價值觀、世界觀。
所以,當你問它如何回應某個特定情況時,基本上人類可能做出的任何回應,它都能做到。如果你想讓模型專注於一組一致的價值觀,那麼就需要有其他步驟來引導它。這就是後期訓練的意義。後期訓練的目的是將這塊「原始智慧」進行精煉,最終形成一個更加一致的個性或行為模式。
主持人:
這是否意味著決定將其做成更社交化的產品是在後期訓練之前做出的?還是說,你們發現它在模仿方面有特別的天賦?
Greg Brockman:
這個過程其實是一個疊代循環:你首先拿到基礎模型,看看這個模型如何表現。然後你會嘗試給它不同的提示,看到某些反應時會覺得:「哦,這個真有趣!如果它能在這個任務上可靠地工作該多好!」你不需要做很多額外的工作。
基礎模型就像是世界上最好的原型引擎,但它們並不可靠。因為要找到合適的提示讓模型完成你想要的人物是非常困難的。這實際上是一個溝通問題,之後的後期訓練就是為了更好地進行這種溝通。
角色扮演的必然:AI形象授權的未來趨勢
主持人:
你的「角色」是否公開?
Greg Brockman:
我的角色目前並沒有公開。
主持人:
我把我的角色公開了。我記得Sam Altman也提到過,實際上,允許別人操控自己的形象竟然讓人出奇地舒適。你覺得如何?
Greg Brockman:
確實挺有趣的。老實說,關於我的「角色」狀態並沒有想太多,因為我覺得六個月後,無論我們做什麼,肯定會有其他公司發布一種允許你做「角色扮演」的影片模型,而且沒有限制。所以我覺得我們正朝著一個這樣的世界前進,那時我們的所有授權都會變成「角色扮演」。
我覺得我們站在這個技術前沿的部分意義就在於,讓更多人理解這項技術的未來發展方向,並盡量以一種有益的方式發布它。你可以從我們的選擇中看到這一點,但我們也不認為我們能完全控制這項技術,因為我們並不是唯一在建設它的公司。
世界模型之爭:語言模型能否通向AGI?
主持人:
Sora 2,它是一個世界模型,能夠模擬世界。楊立昆(Yann LeCun)曾經說過,語言模型不足以實現AGI,因為僅靠語言無法建構世界模型。你同意這個觀點嗎?為什麼同意或者不同意?世界模型在AI和AGI的發展中扮演著怎樣的角色?
Greg Brockman:
我喜歡從過去五年、十年的AI進展中汲取經驗,看看我們已經透過實驗證據證明了什麼。我認為語言模型缺乏世界模型。
語言模型雖然能處理書面語言中的資訊,但它們並沒有建構一個完整的世界模型。順便說一下,這是一個長期存在的爭論。這不是近十年的事,而是有幾十年的歷史了。我的意思是,我們本來是無法預測GPT-4能做的很多事的。你可以問它一些問題,比如:「我把水瓶放在桌子上,然後擰開瓶蓋,再把瓶子放到桌子下面,瓶蓋在哪裡?」你覺得它能回答這個問題嗎?
主持人:
我曾經有個測試,「杯子裡有一顆彈珠,把杯子從桌子上拿起來,彈珠會在哪里?」如果模型很聰明,它應該知道彈珠仍然在桌子上。我記得GPT-3.5回答不出來,GPT-4能回答正確,GPT-4o及之後的模型都能做到。
Greg Brockman:
對,即使它不能完美地解決一些複雜的任務,但它展示了令人印象深刻的進步。比如,GPT-4已經能夠在一些高級任務上取得不錯的表現,逐漸走向突破。它的表現讓人感到有一個上升的趨勢。
我覺得現在很容易陷入語義上的辯論:比如,什麼是「理解」?這些模型真的是在「理解」還是只是在模擬理解?這些詞到底意味著什麼呢?我並不確定。但我知道的是,當你給我看一個評估,證明這些任務曾被認為對模型來說幾乎不可能完成,但現在它們能成功地完成時,那才是最有說服力的。
主持人:
這就像Sam Altman之前說的,智慧其實就是預測,預測即是智慧。而這似乎也支持一個類似的觀點:大語言模型實際上能實現AGI。
人類的工作會被AI替代嗎?
主持人:
老實說我想問一下,我的工作會有危險嗎?你知道,Mr. Beast說AI會威脅到內容創作者的生計,現在這正是我的工作。我應該擔心嗎?你怎麼看?
Greg Brockman:
AI將改變很多工作。現在很多人從事的工作可能會在未來發生巨大的變化,要么完全變得無法識別,要么根本不存在。但也會出現我們現在想不到的新工作機會。
這些新工作會是什麼樣子?它們的形態如何?我們該如何看待這些變化?我認為,在AI革命的過程中,我們將改變社會契約的基本構成。
我認為我們會進入一個「豐盈」的世界。一個即使你不從事經濟性工作,也能享有極高生活品質的世界,因為有太多東西可以獲得。如果你努力拼搏,參與競爭,追求地位,這個世界會提供更多機會,更多可以建設的東西,更多有價值的事物。坦白說,我的答案是:沒人能準確知道AI事件視界的另一端會是什麼樣子,但我知道,它肯定會比我們現在能想像的更加奇特和令人愉悅。
主持人:
我剛剛開始我的工作,所以我希望能夠保持現狀。
Greg Brockman:
我認為,在AI的變化中,有一些東西是人類聯繫的基本元素,不會輕易改變。比如人類的情感聯繫,這對於AI來說是非常有趣的。我也認為,像技工、水電工、電工這樣的人才是在目前已經很短缺的,AI要去代替這些領域是非常困難的,因為這些領域需要更多的實際操作能力,而AI很難在這些領域真正創造價值。
OpenAI潛在的平台風險
主持人:
讓我們談談Codex和OpenAI發布的其他產品。你知道我們現在在一個開發者活動上,房間裡坐滿了開發者。你宣布了Agent Kit。那麼,開發者在OpenAI平台上建構應用程式時,應該如何看待潛在的平台風險?我相信你們在內部也有考慮過這個問題。
有個流行的說法是,每次OpenAI舉辦開發者日,都會有一千家新創公司死掉。雖然我不相信這種說法,但我想聽聽你對此的看法。
Greg Brockman:
是的,我們確實經常被問到這個問題。我們也經常在思考這個問題。我們最終希望幫助世界向AI優先進行經濟轉型,而這種轉型應該讓每個人都受益。
但是我們做不到這一點,絕對做不到。我們確實需要和開發者合作。我們需要有人在我們的平台上進行建構,探索如何將這項技術與現實世界連接起來。
我們必須做出選擇,因為我們是一家公司,雖然我們現在有幾千人,聽起來很多,但如果你看整個經濟的規模,我們其實很小。我們必須考慮到不同領域的專業知識和在每個領域做得好的難度。
所以我們必須非常挑剔。我們真正努力思考的是,哪些領域和我們現有的專長有協同效應,或者是我們能看到我們能夠發揮價值的地方。比如編程,這是我們非常擅長的領域。
此外,如果我們在編程上做得好,也能加速我們自己的工作。所以我認為,我們在考慮如何最大化為盡可能多的人帶來價值的同時,也會在我們能夠深耕的特定領域中,盡力做得更好。
主持人:
你認為程式碼是AGI的語言嗎?
Greg Brockman:
這個問題很有趣。我一直認為,自然語言將是AGI的語言。我認為,如果AI之間互相交流,可能會有一種稍微最佳化過的「噪音英語」之類的東西。如果你看看我們今年在國際數學奧林匹克(IMO)中獲得金牌的數學證明,你會看到這些證明其實非常易讀,雖然它們非常簡潔,但它們實際上是AI探索出來的一種有趣的語言。
人類未來的角色:從「提示工程師」到目標設定者
主持人:
人類還會在這個過程中佔有一席之地嗎?我看到這些模型在不斷改進,但目前人類仍然在任務開始時提供提示,並且在最終進行驗證。我認為人類在這個過程中的角色可能會逐漸縮小,但我們現在依然有一席之地。你覺得這種情況會持續多久?會永遠這樣下去嗎?你如何看待這一切?
Greg Brockman:
我確實認為,這項技術的根本目的是讓人類受益,實際上不僅僅是人類,所有能體驗到快樂和享受的生命體,AI應該能提升所有人的福祉。所以問題是,這意味著什麼?
我不認為我們希望生活在一個這樣的世界裡:人類必須花費精力去設計提示語,編寫程式碼來做上下文工程這些機械化的細節。對我來說,這些細節看起來像是遺留下來的東西,它們代表的是電腦過去的模樣,而不是它們應該具備的未來樣態。
我想要的,以及我認為世界應該想要的,是那種讓機器更加貼近人類、理解人類目標並幫助實現這些目標的AI工具。我認為這才是關鍵。我們要確保AI能夠提升人類的生活品質,這是OpenAI的核心使命,並且我們正在努力推動技術朝這個方向發展。
軟體的未來:AI生成一切,人類專注創意與審美
主持人:
好。作為一個經常思考編程的人,你顯然在建構自然語言編程語言方面花了很多時間。幾個月前,我曾在面對面交流時問過你這個問題,你是否認為軟體將來會完全由AI生成,甚至從作業系統級別到螢幕上看到的每一個像素,都會即時生成,假設我們能解決一致性的問題?
Greg Brockman:
我認為是的,這會非常酷。想像一下,完全生成的用戶介面是什麼樣子,實際上是讓人有點腦洞大開的。這就像是一個即時動態的過程,你在做一些事情,像是會不會有按鈕,按鈕在哪兒,最自然的介面是什麼樣子。你開始意識到,我們建構的許多介面其實是圍繞現有作業系統的習慣和偏好而建的。
但如果你能從零開始重新構想,去掉所有遺留的程式碼,沒有資料夾、檔案這樣的概念,那會是什麼樣子呢?我其實並不完全知道答案,但我敢肯定,結果會讓人非常驚訝。
主持人:
讓我們稍微想像一下那個未來。在那個世界裡,還會有開發者嗎?還會有應用程式嗎?
Greg Brockman:
拿一個像Sora這樣的例子來說。順便提一下,Sora對我來說非常有趣,因為我記得看過我們做的一個宣傳影片,影片裡Bill開著雪地摩托,摘下了頭盔,我當時想:「哇,Bill真的是雪地摩托高手啊。」然後我突然意識到他並沒有做這件事。你會發現人類的參與方式是非常不同的。它跟電影裡那種Bill親自去滑雪的場景完全不同,但他依然參與其中,因為他在思考創意過程,而這就是他作為一個表演者的體現。
就像是他透過這種方式出現在影片中,你製作的一個Sora影片裡有他作為表演者的身影,分享出去後,你感到很興奮。而你感到興奮的這一點也讓我感到興奮。實際上,我們從今年早些時候的經驗中學到了這一點。當我們的圖像生成技術(Image Gen)爆火時,大家開始生成自己和家人的肖像。
我們意識到,如果你只是生成一張沒有任何實際背景的圖像,比如一隻狗變成酷炫的動漫風格,沒有人會在意,反而很無聊。這不吸引人。可一旦加入了某些人性化的元素,一些你可以關聯的東西,大家就會開始感興趣了。
我認為,當你看到像你孩子的照片一樣的生成圖像時,AI會透過一些有趣的處理,將它帶入不同的創作維度,這樣就能與觀眾建立聯繫。而且,我想這也可能會影響軟體的開發方式,未來人們會透過這種方式建構應用程式。想像一下,你有一個動態系統,AI扮演開發者的角色,你將任務交給它,它為你編寫出完美的程式碼或創建一個完全生成的用戶介面,然後你將其發布到ChatGPT應用程式商店裡。
主持人:
這真的聽起來像是未來將會更側重於創造一個優質的人工體驗,更重要的是,未來的關鍵將不再是那些硬技術,而是如何審美地進行這種體驗設計,對嗎?
Greg Brockman:
是的,我也這樣認為。我認為確實有一些機械性技能會轉化,而且我們看到每一代模型的進步,嘗試去探索模型的潛力的人,往往能得到最可靠的結果。但本質上,知道你想要什麼、擁有良好的判斷力和品味,才是最關鍵的。
代理人電商:點子不新,關鍵是模型終於能用了
主持人:
你曾是Stripe的CTO,最近你還宣布了代理人電商協議(Agency Commerce Protocol)。這個想法是你早就有的嗎?還是這是最近才在內部發現的:哇,這是一個可以做很多事情的酷點子,讓代理人能夠為我們瀏覽並進行購買呢?
Greg Brockman:
這個領域有一點就是,沒有什麼新點子。所有這些想法,別人早就想過了,我們也想過很多次。真正的新鮮事物是模型已經足夠強大,能夠有效利用這些想法。
你可以從外掛程式的推出看到這一點。我們幾年前做了外掛程式,但當時的模型並不夠強大,外掛程式也用不了太多。模型太複雜,無法正確呼叫外掛程式。所以今天的模型比之前更可靠得多。可以說,新鮮事物不在於點子本身,而是它在今天變得可行了。
主持人:
你會透過ChatGPT進行購物嗎?我知道Sam說他有用。
Greg Brockman:
有趣的是,我其實不太購物,所以最近我所有的購物幾乎都是透過ChatGPT來做的。
AGI是一個持續的過程,而不是終點
主持人:
我們可以談談未來的事情嗎?去年開發者日,我們看到了GPT-4;現在一年過去了,你們發布了這麼多東西。你怎麼看待明年(2026)的發展?然後是2030年的開發者日會是什麼樣子?
Greg Brockman:
這是個很難回答的問題,但我確實認為明年我們會有壹些令人難以置信的模型。我最期待的里程碑是,我們會有能夠解決難題的模型。比如,像2016年AlphaGo對圍棋的突破一樣。那一局第37手的著法,改變了人們對圍棋的理解。想像一下這在材料科學、醫學領域的應用。
我認為我們將看到這樣的真正突破,無論是AI本身,還是AI在頂級人類專家的幫助下解決問題。我覺得我們會看到這種合作的場景。那麼對於開發者來說,這種突破將帶來不可估量的價值。
比如,在金融領域,你可以建構出最先進的應用程式,幫助使用者解決他們最棘手的財務問題,雖然這可能不是金融領域的頂級問題,但我們會開始解決這些極其複雜的問題。需要注意的是,這將消耗大量運算資源,所以我們必須確保這些任務對經濟有足夠的價值,因為否則沒有人願意為這些運算買單。
我覺得我們會不斷思考如何將這些技術推向更深遠的領域。至於2030年,我認為很難做出預測,但我相信我們會比現在更加接近AGI。
主持人:
那你的AGI時間表呢?是否和之前有過調整?
Greg Brockman:
我認為AGI更像是一個持續的過程,而不是一個終點。最初我認為AGI是一個目標,只有完成這個目標才算任務完成,但現在我認為它是一個不斷發展的過程。
在某些階段,AGI可能已經能夠完成與人類相等的經濟價值工作,這會是一個重要的里程碑,但這絕對不是結束。
我覺得人們已經開始從AGI轉向超智慧的討論,或者乾脆拒絕所有這些術語,對我來說,這並不重要。真正重要的是,我們能否實現AI的進步,能否提升整個經濟,並且真正讓人民受益。
我相信,AI將對社會各方面產生深遠的影響,而我們在推動這項技術發展時,始終要確保它是為了提升人類福祉,這就是我們OpenAI的使命。