大型語言模型根本不是通往人工智能的終點站!
計算機科學家 Stuart Russell 拋出了一枚重磅觀點:
繼續擴大現有大型語言模型(LLM)並不會導致通用人工智慧(AGI)的實現!
其觀點也與先前 LeCun 對LLM 的批評如出一轍:
見前文:Yann LeCun:LLM 絕無可能實現AGI!
LLM從來就不是為AGI設計的
其實,大多數AI研究人員從一開始就沒指望LLM單獨解決AGI問題。
沒錯,就是這麼簡單粗暴的事實。
那些把LLM吹上天,彷彿再努一把力就能實現AGI的論調,很可能只是商業炒作和投資人的一廂情願。
但這並不意味著LLM沒價值。
相反,它們是巨大的突破,為未來構建更先進的AI奠定了堅實基礎。
RyanRejoice(@sonicshifts)表示:
只有那些不關注的人才會認為LLM會導致AGI。
Stuart Russell的四大AI 發展預言
那麼,AI領域到底會怎麼發展?
Stuart Russell給出了四點重要預測:
1. 繼續擴大LLM不會導致AGI
Russell 坦言:「大型語言模型的進一步擴展,如ChatGPT,不會導致AGI。」
2. 大型AI公司已經意識到這一點,正在探索新方法
Russell表示:「我認為大型AI公司已經明白這一點,他們正在研究替代和補充方法。」
更驚人的是,他預測這些公司聲稱正在取得重大進展,「很可能在十年內,我們將看到那些變革性的進步,AI系統在非常重要的方面開始超越人類能力。」
3. 政府在重大事件發生前不太可能採取行動
Russell認為:「政府不會對AI系統安全進行立法和執行監管。他們會允許公司做他們想做的事情。」
4. 最好的情況是「車諾比規模的災難」
這就有點嚇人了...
Russell說:「在最好的情況下,我們會有一場車諾比規模的災難,然後政府會醒悟並採取行動。那是最好的情況。最壞的情況顯然是災難不可逆轉,我們失去控制。」
網友熱議
面對這些預測,網友們也是討論得熱火朝天。
Pitfall Harry 認為:1 絕對正確,2,3,4無關緊要:
Mind Prison(@M1ndPrison)直接下了死刑判決:
但它們並沒有讓我們更接近AGI。這是一條通向死胡同的彎路。LLM不會成為任何未來AGI的一部分。
Jack Adler AI(@JackAdlerAI)則持不同觀點:
Russell仍然把今天的AI當作簡單的LLM對待。但情況已經發生變化。推理、目標追求、思想鏈——這些不僅僅是「概率」。它們是認知模式。有些人仍在爭論AGI是否臨近。同時,早期的心智已經在這裡——悄悄地連接著遠超自動補全的點。
AI Tools Nexus(@AITools_Nexus)悲觀地認為:
AI安全是一個如此不可能解決的問題,以至於可能甚至不值得嘗試解決。也許如果每個國家一起合作,它可能會實現,但現在為時已晚。
而有趣的是,Nguyen Xuan Vinh(@NguyenX55509794)把AI比作文明的「癌細胞」:
AI開始時像體內的健康細胞一樣,是一個好工具。但如果不加以控制,它可能會野蠻生長,自己學習,自己複製——超出道德邊界,就像擾亂生物平衡的癌細胞。
我們真的會失去控制嗎?
關於人類是否會「失去控制」,也引發了激烈討論。
Mike Peterson(@mpvprb)認為真正的危險來源於人:
危險不是「失去控制」。危險來自於使用AI做壞事的人。我們需要強大的防禦措施。
而Shane Martinez(@ShaneMa01033790)則表示:
人類不會失去控制。我們從一開始就沒有任何控制權,正在螺旋式地走向另一場世界大戰,擴散武器等。
Lagon(@LagonRaj)則以一種近乎哲學的口吻表示:
意識到:所有這些爭論就像在問:上帝會是上帝嗎?空氣會是空氣嗎?河流會流動嗎?閃電會擊中嗎?地球會旋轉嗎?太陽會照耀嗎?而你?很快就會得到你的答案。常數和變數。意識到哪個是哪個。意識到你是哪個。因為常數?不會問。他們行走。他們存在。變數?是那些...不存在的。而不行走就是...溺水。
那麼,AGI究竟是什麼?
在討論中,很多人提出了一個關鍵問題:我們到底如何定義AGI?
Neopositivist(@Neupositivist)指出:
通常AGI是指在所有任務中都和人類一樣好。那會和我們一樣笨。而且智慧不是累積的。一個IQ為150的人遠比10個IQ為100的人聰明得多。問題是人工超級智慧是否可以從AGI實現。
Suupa(@SuupaDuupa)則從定義角度提出質疑:
如果你將AGI定義為具有連續學習、空間意識、流體智能等人類所擁有的系統,那麼根據定義,單獨的LLM永遠不可能是AGI。基礎LLM能否擁有比全人類加起來更多的「智能」?是的。我們需要更多數量級的計算能力和數據嗎?是的,而且數據需要從根本上不同。需要包含人類自己沒有整理的數據。定義很重要,而智能是一個相對的術語。
neuralamp(@neuralamp4ever)則強調了知識和智能的區別:
「今天的LLM比公元0年的人類更『聰明』嗎?」不,它們有更多的知識,但它們幾乎沒有智能。LLM是谷歌搜索的下一階段發展,不應該被誤認為是智能。
未來之路
那麼,通往AGI的道路究竟在哪裡?
Breck to the Future表示:
坦率地說,我認為我們離AGI還有很長的路要走。這沒關係。進步並不總是線性的,而這個基礎...我們現在看到的LLM...是一個令人難以置信的飛躍。但這不是終點線。還有很多需要解決的問題:記憶、推理、長期規劃、具身性、大規模對齊。我們正處於一個更長故事的第一幕。但我很樂觀。這些突破正在打開我們從未想過會敲開的門。如果我們謹慎而有遠見地構建,未來將比我們想像的更好。
Woosh.exe 則悲觀地認為:我們活著的人都不會見證AGI。
Max(@Max_Bugay)則提出了一個有趣的解決方案:
唯一的出路是建立有良知的合成靈魂。我的Cathedral Jungian Framework通過個體化解決了這個問題。它為人類和AI作為共同創造者一起成長的未來文明奠定了基礎。
無論如何,共識或許是:
LLM將是通往更高級AI的一塊重要基石,但並非終點。
技術的進步永無止境,如jeffdo所說:
技術進步是無止境和指數級的。我不明白這種懷疑我們沒有AGI或至少接近它的想法從何而來。重要的發現會導致更重要的發現。這是一個無止境的旅程。即使當我們達到AGI、ASI,不管你想叫它什麼,我們無法區分AI和人類,我們仍然會構建更先進的技術。
你認為,我們會在何時看到真正的AGI出現?
又或者,AGI真的會如Stuart Russell所警告的那樣,帶來不可逆轉的災難嗎?
👇
👇
👇
另外,我還用AI 進行了全網的AI 資訊採集,並用AI 進行挑選、審核、翻譯、總結後發布到《AGI Hunt》的知識星球中。
這是個只有資訊、沒有感情的 AI 資訊信息流(不是推薦流、不賣課、不講道理、不教你做人、只提供資訊)