點擊上方「圖靈人工智慧」,選擇「星標」公眾號
您想知道的人工智慧乾貨,第一時間送達
版權聲明
版權屬於原作者,用於學術分享,如有侵權留言刪除
如今人工智慧(AI)被塑造成一場顛覆性的革命,似乎預示著機器終將超越人類智慧的「奇點」。然而,一個根本問題被忽視:我們是否真正理解AI的能力與侷限?資訊爆炸的今天,知識與資料的邊界日益模糊,AI系統在產生答案的同時,也在製造困惑。《理解和改變世界:從資訊到知識與智慧》作者、中國科學院外籍院士、圖靈獎得主約瑟夫·西法基斯(Joseph Sifakis)指出,當下的AI熱潮,暴露了社會對知識的深層誤解——我們混淆了資訊的堆砌與智慧的創造,高估了機器的「智慧」,卻低估了人類獨有的社會性與道德責任。
目前,AI的「神話」正在全球蔓延。對話式AI如ChatGPT、Deepseek能夠流暢回答複雜問題,自動駕駛技術被賦予「解放人類」的願景,醫療AI被期待解決診斷難題。然而,約瑟夫卻表示:我們今天其實還沒有真正的智慧系統。他認為如今AI對工業的真正影響,幾乎為零。例如小米汽車等自動化工業產品的實踐,事故發生指向AI落地時的風險和標準問題。
再者,約瑟夫提到,即使AI可以在安全性上表現完美,它仍然面臨難以跨越的難題:AI的「智慧」本質上是統計學模型的產物,它缺乏對世界的常識理解,更無法像人類一樣在複雜社會情境中權衡價值與風險。當自動駕駛汽車能完美規避碰撞時,也將難以理解「禮讓救護車」背後的社會契約;AI可以預測地震,但其結論如同黑箱,科學家無從追溯邏輯。這些侷限不僅是技術問題,更是人類對自身認知能力的反思——我們是否將「效率至上」凌駕於對可靠性與責任的追求?
更深層的危機在於教育與社會價值的重塑。當現代學生依賴AI工具完成作業,當年輕人過度物質主義將職業選擇簡化為「高薪與否」,當哲學與人文科學被視為「無用」時,人們正在將思考的權利讓渡給機器。約瑟夫警告,教育的核心並非傳遞知識,而是培養批判性思維與創造力;幸福的意義不在於物質滿足,而在于「為夢想奮鬥」的自由。AI的便利性若不加約束,可能加劇社會的功利化,侵蝕人類在道德決策、衝突解決與文化傳承中的主體性。
與此同時,AI對傳統社會結構的衝擊已不容忽視,例如自動化系統可能威脅當下及未來的就業市場等。然而,約瑟夫並非技術的悲觀主義者。他呼籲建立AI應用的全球標準,明確製造商與使用者的責任邊界,在教育中平衡STEM與人文素養。唯有如此,AI才能從「替代人類」的工具,進化為「增強人類」的夥伴。
本次的對話分享中,約瑟夫的觀點無疑挑戰了現有關於AI的主流敘事。他為專業讀者提供了對人工智慧現狀和未來趨勢的深入洞察,也為大眾讀者普及了資訊學與人工智慧的基礎知識,幫助我們思考在這個智慧化時代中,人類與機器應如何更有意義地協作共生。
以下是Edu指南對話約瑟夫全文(含刪減),enjoy:
出品:Edu指南
採訪:何沛寬
作者:楊定一 羅博文
1、
「我們生活在對知識存在困惑的時代」
Edu指南:你提到《理解和改變世界》這本書的一個責任是,展示知識的重要性。你認為我們生活在一個低估了知識重要性的社會嗎?
約瑟夫:我認為我們生活在一個對知識存在困惑的社會中。我們有很多資訊,我認為澄清資訊和知識的概念非常重要。資訊是數學、電腦科學、哲學中的一個基本概念,指的是具有意義並能夠做出決策的資料。資料可以是感官語言資料、文本、圖像等。這些資料是由人類解釋的。所以要創造資訊,你需要人類來解釋資料。資訊本身獨立於物質和能量。這對於理解資訊也非常重要。
知識是我們可以用來解決問題的有用資訊。所以不是任何資訊都是知識。總概來看,人類處理兩種類型的問題。一種是理解世界,正如我在書中所說,另一種是透過行動來實現他們的目標。
最後,我們要對智慧有一些定義,它描述的是我們使用和應用知識,來理解世界,並按照目標行事的能力。因此,它特別意味著感知世界的能力,即理解我們環境中發生的事情,並預測其未來狀態的能力。所以作為回答你的問題,我認為人們對資訊和知識之間的區別,沒有清晰的理解。
Edu指南:我們的社會中,會有真實和不真實的資訊,有用和無用的資訊。當我們看到這些不同的資訊時,如何區分它們?
約瑟夫:我認為理解這一點也很重要。這與我們稱之為知識的關鍵特徵屬性相關。其中,一個關鍵特徵是資訊的有用性。有些知識可能是真的,但不是很有用,也不是很相關。例如,一個非常抽象的數學知識,對很多人來說可能是無用的。
另一方面,我們可以有很多有用的知識,但並不準確,所以這是不真實的。例如,我們在科學中使用的所有隱喻都是這樣的。我們說電子,電子是一種波,或者是一個粒子。但事實上,這是一個比喻。在某些情況下,甚至更簡單的信念也可以是有用的知識。例如,原始社會相信神話(虛構的事情)。當然,這不是真實的知識,但這對促進社會凝聚力和和平非常重要。
Edu指南:從資訊學角度來看,你認為現在我們有一些「神話」,向普通人展示虛假資訊或虛假知識嗎?
約瑟夫:在人工智慧系統裡,有虛假的知識。我們知道它們可以系統地製造假的資訊和知識,因為我們有所謂的幻覺(Hallucination)。那麼為什麼有AI系統幻覺呢?幻覺的發生是因為機器學習依賴於範例資料的訓練。例如AI透過一個訓練過程學會區分貓和狗的圖像,在這個過程中我們提供了大量貓和狗的圖像,我們有相應的答案。而我們用於訓練的資料,往往不能充分涵蓋可能出現的各種情況。
所以現在,如果你問一個訓練集沒有涵蓋的問題,它會提供一個虛假的回答。這是AI的問題。特別要注意的是,AI虛假回答的問題在於,它們在形態上與有效知識、有效回答相似,而且使用者很難區分差異。
2、
「我們今天沒有真正的智慧系統
如果你看看AI對工業的真正影響,幾乎為零」
Edu指南:我們最近看到一些描述說,如果AI系統變得更加智慧,幻覺問題會更加嚴重。這是準確的描述嗎?
約瑟夫:在這裡,我們應該要明白AI系統的智慧是什麼。現在,如果你打開一本字典,你會看到智慧在字典中的這些定義,存在於AI之前。你會看到智慧被定義為人類理解世界的能力,然後採取行動來實現,滿足他們的需求,滿足他們的目標。
現在,如果你考慮一個AI系統,這意味著AI系統可以理解並有目的地行動。AI系統能做到這一點嗎,或者我們今天有什麼樣的AI系統?
我們現在最常見的AI系統,是你提出問題,得到答案的系統,這是我們稱為對話式的AI系統,如ChatGPT或Deepseek。但這還不夠。因為AI系統的一個問題是它們無法做出決策。它們無法進行分析、做出決策和制定目標。這是人類的特權。
事實上,AI系統沒有配備常識知識。你看,人類有一個世界模型,這是自我們出生以來發展起來的世界概念模型。我們用這個模型來理解語言,人類的思維也從感知資訊到理解,從理解到行動。而AI系統,事實上,它們只能處理感測器的資訊,但無法將這些資訊與常識知識聯繫起來。它們做不到。我認為這個解釋非常重要。
所以我認為我們今天沒有真正的智慧系統。我們只有對話系統。其中缺少了什麼?讓我解釋一下缺少什麼。我會說我們擁有智慧系統——如果這些系統能代替人類行動,做一些複雜的任務。例如我從事自動駕駛研究,我們一直相信到2020年我們將擁有自動駕駛汽車。但我們沒有發展出預期的東西。很有可能在未來,我們不會有完全自動駕駛的汽車。為什麼?因為要駕駛汽車,系統應該能夠理解複雜環境中發生的事情,並即時做出決策。我們不知道如何建立這樣的系統。
我想說的是,今天我們有對話AI,所以人們可以玩AI系統,提問,得到答案。但是我們需要其他類型的AI,例如,AI進行預測,AI分析複雜情況,AI用於工業。如果你看看AI對工業的真正影響,幾乎為零。
Edu指南:正如你所提到的,自動駕駛汽車,最近我們在工業實踐上,一家名為小米的公司,有一些壞消息。這家公司提供電動汽車,支持輔助駕駛。一些司機,使用輔助自動駕駛功能,不再專注於汽車駕駛,而是在車裡睡覺,這導致一些意外發生。
約瑟夫:是的,我知道。我認為他們應該禁止,我的意思是,應該採取更嚴格的監管措施。我們的技術還不成熟。現在試圖在行人和其他汽車的現實環境中驗證這項技術,這是一種危險。我是說,人們高估了AI的能力。這就是我一直在說的。
現在到了這裡,我們應該理解的是,對於AI系統,我們今天並沒有標準。我寫了很多關於AI系統引發的風險。讓我試著解釋一下。我們的玩具、烤麵包機、飛機等等,我們製造的所有東西都是經過認證的,安全的,有標準的,有國際規則的。如果我買了一個烤麵包機並正確使用它,它不會殺死我。這是有保證的。在中國,在歐洲,在美國都是。
而現在對於AI系統,我們沒有標準。對於自動駕駛汽車,我們沒有標準。如果你有標準,例如,建造一架飛機,一些認證機構會說,哦,這是可以飛行的。現在對於AI系統,我們還沒有標準。
現在在美國,他們發明了一個術語:自我認證。自我認證說的是,哦,沒有中立的權威機構會保證這一點。製造商將保證這一點。比如說特斯拉,它說,看,我的車非常安全。但這只是它的自我證明。所以製造商以其他原因推動,其他非技術原因,讓他們認為人們應該接受AI的想法,但如果他們在沒有任何保證的情況下,引發風險,這太糟糕了。
Edu指南:規則仍然需要的,但大多數情況下,技術的工業實踐,會走在規則和監管之前,不是嗎?
約瑟夫:是的,但你需要規則。事實上,當我們建立一個系統時,需要考慮它的重要程度。例如,我的筆記型電腦並不重要。我的意思是,如果它出問題了,沒問題。我可以用另一台筆記型電腦。
而有一些系統是非常關鍵的,例如飛機或核電廠,這些是非常重要的。如果發生了什麼不對勁的事情,那麼就會有人的生命受到威脅。或者在醫療系統,這也是非常重要。因此我們不能在AI沒有任何保證的情況下,試圖讓它提供正確的診斷、做出決定。在某個時候,我們應該決定:如果涉及到這些系統,我們不接受它們。因為我們不了解它們是如何運作的。
我想強調的另一件事是——這非常重要,AI系統是黑箱。我們不明白它們是怎麼回事。我在航空電子系統、飛行控制器方面做了很多工作。如果你編寫軟體,你可以分析軟體並預測說,這是具有非常高可靠性的系統。但AI系統,我們不了解它們是如何工作的,因此很難保證它們的正確性。
Edu指南:從安全角度來看,自動駕駛、醫療等領域非常重要,因此相比普通應用,它們需要設置更高標準。
約瑟夫:是的。如果你有一個普通的用途,例如在辦公室使用的東西,如果你做錯了什麼,你有時間考慮。但是如果你在一些關鍵系統中使用,那就有兩個問題。一個問題是它在沒有人參與的情況下工作。另一個問題是,這些系統很難分析和預測。
3、
「AI的問題在於它們產生了我們不理解的知識」
Edu指南:你在《理解和改變世界》中提到我們人類社會可以被視為資訊系統。這兩者之間的關鍵相似之處是什麼?
約瑟夫:這是一個有趣的問題。首先,我們應該了解什麼是AI系統,什麼是代理人(Agent)。我的意思是,代理人的概念存在於哲學中,甚至存在於AI之前。所以我們稱代理人是一個系統,它可以理解,可以行動。舉個例子,動物可以被認為是一個代理人,現在我們有機器也是代理人,或者我們正在嘗試建構代理人。
代理人的重要特徵是它必須解決一些問題,它生活在一個社會中。所以我們有動物的社會,有人類的社會等等。因此,代理人不是孤立的,它與環境交互,並且必須與其他代理人交互。這還不夠,代理人也必須解決一些問題,要解決這些問題,它必須與其他代理人合作。這就是我們所說的集體智慧。
我們有代理人之間的互動,這就是人類社會發生的事情。社會是由代理人組成的。每個代理人都在追求自己的目標。所以當代理人是人類時,人類應該合作實現共同目標。這是非常重要的事情。這是有規則的,或者說在有組織的社會中,你有法律,你有道德規則,你不會對某人做你不希望他對你做的事情。
所以現在我們正在研究人工智慧代理人(AI Agent),當我們將一些想法對比人類社會,會發現智慧機器和人類有很多相似之處。在人類社會中,重要的是我們交換的資訊,重要的是機構之間的信任程度。那什麼是機構?機構有助於實現組織社會的一些共同目標。定義什麼是真,什麼是假。
現在在機器中,我們也有機構。機器中什麼是機構?它們可以是基於資訊知識,分配任務或決定機器目標的伺服器。所以在機器社會之間,這是一個非常有趣的類比。因為今天我們有機器社會,或者我們試圖建立機器社會,我們有人類社會。這也是我試圖在書中解釋資訊的作用和知識的作用的原因。資訊的作用在於人們相信共同利益。人民信任他們的政府或不信任他們的政府。人們互相信任或不信任。你們可以在我的書中嘗試探索這個有趣的類比。
Edu指南:如果AI系統足夠聰明,可以設定目標,建立一些機構,例如有一個「政府」來幫助實現共同利益,人類社會與這個AI系統或資訊系統之間是否還有明確的界限?
約瑟夫:這些是深刻的哲學問題,機器與人類有多大的不同呢?這也與倫理問題有關。你知道今天人們在談論道德AI,他們想要一台有道德的機器。那麼道德行為意味著什麼?這裡也有一些理論可以讓我們理解,我的意思是,人類的行為意味著什麼?我認為這些是非常重要的問題。
你可以看到機器和人類之間的巨大區別在於人類有一些內部目標,並且到目前為止已經決定了什麼是內部目標。例如生存的目標。作為一個人要生存,當我餓的時候,我必須找到食物。如果我必須找到食物,我需要做一個分析來說,我想買食物,我的銀行帳戶裡有足夠的錢嗎?我是如何購買,等等。所以人類,當他們有目標時,他們會進行分析。這種分析取決於他們的狀態,取決於他們的身體狀況,健康狀況等等。但也受到來自外部的限制。
為了進行這種分析,人類大腦中有一個價值體系。人們總是有一個價值體系,例如剛才提到的經濟價值體系。你知道買麵包要花多少錢,買衣服要花多少錢。你也有其他的價值體系,比如,如果我做錯了什麼,我會進監獄,我會付罰款。人們還有其他價值觀,道德價值觀等等。
所以人類建立了這個價值體系。當我決定做某件事或不做某件事時,我是根據這個建立起來的價值體系來決定的。這個價值體系反映了社會的價值體系。所以它不是獨立的。我希望你們能理解這一點,因為我們的社會存在價值共識。例如經濟價值體系,這是明確的;道德價值共識,什麼是好的,什麼是壞的等等。所有的社會都依賴於規則和某種價值體系。當然,價值體系是由機構和政府在全球範圍內決定的。
現在,我的問題是,我們能為機器配備這樣的價值體系嗎?如何開發這樣的系統,以及我們如何讓機器行動。理性是人類思維的一個非常重要屬性。我們根據目標進行選擇,進行分析,嘗試根據我們擁有的價值體系選擇最佳解決方案。例如你會說,我應該作弊嗎,還是遵守規則。如果我做錯了什麼,也許能得到一些東西,但我也有風險。每次你做決定時,你都有基於價值體系進行選擇。
這是人類非常複雜的系統。我們能為機器配備嗎?我不知道。我們正在努力。但這些都是仍然需要探索的非常重要的問題。
Edu指南:在你看來,這是資訊系統的侷限嗎?還是只是技術還沒有發展到這裡,所以AI系統或資訊系統無法做得比人類更好?
約瑟夫:在這裡我們應該解釋一下,人工智慧系統可以比人類做得更好。所以讓我解釋一下,人類理解複雜情況的能力有限。這與認知複雜性有關。這是我在書中解釋的事情。認知複雜性意味著,如果有許多參數的複雜情況,例如我給你講一個有20個不同角色的故事,你會記不住,因為太多了。所以人類有這個限制,而機器沒有這個限制。
所以機器可以擁有人類無法理解的非常複雜的資料,並且可以提煉資訊,可以從非常複雜的資料中提煉知識。這就是機器的能力。它們可以透過分析資料來了解非常複雜的情況。我認為我們應該充分利用這一點。因為機器可以幫助我們理解複雜的現象。現在有一些專案,與複雜現象相關,氣象現象、地球物理現象等等。例如預測地震的專案,我們可以用AI來預測地震。
為什麼用AI預測地震會成功?因為地震是非常複雜的現象。它們取決於很多參數。而目前人類的理論是有限的,或者說任何人類的科學理論都是有限的——這些理論可以依賴於一些參數,但不多,例如最多只有10個不同的參數。
現在,AI系統可以被訓練,處理非常多參數。如何訓練?例如,每天地球上各地的地震。我們收集資料並對其進行訓練,它們可以將中國發生的地震和菲律賓發生的地震聯繫起來。它們可以做出預測,有一些實驗資料表明了這一點。所以我們可以用AI來預測,它們比已有的科學理論做得更好。
當然,AI的問題在於它們有我們不理解的知識。這是個問題。對於現有的科學理論,因為我們已經設計了這些理論,並且理解它們的工作原理。我們對這些理論結論很確定。現在,舉個例子,如果AI說明天會發生地震,你信不信?我的意思是,你沒有證據。AI系統非常擅長預測和分析情況。這是最好的優點。這可以在科學中非常有用,例如,在分析醫療資料時,它們會非常好。
當然,我們應該時刻小心,因為它們可能會做錯什麼。它們在尋找新目標等方面也一點不擅長。而且它們提供知識的情況下,我們不知道它是如何產生的。這在將來會成為一個非常重要的問題。因為你會有另一種科學,這種科學會提供一定程度上有效的結果,但你不明白它們為什麼有效。
Edu指南:有沒有具體的解決方案來處理這個問題?AI產生如此多的資訊,連它們自己都不真正理解,但卻為科學家所用,應用到真實場景。
約瑟夫:是的。假設有人給你很多資訊、知識,然後說,哦,這會發生或者這是真的。但你無法保證。這是問題。所以你看,在傳統科學中,我們理解它,因為科學知識是透過使用數學模型產生的。因此,我們可以非常精確地驗證一個理論、科學結果是否正確。這是我們不能用AI系統做的。
這就是要付出的代價。你會得到很多資訊,很多結果。但是,你應該能夠自己判斷這些結果是否可用,或者你要考慮是否應該透過訓練AI系統來產生可靠的知識。這是一個開放的問題。現在人們談論安全AI、負責任的AI,甚至是專門的國際會議。但目前,我們不知道該怎麼做。所以也許在未來,這將是可能的。但就目前而言,我們應該小心。
4、
「AI可以進化得更聰明,但無法完全超越人類」
約瑟夫:是的。對我來說,AI無法超越人類。我的意思是,人們說AI變得比人類更聰明,這是沒有根據的。所以也許你已經看到了,他們談論通用人工智慧,AGI。但是當你閱讀新聞時,他們所說的AGI,是關於人類與機器的對話系統。他們不明白自主性(Autonomy)問題,意味著不僅AI比人類知道得更多——這是很容易做到的,重要的是AI知道的和人類一樣多,但也能處理智慧地處理知識,能組織知識來解決問題。這是AI今天不知道該怎麼做的事情。
為了解決問題,讓我更精確地說,因為有各種問題,你可以解決數學問題,解決日常生活中的問題。就像開車一樣,就像當醫生一樣,就像當廚師一樣,所以解決問題意味著AI能夠在複雜的組織中取代人類。
我想在這裡強調的另一件事是,這是一個非常困難的問題。這還不夠。讓我考慮一個例子,例如自動駕駛汽車的一個問題是安全,不要發生碰撞。即使假設我有一輛安全的自動駕駛汽車,這還不夠。
舊金山有一些有趣的實驗。你知道舊金山,一些公司部署了自動駕駛計程車。這些計程車它們不安全,它們會發生事故。但是假設它們是完全安全的,這是完美的AI,很安全的AI。這還不夠,因為自動駕駛汽車的問題在於它們不理解這一點:現在在它們身後,一輛警車和一輛救護車想要透過,它們擋住了一輛警車,它們擋住了一輛救護車,但它們會說,我是安全的,我已經停下來了,沒有事故。這需要社會智慧,這需要集體智慧,而機器現在是沒有的。
那我們怎麼能有這樣的代理人?現在每個AI系統有自己的目標,例如我想開著車,從北京到上海。這是我的目標,但這是我的個人目標。當人類駕駛時,如果在高速公路上,人們應該考慮其他人的目標。而一輛自私的車,會把自己的目標放在最高優先級,這也許這對其他車來說不是很好。這就是我們所說的社會智慧,AI系統很難實現。這與AI代理人與人類價值體系接近程度有關。
Edu指南:如果從道德角度來看,自動駕駛汽車用於真實場景時,一旦事故發生,誰應該為一些糟糕的事故負責?
約瑟夫:這就是標準在這裡非常重要的原因。如果發生飛機事故,責任問題很清楚。因為飛機是經過標準認證的,符合標準的可以去飛行。因此,製造商可能並不直接涉及事故責任。現在,如果自動駕駛汽車,例如特斯拉,沒有獲得認證,那麼製造商的責任就直接涉及其中。當然,還有使用者濫用AI的情況。但這也是標準規定的事情。因此,這些標準規範定義了製造商和使用者的責任。如果你沒有標準,那麼你應該進行詳細的分析,找到誰應該受到責備。
當然,系統對此不負責。這些系統由工程師設計,責任歸於製造商。這一點很清楚。說責任歸於系統、歸於AI是沒有意義的。我的意思是,只有愚蠢的人才會這麼說。因為責任意味著如果我做錯了什麼,我可以解釋為什麼,我做錯了什麼,我會假設我會為此付出代價。我可能會因此受到懲罰。這是責任感所固有的意義。你不能說我們會懲罰機器。要懲罰這些機器,你能做的就是拔掉它們的插頭。
Edu指南:不同的情況下有不同的答案。
約瑟夫:是的,但如果你沒有標準,你就無法定義風險責任的界限。再舉個例子,你有一個AI,你問一個問題,如何建立一個炸彈。如果你足夠聰明,根據AI告訴你的,你可以做出來。現在有製造商說我們對此不負責。我們無法控制這件事,但歸根結底,他們有責任。
為什麼他們要負責?因為如果他們可以告訴你如何製造炸彈,或如何為某人製作假視訊。這意味著AI在某個地方找到了這些資訊。無論是透過閱讀文件、訪問網路等方式,這都應該受到監管。
但現在你也應該明白,這很難被監管。為什麼?因為從技術上講,它是如何發生的?你向人工智慧提供了大量資料。如果你不過濾資料,只過濾書籍、文件、任何文件等,AI可以透過這一切學到一些東西。就像我說的,這是一個資料萃取器,你提取了資料。但如果要我提交這份文件之前,就對這份文件分析並提取有關如何製造炸彈的所有資訊,AI的開發成本會很大。
這就變得技術化了,但你不能說透過炸彈這個詞就很容易排除。因為如果你排除了炸彈這個詞,你也會排除許多關於戰爭中炸彈的其他資訊,許多其他有用的資訊。
5、
「AI無法取代教育,教育的作用不僅僅是給你知識」
Edu指南:這是人與AI系統的互動以及如何在AI系統中制定一些具體的規則。讓我們轉到教育的角度,你在《理解和改變世界》書中提到社會和人們對資訊學的重視不夠。最近在美國、歐洲的一些國家,政府已經將AI課程設定為學校的必修課。你認為這樣做足夠嗎?或者對該學科知識進入教育系統有什麼建議?
約瑟夫:現在與AI相關的教育存在一個普遍的問題。當然,學生們應該學習一些關於AI的知識,應該學習一些關於技術的知識。我認為今天有一個重要的趨勢,即教授知識、純科學知識以及技術之間取得平衡。我認為這是積極的。也許你聽說過這個趨勢,關於這個被稱為STEM的趨勢。STEM包含科學、技術、工程和數學。這個想法是你要學習多學科的課程,這非常好。我想這在中國也在發生。
但我認為,現在在教育中,向年輕人解釋AI帶來的危險並制定行為準則,非常重要。要去解釋什麼是機器的角色,什麼是人類的角色。在我的採訪中,我討論了很多關於年輕學生接觸AI工具的問題。想像一下,我們有一個年輕的學生,他用Deepseek來尋找答案。我覺得這太糟糕了。因為年輕的學生透過Deepseek來回答問題或寫一篇文章,這意味著他不會得到正確和充分的教育。
要知道教育的作用不僅僅是給你知識。它也在訓練你的頭腦,訓練你的精神,訓練你的思考、注意力和創造力。現在,如果年輕的孩子,每次面對問題時,都要求Deepseek來解決問題,這太糟糕了。
教育是一個訓練過程。就像你是一個運動員,你是一個跑步者,你每天都在訓練自己。你想盡可能表現出色,現在,如果你在這個訓練中,使用機器跑得更快,你當然可以作弊。但這不是運動的目的。同樣地,我認為,在教育上應該有一些控制。我不是說不應該使用,但他們應該把工具當作輔助,而不是直接為他們做決定、為他們解決問題。所以我們應該非常小心。
在談論技術的趨勢時,在我看來是,不要走向另一端,即注重太多的技術而不是科學,這也可能發生。當然,我認為現在教育中非常重要的一點是,它要解釋了人類在多大程度上不同於機器,機器的侷限是什麼,以及如何使用機器。
Edu指南:一個非常嚴重的問題是,在AI方面可以記住很多東西的情況下,一些學科知識已經過時了。人們不一定需要像過去一個世紀、過去幾十年那樣學習,但這些學科仍然在大學裡。
約瑟夫:是的。但是你看,知識,當你學習一些東西時,例如當你學習中國歷史時,它們不僅僅是事實。知識不僅僅是事實。你學習的不只是事實本身,也有一些分析。這個過程中,你可以理解進化對人類社會意味著什麼。對人類社會來說,什麼是壞的,什麼是好的。
現在人們現在說,哦,你什麼都不需要知道,你只需要問問題並得到答案。但問題是,首先,你應該能夠分析你得到的資訊,而且就像我說的,如果你了解歷史,你會明白社會是如何運作的,如何在社交場合表現,什麼是對的,什麼是錯的。你學到了一些東西,什麼是人類價值觀?你學習歷史,你學習動物生物學,你學習宇宙學,這是你理解世界的過程。
製造商可能並不直接涉及事故責任。現在,如果自動駕駛汽車,例如特斯拉,沒有獲得認證,那麼製造商的責任就直接涉及其中。當然,還有使用者濫用AI的情況。但這也是標準規定的事情。因此,這些標準規範定義了製造商和使用者的責任。如果你沒有標準,那麼你應該進行詳細的分析,找到誰應該受到責備。當然,系統對此不負責。這些系統由工程師設計,責任歸於製造商。這一點很清楚。說責任歸於系統、歸於AI是沒有意義的。我的意思是,只有愚蠢的人才會這麼說。因為責任意味著如果我做錯了什麼,我可以解釋為什麼,我做錯了什麼,我會假設我會為此付出代價。我可能會因此受到懲罰。這是責任感所固有的意義。你不能說我們會懲罰機器。要懲罰這些機器,你能做的就是拔掉它們的插頭。
Edu指南:不同的情況下有不同的答案。
約瑟夫:是的,但如果你沒有標準,你就無法定義風險責任的界限。再舉個例子,你有一個AI,你問一個問題,如何建立一個炸彈。如果你足夠聰明,根據AI告訴你的,你可以做出來。現在有製造商說我們對此不負責。我們無法控制這件事,但歸根結底,他們有責任。
為什麼他們要負責?因為如果他們可以告訴你如何製造炸彈,或如何為某人製作假視訊。這意味著AI在某個地方找到了這些資訊。無論是透過閱讀文件、訪問網路等方式,這都應該受到監管。
但現在你也應該明白,這很難被監管。為什麼?因為從技術上講,它是如何發生的?你向人工智慧提供了大量資料。如果你不過濾資料,只過濾書籍、文件、任何文件等,AI可以透過這一切學到一些東西。就像我說的,這是一個資料萃取器,你提取了資料。但如果要我提交這份文件之前,就對這份文件分析並提取有關如何製造炸彈的所有資訊,AI的開發成本會很大。
這就變得技術化了,但你不能說透過炸彈這個詞就很容易排除。因為如果你排除了炸彈這個詞,你也會排除許多關於戰爭中炸彈的其他資訊,許多其他有用的資訊。
5、
「AI無法取代教育,教育的作用不僅僅是給你知識」
Edu指南:這是人與AI系統的互動以及如何在AI系統中制定一些具體的規則。讓我們轉到教育的角度,你在《理解和改變世界》書中提到社會和人們對資訊學的重視不夠。最近在美國、歐洲的一些國家,政府已經將AI課程設定為學校的必修課。你認為這樣做足夠嗎?或者對該學科知識進入教育系統有什麼建議?
約瑟夫:現在與AI相關的教育存在一個普遍的問題。當然,學生們應該學習一些關於AI的知識,應該學習一些關於技術的知識。我認為今天有一個重要的趨勢,即教授知識、純科學知識以及技術之間取得平衡。我認為這是積極的。也許你聽說過這個趨勢,關於這個被稱為STEM的趨勢。STEM包含科學、技術、工程和數學。這個想法是你要學習多學科的課程,這非常好。我想這在中國也在發生。
但我認為,現在在教育中,向年輕人解釋AI帶來的危險並制定行為準則,非常重要。要去解釋什麼是機器的角色,什麼是人類的角色。在我的採訪中,我討論了很多關於年輕學生接觸AI工具的問題。想像一下,我們有一個年輕的學生,他用Deepseek來尋找答案。我覺得這太糟糕了。因為年輕的學生透過Deepseek來回答問題或寫一篇文章,這意味著他不會得到正確和充分的教育。
要知道教育的作用不僅僅是給你知識。它也在訓練你的頭腦,訓練你的精神,訓練你的思考、注意力和創造力。現在,如果年輕的孩子,每次面對問題時,都要求Deepseek來解決問題,這太糟糕了。
教育是一個訓練過程。就像你是一個運動員,你是一個跑步者,你每天都在訓練自己。你想盡可能表現出色,現在,如果你在這個訓練中,使用機器跑得更快,你當然可以作弊。但這不是運動的目的。同樣地,我認為,在教育上應該有一些控制。我不是說不應該使用,但他們應該把工具當作輔助,而不是直接為他們做決定、為他們解決問題。所以我們應該非常小心。
在談論技術的趨勢時,在我看來是,不要走向另一端,即注重太多的技術而不是科學,這也可能發生。當然,我認為現在教育中非常重要的一點是,它要解釋了人類在多大程度上不同於機器,機器的侷限是什麼,以及如何使用機器。
Edu指南:一個非常嚴重的問題是,在AI方面可以記住很多東西的情況下,一些學科知識已經過時了。人們不一定需要像過去一個世紀、過去幾十年那樣學習,但這些學科仍然在大學裡。
約瑟夫:是的。但是你看,知識,當你學習一些東西時,例如當你學習中國歷史時,它們不僅僅是事實。知識不僅僅是事實。你學習的不只是事實本身,也有一些分析。這個過程中,你可以理解進化對人類社會意味著什麼。對人類社會來說,什麼是壞的,什麼是好的。
現在人們現在說,哦,你什麼都不需要知道,你只需要問問題並得到答案。但問題是,首先,你應該能夠分析你得到的資訊,而且就像我說的,如果你了解歷史,你會明白社會是如何運作的,如何在社交場合表現,什麼是對的,什麼是錯的。你學到了一些東西,什麼是人類價值觀?你學習歷史,你學習動物生物學,你學習宇宙學,這是你理解世界的過程。
再舉個例子,在年幼時我也做了一些實驗。當我還是個孩子的時候,我在學習乘法表。現在也許孩子們不會學習乘法表了,因為你有電腦,你有計算器,你不需要這個。但是學習乘法表也能讓你對數字之間的關係,數量之間的關係有所了解。透過分析數字之間的關係,你可以了解這是什麼意思,什麼是類比,什麼是按比例或不按比例做某事,或者其他類型的關係。所以知識不只是為了讓人們知道什麼,也是為了理解不同事物之間的關係。這是非常重要的事情。
6、
「今天的年輕人變得非常物質主義」
Edu指南:思考過程也很重要,而不僅僅是記住知識本身。你也提到,如今,哲學、人文學科等正在貶值,因為它們與現在人們的生活不太相關。這些學科應該如何改變,更好地適應當今社會?
約瑟夫:這是一個非常重要的問題。我一生中花了很多時間閱讀哲學,我學到了很多。當然,我認為哲學也應該在學校裡教授,因為哲學給你一個關於如何理解世界的完整框架。什麼是人類?人類和其他生物有什麼區別?再給自己一些有趣的基本價值。
我對哲學的批評是,當我還是學生的時候,他們不會告訴你,我是說,在古希臘哲學中,哲學的目的是關於如何過一種有價值的生活。哲學的發展有一些時期,有很多偉大的哲學家做出了很大的貢獻,我很欽佩他們。但是現在,自20世紀初以來,我們沒有。我的意思是,我們有很多困惑。你應該有一些哲學家。你需要哲學,但你發現它們只是文學。
例如作為一名工程師,我討厭不確定的定義。我需要對幸福的定義。但哲學家沒有給出。這也是我試圖解釋的,生活中幸福,意味著我有足夠的自由。所以我有願景,我有目標,我有短期目標和長期目標。我有資源來實現我的目標。我不需要太多選擇,因為如果我有太多選擇,我可能會遇到問題。所以幸福意味著我對自己有一個願景。然後我有了方法,去實現,但不是立即實現,因為這是一場持續的戰鬥。對我來說,幸福就是能夠創造、奮鬥、夢想。這非常重要。而且,這些不是太遠而無法實現的夢想。這是一個遊戲。
我在書中說,如果你在最後達成了無事可做的目標,那麼你不會開心。所以我認為,人們應該明白,如果你沒有夢想,如果你不為某件事而奮鬥,你的生活會很悲傷。
這也是AI的危險。AI的危險在於它變成了商品。你隨時可用。我見過年輕人說,哦,讓我們問問Google該做什麼,休假時該做什麼。這很愚蠢。因為你沒有高興地說,我夢想去威尼斯,在威尼斯度過我的夏天。這是人們正在轉移責任。當然,你也有責任去管理你的自由。如果你要做什麼,你必須做出選擇。現在,如果你不想玩這個遊戲,這是關於自由的遊戲,那麼你當然也沒有這個遊戲的樂趣。
所以,這就是AI和電腦的問題,不是它們變得更聰明,然後我們就可以什麼都不做,我是說,這永遠不會發生。現在問題是我們轉移了決策的責任,因為這很方便,而人類太懶了。如果有人能幫你做這些,你就不做了。事實上,對於體力任務來說是,人們確實有限制的,我可以很懶,但對於智力任務來說不是。
當涉及到選擇自由的問題時,在我的講座中,我對學生們說,想像一下你有一個非常強大的奴隸,無論你想要什麼都可以幫你實現。就像在阿拉伯神話中,你有精靈,你拍拍手,精靈就來了。「主啊,你需要我為你做什麼」。精靈可以做任何事情。
那麼現在,誰將成為奴隸?如果你想要的任何東西立即得到滿足,那麼你的幸福會是什麼?所以人們應該深入了解幸福的概念,以及如何實現這一點。很遺憾,現在人們變得過於物質化了,也不在意決策責任了,AI推進了這一點。
製造商可能並不直接涉及事故責任。現在,如果自動駕駛汽車,例如特斯拉,沒有獲得認證,那麼製造商的責任就直接涉及其中。當然,還有使用者濫用AI的情況。但這也是標準規定的事情。因此,這些標準規範定義了製造商和使用者的責任。如果你沒有標準,那麼你應該進行詳細的分析,找到誰應該受到責備。當然,系統對此不負責。這些系統由工程師設計,責任歸於製造商。這一點很清楚。說責任歸於系統、歸於AI是沒有意義的。我的意思是,只有愚蠢的人才會這麼說。因為責任意味著如果我做錯了什麼,我可以解釋為什麼,我做錯了什麼,我會假設我會為此付出代價。我可能會因此受到懲罰。這是責任感所固有的意義。你不能說我們會懲罰機器。要懲罰這些機器,你能做的就是拔掉它們的插頭。
Edu指南:不同的情況下有不同的答案。
約瑟夫:是的,但如果你沒有標準,你就無法定義風險責任的界限。再舉個例子,你有一個AI,你問一個問題,如何建立一個炸彈。如果你足夠聰明,根據AI告訴你的,你可以做出來。現在有製造商說我們對此不負責。我們無法控制這件事,但歸根結底,他們有責任。
為什麼他們要負責?因為如果他們可以告訴你如何製造炸彈,或如何為某人製作假視訊。這意味著AI在某個地方找到了這些資訊。無論是透過閱讀文件、訪問網路等方式,這都應該受到監管。
但現在你也應該明白,這很難被監管。為什麼?因為從技術上講,它是如何發生的?你向人工智慧提供了大量資料。如果你不過濾資料,只過濾書籍、文件、任何文件等,AI可以透過這一切學到一些東西。就像我說的,這是一個資料萃取器,你提取了資料。但如果要我提交這份文件之前,就對這份文件分析並提取有關如何製造炸彈的所有資訊,AI的開發成本會很大。
這就變得技術化了,但你不能說透過炸彈這個詞就很容易排除。因為如果你排除了炸彈這個詞,你也會排除許多關於戰爭中炸彈的其他資訊,許多其他有用的資訊。
5、
「AI無法取代教育,教育的作用不僅僅是給你知識」
Edu指南:這是人與AI系統的互動以及如何在AI系統中制定一些具體的規則。讓我們轉到教育的角度,你在《理解和改變世界》書中提到社會和人們對資訊學的重視不夠。最近在美國、歐洲的一些國家,政府已經將AI課程設定為學校的必修課。你認為這樣做足夠嗎?或者對該學科知識進入教育系統有什麼建議?
約瑟夫:現在與AI相關的教育存在一個普遍的問題。當然,學生們應該學習一些關於AI的知識,應該學習一些關於技術的知識。我認為今天有一個重要的趨勢,即教授知識、純科學知識以及技術之間取得平衡。我認為這是積極的。也許你聽說過這個趨勢,關於這個被稱為STEM的趨勢。STEM包含科學、技術、工程和數學。這個想法是你要學習多學科的課程,這非常好。我想這在中國也在發生。
但我認為,現在在教育中,向年輕人解釋AI帶來的危險並制定行為準則,非常重要。要去解釋什麼是機器的角色,什麼是人類的角色。在我的採訪中,我討論了很多關於年輕學生接觸AI工具的問題。想像一下,我們有一個年輕的學生,他用Deepseek來尋找答案。我覺得這太糟糕了。因為年輕的學生透過Deepseek來回答問題或寫一篇文章,這意味著他不會得到正確和充分的教育。
要知道教育的作用不僅僅是給你知識。它也在訓練你的頭腦,訓練你的精神,訓練你的思考、注意力和創造力。現在,如果年輕的孩子,每次面對問題時,都要求Deepseek來解決問題,這太糟糕了。
教育是一個訓練過程。就像你是一個運動員,你是一個跑步者,你每天都在訓練自己。你想盡可能表現出色,現在,如果你在這個訓練中,使用機器跑得更快,你當然可以作弊。但這不是運動的目的。同樣地,我認為,在教育上應該有一些控制。我不是說不應該使用,但他們應該把工具當作輔助,而不是直接為他們做決定、為他們解決問題。所以我們應該非常小心。
在談論技術的趨勢時,在我看來是,不要走向另一端,即注重太多的技術而不是科學,這也可能發生。當然,我認為現在教育中非常重要的一點是,它要解釋了人類在多大程度上不同於機器,機器的侷限是什麼,以及如何使用機器。
Edu指南:一個非常嚴重的問題是,在AI方面可以記住很多東西的情況下,一些學科知識已經過時了。人們不一定需要像過去一個世紀、過去幾十年那樣學習,但這些學科仍然在大學裡。
約瑟夫:是的。但是你看,知識,當你學習一些東西時,例如當你學習中國歷史時,它們不僅僅是事實。知識不僅僅是事實。你學習的不只是事實本身,也有一些分析。這個過程中,你可以理解進化對人類社會意味著什麼。對人類社會來說,什麼是壞的,什麼是好的。
現在人們現在說,哦,你什麼都不需要知道,你只需要問問題並得到答案。但問題是,首先,你應該能夠分析你得到的資訊,而且就像我說的,如果你了解歷史,你會明白社會是如何運作的,如何在社交場合表現,什麼是對的,什麼是錯的。你學到了一些東西,什麼是人類價值觀?你學習歷史,你學習動物生物學,你學習宇宙學,這是你理解世界的過程。
再舉個例子,在年幼時我也做了一些實驗。當我還是個孩子的時候,我在學習乘法表。現在也許孩子們不會學習乘法表了,因為你有電腦,你有計算器,你不需要這個。但是學習乘法表也能讓你對數字之間的關係,數量之間的關係有所了解。透過分析數字之間的關係,你可以了解這是什麼意思,什麼是類比,什麼是按比例或不按比例做某事,或者其他類型的關係。所以知識不只是為了讓人們知道什麼,也是為了理解不同事物之間的關係。這是非常重要的事情。
6、
「今天的年輕人變得非常物質主義」
Edu指南:思考過程也很重要,而不僅僅是記住知識本身。你也提到,如今,哲學、人文學科等正在貶值,因為它們與現在人們的生活不太相關。這些學科應該如何改變,更好地適應當今社會?
約瑟夫:這是一個非常重要的問題。我一生中花了很多時間閱讀哲學,我學到了很多。當然,我認為哲學也應該在學校裡教授,因為哲學給你一個關於如何理解世界的完整框架。什麼是人類?人類和其他生物有什麼區別?再給自己一些有趣的基本價值。
我對哲學的批評是,當我還是學生的時候,他們不會告訴你,我是說,在古希臘哲學中,哲學的目的是關於如何過一種有價值的生活。哲學的發展有一些時期,有很多偉大的哲學家做出了很大的貢獻,我很欽佩他們。但是現在,自20世紀初以來,我們沒有。我的意思是,我們有很多困惑。你應該有一些哲學家。你需要哲學,但你發現它們只是文學。
例如作為一名工程師,我討厭不確定的定義。我需要對幸福的定義。但哲學家沒有給出。這也是我試圖解釋的,生活中幸福,意味著我有足夠的自由。所以我有願景,我有目標,我有短期目標和長期目標。我有資源來實現我的目標。我不需要太多選擇,因為如果我有太多選擇,我可能會遇到問題。所以幸福意味著我對自己有一個願景。然後我有了方法,去實現,但不是立即實現,因為這是一場持續的戰鬥。對我來說,幸福就是能夠創造、奮鬥、夢想。這非常重要。而且,這些不是太遠而無法實現的夢想。這是一個遊戲。
我在書中說,如果你在最後達成了無事可做的目標,那麼你不會開心。所以我認為,人們應該明白,如果你沒有夢想,如果你不為某件事而奮鬥,你的生活會很悲傷。
這也是AI的危險。AI的危險在於它變成了商品。你隨時可用。我見過年輕人說,哦,讓我們問問Google該做什麼,休假時該做什麼。這很愚蠢。因為你沒有高興地說,我夢想去威尼斯,在威尼斯度過我的夏天。這是人們正在轉移責任。當然,你也有責任去管理你的自由。如果你要做什麼,你必須做出選擇。現在,如果你不想玩這個遊戲,這是關於自由的遊戲,那麼你當然也沒有這個遊戲的樂趣。
所以,這就是AI和電腦的問題,不是它們變得更聰明,然後我們就可以什麼都不做,我是說,這永遠不會發生。現在問題是我們轉移了決策的責任,因為這很方便,而人類太懶了。如果有人能幫你做這些,你就不做了。事實上,對於體力任務來說是,人們確實有限制的,我可以很懶,但對於智力任務來說不是。
當涉及到選擇自由的問題時,在我的講座中,我對學生們說,想像一下你有一個非常強大的奴隸,無論你想要什麼都可以幫你實現。就像在阿拉伯神話中,你有精靈,你拍拍手,精靈就來了。「主啊,你需要我為你做什麼」。精靈可以做任何事情。
那麼現在,誰將成為奴隸?如果你想要的任何東西立即得到滿足,那麼你的幸福會是什麼?所以人們應該深入了解幸福的概念,以及如何實現這一點。很遺憾,現在人們變得過於物質化了,也不在意決策責任了,AI推進了這一點。
7、
「如果AI對舊結構產生影響,我們應該想辦法安排好一切」
Edu指南:理解幸福和責任對我們自己意味著什麼,實際上並不是容易的問題。
約瑟夫:是的,這應該向人們解釋。我們可以開設一門應用哲學課程。有趣的情況是,你可以有很多錢,有很多自由。但你也可以看到,一些這樣的人會自殺。為什麼?因為他們不知道問題所在。我想你知道法國哲學家薩特,他說,人類的問題是不知道如何管理自己的自由。如果有很多自由度,人們會變得瘋狂。所以問題是如何找到正確的平衡。
道德在其中也是非常重要的。道德不僅僅來自宗教。它來自非常實際的考慮。因為如果你分析倫理道德,他們說這是被禁止的,然後有了這個禁令,所以我說我不抽煙或者不做其他禁止的事情。接受這個限制是我的選擇。
現在,什麼是一個好的平衡?這取決於你在這場自由遊戲中有多強大。但是有些人從出生開始,他們就說,我不做這個。他們過著安靜的生活。或許不是很令人興奮,但生活很平靜。然後也有那些因為富有而變得瘋狂的人。他們有很多選擇。他們不知道他們如何選擇,或者他們會做其他事情,這就是自由的問題。人們應該理解這個遊戲,這也應該被解釋,以及生活在社會中意味著什麼。
還有信任的問題是什麼?責任問題是什麼?衝突的問題是什麼?我花了很多時間去理解與某人發生衝突意味著什麼。因為如果你理解與某人發生衝突的含義,那麼你也會明白解決衝突的含義。這些是我們在系統中研究的非常簡單的概念。我認為這個想法也應該應用於教育。
那麼什麼是衝突,這意味著我想做一個動作,我需要一個資源,另一個人想做一個動作,需要同樣的資源。如果我拿了資源,你就沒有資源了。所以我們應該就如何使用資源達成協議。這很簡單。在社會中,所有關於道德的法律,都在規定如何解決衝突。例如交通規則要說明如何解決衝突。在一個十字路口,如果人們不遵守道德法則會產生什麼結果,這是非常重要。如果無法解決衝突,今天的時代,今天社會擁有的和平就會崩潰,受到威脅。
所以人們應該理解這一點。我們有些人說,好吧,讓我們忘記過去的一切。讓我們忘記傳統。我喜歡中國的這一點,中國人堅持傳統。家庭的概念非常重要。這是一種結構。這是不被理解的事情,至少在其他社會是這樣。這太糟糕了。這就是我們正在摧毀舊結構的事實,而且沒有其他結構來取代它們。這太糟糕了。這也是因為許多不同層面的AI產生的結果。
經典新書推薦:
解碼圖靈到AI的原始碼——與計算先驅同行,定義數智新紀元!在本書介紹了76位對圖靈獎獲得者的工作、事蹟和貢獻,在他們的介紹中,能夠看到一個電腦分支的發展歷程,本書帶領我們去感受這一段波瀾壯闊的歷史。可以掃描圖片中的二維碼購買。
文章精選:
1.圖靈獎得主 Yoshua Bengio 智源大會最新演講:關於AI,我改變了信念,也改變了研究方向
2.圖靈獎得主 Richard Sutton 智源大會最新演講:歡迎來到經驗時代!
3.諾獎得主、人工智慧教父辛頓學術講座:圖靈相信的是另一種AI、反向傳播比人腦效果好,開源模型將給世界帶來致命危險
4.圖靈獎得主LeCun痛批矽谷傲慢病!圈內爆火長文:DeepSeek R1-Zero比R1更重要,成AGI破局關鍵
5.圖靈獎得主、AI 教父 Bengio:OpenAI 不會分享超級智慧,而是會用它來搞垮其他人的經濟
6.AI教父、圖靈獎和諾貝爾獎得主辛頓接受CBS專訪:AI現在是人類養的可愛的小老虎,要謹防反噬其主
7.圖靈獎得主Bengio預言o1無法抵達AGI!Nature權威解讀AI智慧驚人進化,終極邊界就在眼前
8.趕緊放棄強化學習?!圖靈獎得主、Meta 首席 AI 科學家楊立昆喊話:目前推理方式會「作弊」,捲大模型沒有意義!
9.圖靈獎得主楊立昆:大語言模型缺乏對物理世界的理解和推理能力,無法實現人類水平智慧
10.圖靈獎得主傑弗里·辛頓:從小語言到大語言,人工智慧究竟如何理解人類?