Windows子系統、Copilot皆重磅開源,深夜炸場的微軟給我們帶來了哪些驚喜?

圖片

整理 | 屠敏

出品 | CSDN(ID:CSDNnews)

每年初夏,科技圈總會迎來一波「新品大秀」,尤其是 5 月和 6 月幾乎成了開發者的「小春晚」的熱鬧時刻——微軟 Build、Google I/O、蘋果 WWDC 輪番登場,帶來一大波新技術、新工具,想方設法吸引開發者的注意。今年是微軟打頭陣,Build 2025 大會於 5 月 20 日凌晨 12:05 率先登場。

這場大會上,微軟 CEO 納德拉和 CTO Kevin Scott 親自上陣,令人意外的是,一直不太對付的 OpenAI CEO Sam Altman 和特斯拉 CEO 馬斯克,還有英偉達 CEO 黃仁勳,也都「出現」在這場大會上,只是以線上視訊接入的形式,分別與納德拉來了場關於合作、大模型、晶片等維度的簡短對話。

整體來看,AI 無疑是微軟最重要的策略方向。不過,今年「開源」也成了另一大貫穿全場的關鍵詞,其不僅將 VS Code 上 Copilot 的核心功能開放了出來,就連適用於 Linux 的 Windows 子系統(WSL)也重磅開源了,實屬令人意外!

圖片

當然,除了這些重磅發布,微軟在這場大會上還有不少值得關注的技術創新。從產品體驗到底層工具,AI 又為整個行業帶來了哪些新變化?下面就一起來看看這場大會到底講了些什麼。

圖片

納德拉開場

有個小插曲是——就在納德拉登台沒幾分鐘,現場似乎有一些抗議者試圖擾亂這場活動,好在大會很快回歸正軌。

「我們正處在一輪平臺變革的『中局』階段——一切開始迅速擴展、加速演進。」納德拉在開場時這樣描述當下的技術浪潮,「這有點像 1990 年代初 Web 技術剛起步時的情形,或者像 2000 年代雲端運算和行動網際網路的快速崛起。」

他指出,目前的 2025 年,我們正迎來一個全新的 Web 擴展時代。「從一開始那幾款整合式技術棧的產品出發,我們已經走到一個由雲支持、更加開放且可擴展的 Web 架構階段。」

在用於構建軟體的開發者工具方面,數據顯示,Visual Studio 系列產品目前的用戶已超過 1500 萬,GitHub 擁有超過 1.5 億開發者,而 GitHub Copilot 的用戶數也突破了 1500 萬。納德拉對此信心十足:「這一切,才剛剛開始。」

圖片

圖片

微軟正在不斷打磨開發者的利器

時下,微軟正在不斷升級這些工具:Visual Studio 迎來多項功能更新,包括支援 .NET 10、引入即時預覽和更流暢的設計時體驗、強化 Git 工具鏈,以及為跨平臺開發打造的新調試器。更新節奏也將調整為每月發布穩定版,讓開發者能更即時獲取新功能。VS Code 剛剛發布了第 100 個開源版本,新增了多視窗支援,開發者現在可以直接在編輯器中查看和管理暫存區內容。在 GitHub 方面,微軟正推動 AI 與開源的深度結合。其宣布,將在 VS Code 中開源 Copilot 擴充功能(https://github.com/microsoft/vscode),並將這些 AI 驅動的功能直接整合到 VS Code 的核心程式碼庫中,讓 AI 成為開發體驗的一部分,也為 GitHub Copilot 的持續演進打下基礎。圖片針對 GitHub Copilot,微軟表示,現在,它已能夠幫助開發者完成如 Java 8 升級至 Java 21,或 .NET Framework 升級至 .NET 9 等版本遷移工作。Copilot 會自動處理依賴項更新、建議修復方案,並從開發者的修改中學習,從而讓整個遷移過程更加順暢、自動化。微軟還宣布推出一款專為站點可靠性工程(SRE)場景打造的自主代理——Azure SRE Agent。這款 SRE 代理能在發生線上故障時自動啟動,執行初步排查、定位根因並嘗試緩解問題,隨後將事件報告記錄為 GitHub Issue,並附帶完整的修復建議項。開發者可進一步將這些修復任務分配給 GitHub Copilot 繼續處理,從而實現閉環自動化維運。

更值得一提的是,微軟首次推出完整意義上的 Coding Agent,讓 Copilot 從「對話式程式設計助手」升級為真正的「協作式開發夥伴」。

圖片

新版 Coding Agent 的使用操作非常簡單:只需像分配任務給隊友一樣,把一個或多個 GitHub Issue 分配給 Copilot。你可以在 GitHub 網站、行動端或命令列中完成操作。此外,也可以直接通過 Copilot Chat 在 GitHub 或 VS Code 中發出指令,例如:

@github Open a pull request to refactor this query generator into its own class

一旦接收到任務,Coding Agent 會用 👀 表情回應,並在後台啟動工作流程:它會啟動虛擬機器、克隆程式碼庫、配置環境,並通過 GitHub Code Search 驅動的增強檢索(RAG)技術分析程式碼。

工作過程中,這款代理會持續將修改內容以 Git 提交的形式推送到草稿 Pull Request 中,並更新描述。同時,你可以在會話日誌中看到其推理和驗證步驟,方便追蹤思路與識別問題。

借助 Model Context Protocol(MCP),你還能將外部數據和能力接入代理。你可以在程式碼庫設置中配置 MCP 伺服器,也可以直接調用 GitHub 官方 MCP Server 獲取數據。不僅如此,得益於視覺模型的加持,代理還能「看懂」 GitHub Issue 中的圖片,包括 bug 截圖或功能草圖。

任務完成後,Copilot 會標記你進行審核。你可以留下修改建議,代理會自動讀取評論並提出相應的程式碼更新。它還會結合相關的 Issue 或 PR 討論內容,以及專案中的自訂說明,確保理解你的意圖並遵循專案規範。

圖片

大會現場,納德拉自己還進行了實操,深度體驗了這款 Coding Agent:

圖片

目前,這項功能面向 Copilot Enterprise 和 Copilot Pro Plus 用戶開放。

在談及「Agent 生態系統」的拓展時,納德拉特別提到 OpenAI 剛剛於上週五發布的 Codex Agent,還通過遠端連線的方式邀請了 OpenAI CEO Sam Altman 加入對話,討論軟體工程如何在多種智能代理的參與下持續演進。

圖片

納德拉:Sam,你一直在關注軟體開發中各種互動形式的演變,從命令列,到聊天介面,再到今天的編碼代理。你能和我們談談,你對軟體工程未來的發展方向有怎樣的設想?以及,開發者如何在不同互動方式之間自由切換、高效協同,來充分利用這些智能工具?

Sam Altman:這其實是我們早在 2021 年推出初版 Codex 時就在設想的路徑。當時我們與 GitHub 團隊合作,最初的目標之一,就是希望有朝一日能構建出一個多模態、可協作的開發平臺,讓 AI 成為每位開發者真正意義上的「虛擬搭檔」。

今天我們終於邁出了這一步,能實現這樣的編碼代理體驗,對我來說依然有些不可思議。我認為這是我所見過的程式設計方式中最具變革意義的一次。開發者如今可以真正擁有一個能接收任務的「虛擬隊友」——你可以讓它繼續處理你剛才在做的工作,也可以讓它著手更複雜的任務。甚至未來有一天,你可以對它說:「我有個大膽的想法,你去花幾天把它實現出來。」

而且這只是開始,未來只會越來越強大。最令人興奮的是,它已經和 GitHub 深度整合。你可以授權它訪問特定的程式碼庫和執行環境,然後,它就能完成一些真正令人驚嘆的工作。現在,開發者可以在保持完整思維流的狀態下,與 AI 程式設計代理自然協作,就像與人類搭檔一起開發一樣。而整個開發流程和生命週期,也因此被大大加快了。

納德拉:你們團隊還在同步推進很多模型的研發,而且表現非常出色。我們也有機會在第一時間體驗你們構建的各種模型。能不能和大家分享一下接下來模型路線圖上有哪些值得期待的新進展?

Sam Altman:我們的模型已經非常聰明了,而且還會持續進化。但我覺得最值得期待的一點是:它們將變得越來越易用。未來你不需要在一堆模型中挑來選去,它們會自動做出合理決策,更加可靠,適用範圍也會更廣。

同時,模型還會具備更多能力,比如更自然的多模態互動、更強的工具調用能力、更豐富的整合方式。我們希望它越來越接近「開箱即用」的體驗。你可以直接和它對話,讓它完成複雜的程式設計任務,並且真正值得你信任。我相信大家會對我們在這些方向上的推進速度感到驚喜。

納德拉:對於正在構建大規模、高可用、狀態持久的代理式應用的開發者來說,你有什麼建議嗎?畢竟你們已經在這個領域走在了前面。

Sam Altman:我覺得最大的挑戰是如何應對技術進化的速度。你回頭看兩年前、一年前能做的事情,再看看今天已經實現的,再想像一下未來一年、兩年還能做到什麼——這是一次真正意義上的能力躍遷。

我們需要為這種飛躍做好規劃,重新思考人們將如何構建產品、開發軟體、創辦公司,並積極擁抱新的工具和工作流。像這樣深刻的技術變革在歷史上並不常見,但每一次,當你越早全力投入其中,就越有可能收穫最大的回報。

基於此,納德拉說道,「現在是做開發者的絕佳時機,因為這些工具正在變得越來越強大。但更重要的是,這不只是關於某一個工具、某一個智能體,或某一種形式——關鍵是所有這些要素共同匯聚在一起,讓我們每一個個體、每一個軟體開發團隊都能夠更好地表達自己的能力和創造力。」

圖片

AI 「拯救」打工人,全新 Microsoft 365 Copilot 來了!

在本次 Build 大會上,微軟對 Microsoft 365 平臺進行了全面升級,重點是將聊天、搜尋、筆記本、創作工具和智能體介面進行了最佳化設計,現在看起來很簡潔。

圖片

其中最引人注目的新功能,是 Microsoft 365 Copilot Tuning 的推出,這是一種「低程式碼」方法。它支援企業根據自身的數據、流程和語言風格,對智能體進行客製化,構建真正符合業務需求的 Copilot。

換句話說,微軟的目標似乎不是讓消費者依賴 OpenAI 的 ChatGPT 模型(該模型為 Copilot 提供支援),而是讓每家企業都能擁有「自己的 Copilot」。這些客製化的智能體能夠學習公司慣用的表達方式、溝通語氣,甚至逐步掌握行業特有的專業知識。

以往,構建這類個性化模型往往需要專業的數據科學團隊、複雜部署和長週期開發。而現在,企業只需配置基礎環境,提供少量參考資料,即可快速啟動客製化流程。模型會自動繼承現有的數據權限設置,確保內容只對授權用戶可見。客製化完成後,模型可以直接整合到 Copilot 中,按需分發給特定用戶組。例如,律師事務所可以基於自有案例和文書風格進行調優,讓生成的內容更符合專業要求。

微軟強調,這些模型和智能體執行在 Microsoft 365 的服務邊界內,其不會使用客戶數據來訓練基礎模型,確保數據安全和合規。目前,Copilot Tuning 的早期體驗計畫將於 6 月啟動。

微軟還特別提到,借助 Copilot Studio 與智能體的推理能力,如今我們可以構建能夠理解業務語境、具備多任務協調能力的智能體,幫助各類角色和業務流程實現真正的「自動化協同」。在這一願景下,未來每一個業務應用都可能以「多智能體工作流」的形式被重新定義。

圖片

人工智慧代理工廠

構建出色的智能體和應用,不僅需要優秀的模型,也需要完整的系統支援。Azure AI Foundry 是一個統一的平臺,供開發者設計、客製化和管理 AI 應用程式和代理。這次大會上,微軟帶來了多項創新。

圖片

其一,便是擴充模型庫,其最新上線了馬斯克旗下 xAI 的 Grok 3,還將上線即將推出的 Black Forest Labs Flux Pro 1.1 ,以及即將通過 Azure OpenAI 在 Foundry Models 中預覽的 Sora。

圖片

在大會現場,納德拉與馬斯克進行了連線。

圖片

納德拉:非常感謝你,埃隆,來到 Build 大會。我記得你最初是在微軟實習,還是一位 Windows 開發者。現在你依然是個 PC 遊戲迷吧?能跟我們分享一下你當年在 Windows 平臺上的經歷,還有你當時開發的一些專案嗎?

埃隆·馬斯克:其實在接觸 Windows 之前,我是從 MS-DOS 開始的。我有一台早期的 IBM PC,最開始只有 128K 記憶體,後來我自己加到 256K,當時覺得這已經是巨大的升級了。我用 DOS 寫過一些小遊戲。然後進入 Windows 時代——你還記得 Windows 3.1 嗎?那是一個令人難忘的階段。

納德拉:我還記得我們上次聊天時,你還在聊 Active Directory 的那些複雜機制。你今天能來我們的開發者大會,真的太好了。對我們來說,最令人興奮的事情之一,就是 Grok 即將在 Azure 上發布。我知道你對 AI 的未來有著深刻的理解,而這也是你打造 Grok 的初衷。這個模型家族兼具回應和推理能力,並且你們還有一個非常激動人心的發展藍圖。能和我們分享一下你的願景,以及你們是如何提升模型能力和效率的嗎?

埃隆·馬斯克:有關 Grok,尤其是即將發布的 Grok 3.5,我們正在嘗試讓模型從「第一性原理」出發進行推理——也就是說,借助物理學的思維方式去構建 AI。比如,在探索真理時,我們會嘗試將一個問題拆解成最基本、最可靠的公理化元素,然後從這些出發進行推演,最後再用這些原理去驗證結論。

就像在物理學中,如果你提出了一個違反能量守恆或動量守恆定律的理論,那你要麼準備拿諾貝爾獎,要麼就是你搞錯了——而且大概率是後者。

所以我們希望通過引入這些物理學的方法論,讓 Grok 更接近於一種「誤差最小化的推理系統」。我們知道 AI 不可能完美,但我們努力在每一次推理中,盡可能接近事實,同時也能夠在發現偏差時快速糾正。我一直高度關注 AI 安全,而「誠實是最好的策略」這句話,在這個領域依然成立。

我們非常重視開發者社群的回饋。我們想知道你們真正需要什麼,我們哪裡還可以改進。Grok 的目標是成為一個開發者願意使用、也能推動他們效率的工具,而這個過程,需要你們的參與。

納德拉:我們非常期待看到開發者社群如何使用 Grok,以及它會怎樣融入他們的產品和工作流。所以,感謝你今天抽時間加入我們,埃隆。我們對這次合作充滿期待,歡迎 Grok 加入 Azure。

馬斯克:我也是,非常感謝邀請我參加這次活動。我想再強調一下,我們非常歡迎開發者的回饋。你們希望模型具備什麼能力?哪些地方需要改進?告訴我們,我們會盡最大努力把它實現出來。

其二,面對日益豐富的模型生態,模型選擇也變得愈發複雜。為此,微軟推出了全新的 Model Router,可根據任務自動選擇最合適的 OpenAI 模型,簡化開發者的使用流程。過去,一個應用或代理只能綁定一個模型;現在,真正的多模型支援已經實現。

其三, Foundry Agent Service 已正式發布(GA),允許開發者用極少量程式碼,構建可以協同工作的多個 AI 智能體,比如處理一個複雜流程時由多個子智能體分工協作完成任務。

其四,Azure AI Foundry 現已支援多代理編排,不僅適用於 Azure,也支援 AWS、Google Cloud 及本地部署。開發者可以讓多個智能體像「團隊」一樣協作完成複雜任務,彼此調用並傳遞資訊,還能通過 A2A 和 MCP 等開放標準實現跨平臺協同。這套機制還引入了狀態管理、錯誤處理和長流程支援,非常適合金融審批、供應鏈等複雜場景。同時,微軟也在整合 Semantic Kernel 與 AutoGen 框架,為多智能體編排提供統一支援。

其五,在 AI 落地過程中,效能、安全性和成本常常是企業最關心的事情。為此,微軟還在 Azure AI Foundry 中引入了新一代「可觀察性」功能,開發者可以在統一的儀表板中查看智能體的品質、回應時間、費用開銷,甚至詳細追蹤內部執行邏輯。這將幫助團隊更放心地使用這些智能體系統。

此外,微軟還推出了全新的 Foundry Observability 功能預覽版,為智能體提供從開發到生產的全鏈路可觀測性。開發者可以即時監控延遲、吞吐量、使用情況與輸出品質,並查看每個智能體的推理過程和工具調用的詳細日誌。

圖片

Windows 大改革,WSL 重磅開源!

談及微軟,不得不提的一個作業系統那必然就是 Windows 了。在 Build 2025 大會上,微軟再次強調了 Windows 在 AI 時代的重要角色。

其進一步推出了一項新計畫:Windows AI Foundry,目標是把 Windows 打造成最適合構建 AI 應用的平臺。

簡單來說,Windows AI Foundry 是微軟內部用來開發 Windows Copilot、Recall(AI 記憶功能)、一鍵操作等 AI 功能的一整套工具和平臺。現在,這些工具首次向開發者開放,而且覆蓋範圍不限於特定裝置或晶片,無論你使用 CPU、GPU、NPU,甚至是在雲端執行,都可以開發並部署自己的 AI 應用。

圖片

其中一個重要元件叫做 Foundry Local,它內置了一個已經最佳化好的模型庫,開發者可以直接在本地執行這些開源模型,完全不依賴雲端。比如微軟自己的 Phi-Silica 小語言模型,未來將會直接內嵌在 Windows 作業系統中。如果你想讓它做一些客製化任務,只需加入一個 LoRA(輕量適配器),就能快速完成「微調」,而不需要再重新訓練整套模型。

微軟認為,Phi-Silica 有望改變 PC 上 AI 推理的格局,讓本地執行 AI 模型變得像調用普通系統功能一樣簡單。而開發者將因此能構建出更貼近用戶、回應更快的智能體驗。

如果你正在構建自己的模型,可以使用 Windows ML,它也是內置的 AI 推理執行時,可在 CPU、GPU 和 NPU 之間提供簡化高效的模型部署。

除了模型本身,微軟還提供了一系列新的 API,讓開發者可以將用戶的本地數據轉化成向量,嵌入模型中,並構建帶有「上下文理解」的 AI 應用——比如混合式 RAG(檢索增強生成)系統。而所有這一切都在用戶裝置上完成,不依賴雲端,數據也不會上傳,更符合隱私保護的需求。

為了讓這些應用更智能地與系統打通,微軟還宣布 Windows 將原生支援 MCP(模型上下文協定)。這意味著 Windows 將內置多個 MCP 服務,比如檔案系統、設置、視窗管理等,開發者可以構建相容 MCP 的應用,並通過官方註冊表連接這些服務,微軟也會對這些介面進行效能和安全審查,保障用戶體驗和數據安全。

與此同時,令不少開發者頗為興奮的是,Windows 正在深度擁抱開源,而其最新官宣的 WSL 完全開源就是一個很好的證明。

圖片

之所以想起來開源,微軟表示,WSL 最早於 2016 年亮相,起初通過 Windows 核心中的 lxcore.sys 實現對 Linux 程式的支援,被稱為 WSL 1。隨著對相容性的更高要求,微軟在 2019 年推出 WSL 2,引入了完整的 Linux 核心,並陸續支援 GPU、圖形介面和 systemd 等功能。

圖片

為了加快開發節奏,微軟在 2021 年將 WSL 從 Windows 中剝離,作為獨立包發布到 Microsoft Store,並在 2022 年推出穩定版 1.0。此後,微軟持續迭代,推動用戶全面轉向新版本,並在 WSL 2.0.0 中帶來了重大更新,包括網路鏡像、代理支援和防火牆相容等。

WSL 社群一直是其發展的核心動力,儘管此前無法訪問原始碼,許多開發者仍積極參與調試、回饋和功能建議。對此,納德拉透露,其實早在專案剛啟動時,社群就有人在程式碼倉庫裡提出希望開源 WSL 的請求。但當時 WSL 深度綁定在 Windows 系統影像中,沒法單獨分離出來。如今,隨著架構演進,微軟終於實現了程式碼的「松耦合」,WSL 2 已經具備了獨立運作的能力。

如今,WSL 開源後,社群終於可以直接貢獻程式碼,這一變革有望進一步推動 Windows 成為跨平臺開發的理想環境。

圖片

WSL 架構

值此,微軟還「翻出當年的老帖子」,正式把它標記為「已解決」。

圖片

圖片

為網頁帶來更多的機器人

此次大會上,微軟 CTO Kevin Scott 推出了一個開源專案——NLWeb(https://github.com/microsoft/NLWeb),這是為了讓網站更容易接入 AI 聊天機器人。

圖片

簡單來說,只需幾行程式碼,開發者就能在自己的網站上添加一個對話框和發送按鈕,接入自己選擇的 AI 模型,並結合自己的數據,快速實現「AI 聊天」的能力。比如,一個零售網站可以用 NLWeb 搭建一個推薦穿搭的機器人,幫助顧客挑選適合出行的衣服;一個美食網站則可以創建一個聊天機器人,告訴用戶某道菜適合搭配什麼其他菜式。

更進一步,如果網站願意,還可以通過 NLWeb 把內容開放給支援 MCP 標準的 AI 平臺使用。微軟表示,希望 NLWeb 能成為「智能體網路」(Agentic Web)裡的 HTML——也就是說,就像 HTML 定義了網頁的結構一樣,NLWeb 可能會成為 AI 模型理解和使用網頁內容的新基礎。

圖片

數據

AI 技術的發展離不開大量數據的支撐,正如納德拉所強調的:「數據層是每一個 AI 應用的核心。」

圍繞這一點,微軟正式宣布了多個重磅數據產品的更新。最受關注的是即將推出的 SQL Server 2025,目前其處於公開預覽階段。這是微軟資料庫系統的重要升級版本,它提供內置的可擴展 AI 功能,增強了開發人員的生產力,並與 Microsoft Azure 和 Microsoft Fabric 無縫整合——所有這些都在 SQL Server 引擎中使用熟悉的 T-SQL 語言實現。

但更值得注意的是,微軟正在將數據能力與智能能力以前所未有的方式打通。例如,微軟已將分布式資料庫服務 Azure Cosmos DB、Azure Databricks 直接整合進了 Foundry 智能體平臺。這意味著開發者可以讓智能體更自然地「記住」對話歷史,讓數據更高效地服務於 AI 智能體。

作為整個數據棧的核心,微軟在兩年前推出的 Fabric 平臺也持續演進。今年,Cosmos DB 也被納入了 Fabric 體系。考慮到 AI 模型處理的內容越來越多是文本、圖像、音頻等非結構化數據,這一整合顯得尤為關鍵。用戶現在可以在同一個平臺上統一管理結構化和非結構化數據,並為 AI 應用做好準備。

更進一步,微軟還將數位分身構建器接入了 Fabric,用戶通過視覺化介面、甚至無程式碼方式,就能快速構建數位分身系統。與此同時,微軟還推出了 OneLake 中的 AI 驅動型快速轉換(Shortcut Transformations),本質上就是一種智能 ETL(提取-轉換-加載)工具。借助預構建的 AI 模組,比如語音轉文字、情緒分析或摘要提取,用戶只需幾次點擊即可完成複雜的數據預處理操作。

最後,微軟還宣布了一項面向所有數據消費者的重磅功能:Copilot in Power BI。這個新功能允許用戶直接通過對話形式與 Power BI 報告進行互動。你可以用自然語言提出問題,智能體會跨多個報表、模型,幫你提取數據並生成視覺化分析。這項功能也將在 Microsoft 365 Copilot 中推出,進一步打通辦公應用與數據分析的邊界。

圖片

基礎設施

在生成式 AI 爆發的今天,效能、延遲和成本幾乎成了開發者們繞不開的三重挑戰。納德拉對此表示,目前的重點不只是讓 AI「跑起來」,而是在效能、能效和成本之間找到最佳平衡點。這意味著,不只是單點突破,而是要從晶片、系統軟體到應用伺服器,全鏈路地進行協同最佳化。

微軟以「每美元每瓦特可以處理的 token 數量」為衡量指標,推進多個方向的技術躍遷:包括晶片工藝的演進、系統軟體的調度最佳化、以及模型本身的架構革新。

納德拉稱,今年 Azure 成為首個大規模上線 NVIDIA GB200 Grace Blackwell 晶片的雲平臺。現在通過將多達 72 個 NVLink 互聯機架連接成集群,Azure 單套系統每秒能處理多達 86.5 萬個 tokens,創下了目前所有公有雲平臺中的最高吞吐紀錄。

針對基礎設施領域,似乎也沒有人能比英偉達更有話語權了。基於此,納德拉也於大會現場接入了與黃仁勳的對話:

納德拉:Jensen,說到底,我們的共同目標就是為這個世界帶來更多「智能」。某種程度上,我們追求的是——每花一美元、每用一瓦電,能帶來盡可能多的計算能力。我很想聽聽你對這個方向的看法,也許可以從我們的老話題「摩爾定律」談起。

黃仁勳:其實就在兩年前,我們剛剛在 Azure 上合作打造了全球最大規模的 AI 超級電腦。這代表了計算方式的一次飛躍。你們在 Azure 上打造的新一代 AI 基礎設施,加上我們在 CUDA 演算法、模型架構方面的最新突破,讓這套系統的效能相比過去的 Hopper 架構提升了 40 倍。這麼大的提速,在短短兩年內實現,真的非常驚人。

如果說硬體是「肌肉」,那軟體的協同效應才是讓整個系統跑起來的「神經系統」。我們仍然需要統一的架構和穩定的生態系統,這樣開發者的投入才不會浪費——無論是訓練模型的研究者,還是部署系統的企業客戶。

納德拉:你能不能談談在 Azure 上,如何通過任務的多樣性和更高的資源利用率,進一步把價值發揮到極致?

黃仁勳:CUDA 的一個優勢是它已經有龐大的用戶群,另一個是它既可以加速,也具備高度通用性,適合各種工作負載。我們正在努力把像視訊轉碼、圖像處理這些任務的效率提升 20 倍甚至 50 倍。我們要做的,是確保整個數據中心的每一個任務、每一項資源都能被充分利用,真正實現物盡其用。

所以,這不僅僅是看「能生成多少 tokens」,更是看「在單位成本和功耗下,我們能加速多少種不同的 AI 任務」。而這一切,都離不開我們在硬體和軟體兩方面持續的協同創新。

感謝你們的合作、你們的領導力,也感謝我們共同的願景——打造世界上最先進的 AI 基礎設施。我相信,真正令人激動的時代,還在前面。

納德拉:謝謝你,Jensen。實際上,我們正在 Azure 上部署全球最大規模的 GB200 超級電腦,這將是我們在效能和規模上的又一次飛躍。我們也非常期待將這些能力帶給全球的開發者。

不過,AI 的底層基礎,不只是部署幾個 GPU 這麼簡單。每個 AI 應用除了需要算力,還需要高速的儲存和網路——就像你不能只造一台引擎,而不管車輪和油箱一樣。微軟正在從網路、儲存到計算資源,全方位提升 AI 系統的「效率曲線」。

在算力資源方面,微軟去年推出了基於 Arm 架構的處理器 Cobalt,並迅速在內部產品中廣泛使用,比如 Microsoft Teams 和 Defender 安全系統都跑在這上面。

當然那也不是所有工作都適合放在公有雲上。像有些場景對延遲非常敏感,或對數據位置控制要求極高,就需要「離用戶更近」的計算資源。為此,微軟的 Foundry Local 服務,讓用戶在本地也能執行和雲上相同的 AI 能力,以此構建可離線執行的跨平臺 AI 應用,將敏感數據儲存在本地,並降低頻寬成本。

圖片

利用 AI,加快科學發現

在大會的最後,納德拉還特別提到的另一個重點領域——科學研究,或許才是未來幾年最令人期待的方向之一。他認為,AI 帶來的下一個重大飛躍,可能正是在科學本身的流程上。未來我們有望加快新材料、新藥物、新分子的研發速度,而這一切的背後,是對科學發現方式的根本性重塑。

為了實現這一目標,微軟今天推出了名為 Microsoft Discovery 的全新平臺,這是一個利用 Agentic AI「改變科學發現流程」的平臺。可以把它看作是科學界的「Copilot」——就像 GitHub Copilot 重塑了軟體開發、Microsoft 365 Copilot 改變了知識工作的方式一樣,Discovery 則致力於為科學研究者打造一個專屬的 AI 助手。

這個平臺背後的核心,是微軟最新的 Graph RAG 知識引擎,它不僅能查找資訊,更重要的是能理解科學領域中那些複雜、細緻的知識結構。不管數據來自公開文獻,還是來自生物製藥公司等企業自己的私有資料庫,Graph RAG 都能將其融會貫通。

這款系統已在微軟自己的研究中展示了一定的潛力,官方數據顯示,它幫助研究者在大約 200 小時內發現了一種用於數據中心浸入式冷卻的新型冷卻劑——這一過程傳統上需要數月或數年的時間。

圖片

Microsoft Discovery 構建在 Foundry 平臺之上,背後執行的是一套高度專業化的「科學智能體」。這些智能體不是簡單的自動化工具,而是能夠進行深度推理、生成假設、執行模擬、根據結果進行回饋學習的科研助手。它們以疊代式的方式持續最佳化研究流程,更像是在參與科研本身的工作。正如微軟所描述的那樣:就像開發者有編碼助手,科學家們也將擁有真正屬於他們的「科研助手」。

以上就是本次 Build 2025 大會的亮點內容,那麼你最感興趣的技術點是什麼?歡迎下方留言分享你的看法。

推薦閱讀:

一次電梯故障,催生出大廠最愛的語言:Rust穩定版迎來十周年!

騰訊出手了!悄悄推出 AI 程式設計助手 CodeBuddy,開發者可以免費體驗到國產 Cursor 了!

二維碼也能跑遊戲?開發者用3KB極限挑戰復刻DOOM,曾一度崩潰後...ChatGPT救了場

📢 2025 全球產品經理技術大會

時間:2025 年 8 月 15–16 日

地點:北京·威斯汀飯店

2025 全球產品經理技術大會將匯聚網際網路大廠、AI 創業公司、ToB/ToC 實戰一線的產品人,圍繞產品設計、用戶體驗、增長營運、智能落地等核心議題,展開 12 大專題分享,洞察趨勢、拆解路徑、對話未來。

更多詳情與報名,請掃碼下方二維碼。

圖片

主標籤:微軟Build

次標籤:人工智慧開發者工具Windows開源


上一篇:思考成為負擔:揭秘大型語言模型的「思考陷阱」

下一篇:光影真相vs演算法幻象,AI時代的科學攝影

分享短網址