未經許可不得轉載,務必保留原文鏈接和公號名片
Web3天空之城·城主:
薩提亞·納德拉在今天凌晨的 Build 2025 大會代表微軟做了最新主旨演講,其核心是構建一個開放、可擴展、具能動性的“主動式網絡”(Agentic Web)。這標志著計算范式的又一次重大轉變,人工智能不再僅僅是工具,而是成為開發者和用戶能力的延伸,賦予每個人和組織“超能力”。
這里和大家分享微軟這次年度演講的核心內容,以及圖文全文版,共3萬字。
一、開發者與 AI 的共生進化:從編碼到智能代理
?個人編程的初心與 AI 的賦能: 納德拉從自身 15 歲開始編程的經歷談起,強調編程的樂趣和 AI 帶來的興奮感。他認為 AI 是開發者能力的延伸,能幫助解決更龐大、更宏偉的問題。
?工具的進化: 從 Visual Studio、VS Code 到 GitHub,微軟的開發者工具不斷進化,擁有龐大的用戶基礎(Visual Studio 及家族超 5000 萬用戶,GitHub 1.5 億用戶,GitHub Copilot 超 1500 萬開發者使用)。
?Copilot 的開源與深化: 宣布在 VS Code 中開源 Copilot,將 AI 驅動能力深度集成,并繼續構建 GitHub Copilot 2。這標志著 AI 從代碼補全、聊天、多文件編輯,正式邁向智能代理(Agent)。
?代理模式的應用現代化: Copilot 能夠將 Java 8 升級到 Java 21,。NET 6 升級到。NET 9,實現本地應用向云端遷移,并推出 SRE 自主代理,自動處理站點可靠性問題。編碼代理(Coding Agent)將從結對程序員轉變為同儕程序員,自主完成任務。
二、主動式網絡(Agentic Web):平臺轉變的中局
?平臺演進的歷史回顧與未來展望: 納德拉將當前階段類比于 Win32、網絡堆棧、云和移動等歷史性的平臺轉變期,認為 2025 年是構建開放、具能動的網絡(主動式網絡)的關鍵節點。
?主動式網絡的核心理念: 從垂直整合的應用程序轉向一個開放、可擴展的平臺,擴展每一層堆棧上開發者的機會,賦能每個人和組織構建應用程序和智能代理。
?Microsoft 365 平臺的演進: M365 Copilot 全面上市,被視為 Teams 發布以來最重要的更新。它整合了聊天、搜索、筆記本、創建和代理,成為 AI 的用戶界面。
?搜索的擴展: 跨 Confluence、Google Drive、Jira、ServiceNow 等應用搜索。
?創建能力的增強: PowerPoint 轉視頻,圖像生成。
?智能代理的深化: Researcher 綜合網絡和企業資源進行深度推理;Analyst 從多源數據分析并可視化。
?Copilot Studio 與 Copilot Tuning:構建企業級定制化代理
?Copilot Studio: 允許開發者構建自己的代理,支持 MCP 代理流,混合大型語言模型和確定性工作流。推出更復雜的多代理工作流編排,如新員工入職流程。
?Copilot Tuning: 推出新的企業級代理構建方式,基于公司數據、工作流和風格進行微調,學習公司獨特的語氣、語言和專業知識。
三、Azure AI Foundry:構建一流應用服務器的引擎
?從請求-響應 API 到有狀態、多模型應用的轉變: AI 應用需要達到生產就緒狀態,驅動了構建一流應用服務器的需求。
?Foundry 的核心價值: 作為智能生產線,不僅僅依賴單個模型,更注重模型周圍的系統,包括評估、編排層和 RAG。超過 70000 家組織使用,處理超 100 萬億 tokens。
?模型選擇與路由的簡化: Foundry 支持 1900 個模型,并與 OpenAI 緊密合作(如 Sora)。推出新型模型路由器,自動為任務選擇最佳 OpenAI 模型。
?開放合作與生態擴展: 宣布 xAI 的 Grok 即將登陸 Azure。與 Mistral 合作,支持其在歐盟區域的自主部署。通過與 Hugging Face 的合作,可在 Foundry 中訪問超 11000 個前沿和開源模型。
?知識圖譜與編排層的重要性: 強調代理需要出色地訪問實時網絡和企業知識圖譜,構建復雜的檢索系統。Foundry 代理服務支持聲明式代理和多代理編排。
?計算環境的全面支持: 提供從無服務器 Azure Functions 到 AKS 的全面計算能力。
?Foundry 與 Copilot Studio 的閉環: 將 Foundry 中微調或后訓練的模型直接放入 Copilot Studio,自動化工作流程或構建代理。
?可觀測性: 推出新的可觀測性功能,幫助監控和管理生產中的 AI。
四、Windows 的現代化:成為 AI 的最佳平臺
?Windows AI Foundry 的發布: 將微軟內部構建 Copilot Plus PC 功能的運行時和 SDK 開放,支持 CPU、GPU、NPU 及云端開發,使應用能在各種芯片上運行。
?Foundry Local: 內置于 Windows AI Foundry,提供豐富的預優化開源模型目錄,可在設備本地運行。
?自定義模型: 使用 LoRa 適配器自定義內置的 PHY Silica SLM。
?豐富的語義 API: 將本地數據嵌入并索引到向量存儲中,保護隱私。
?Windows 對 MCP 的原生支持: 包含內置 MCP 服務器(文件系統、設置、應用操作、窗口管理),并添加原生 MCP 注冊表,提升客戶端兼容性和安全性。
?WSL 的全面開源: 宣布 WSL 完全開源,進一步鞏固 Windows 作為主動式網絡開發環境的地位。
五、開放的未來:信任、合作與共同構建
?Kevin Scott(CTO)的分享: 強調“代理式網絡”是共同努力的成果,并以開放的方式發生。
?代理的定義: 人類能夠將任務委托給它的事物,且任務會越來越復雜。
?運行時層的重要性: 提升模型推理能力,構建強大的代理記憶。
?協議的重要性: MCP 和 A2A 是連接代理與世界的關鍵,微軟致力于 MCP 的嚴肅承諾。
?NL Web 的發布: 一種簡單方式將現有網站或 API 轉換為代理應用程序,豐富服務和產品。
?以人為本,科技向善: 納德拉始終強調,技術的重點不在于技術本身,而在于人們可以用它來做什么。
納德拉的演講表明,微軟正全力以赴地推動一場以 AI 代理為核心的計算革命。通過開放其核心技術(Copilot、Foundry、Windows AI 能力、WSL),構建強大的開發者生態,并與合作伙伴(OpenAI、xAI、Mistral、Anthropic 等)共同努力,微軟旨在打造一個更加智能、更具賦能效應的“主動式網絡”。并希望這個網絡將不僅僅改變我們與技術的交互方式,更將影響各行各業的創新和發展,最終賦能地球上的每一個人和每一個組織。
==Web3 天空之城圖文全文版==
視頻畫外音:
我大概在 15 歲左右開始編程,根本無法讓自己從這些機器旁離開。我想成為一名開發者,編寫代碼,于是我開始創建自己的電子游戲。它點燃了我心中的某種東西,我開始真正喜歡上編程。
成為一名程序員,為我打開了世界。我對人工智能感到非常興奮。那種驚奇之感,正是我開始開發軟件的原因。我很期待看到我們將用如此強大的工具構建出什么。
使用代理進行編程確實是一種賦能。這就像我自身的延伸,它幫助我走得更遠。沒有項目過于龐大,沒有想法過于宏偉,這很神奇。如果你讓每個人都能使用人工智能,你基本上就是讓每個人都擁有了超能力。
知道我的項目正在被人們使用,使他們的生活變得更好,為了對世界產生影響,解決我們想要解決的問題,那是世界上最棒的感覺。我的想法是無限且永無止境的。我們所做的一切都在賦能他人,使世界變得更美好。
早上好。早上好,歡迎來到 Build。
能再次回到 Build 總是令人愉悅的,尤其是在這樣的時代。我們正要進入又一個平臺轉變的中局階段。這些中局階段才是萬物發生的地方,萬物皆可擴展。事實上,它讓我想起了 91 年的 Win32,或者 96 年的網絡堆棧,2008 年,以及云和移動。現在我們來到了 2025 年,正在大規模地構建這個開放的、具能動的網絡。
我們正在從這些少量的、具有垂直整合堆棧的應用程序,轉變為一個平臺,該平臺能夠實現這種開放的、可擴展的、具能動的網絡。更重要的是,這一切都是為了擴展每一層堆棧上開發者的機會,以便你們所有人都可以構建應用程序和智能代理,從而賦能地球上的每一個人和每一個組織。這就是我們將在本次會議上探討的內容。
但讓我們從一切的起點開始,即我們用來構建的工具。軟件工程始終都是關于擁有合適的工具,將你的想法變為現實,不斷完善、精雕細琢并駕馭復雜性。我們正在不斷地改進這些工具。我們看到了令人難以置信的勢頭、采用和傳播。事實上,Visual Studio 及其家族現在擁有超過 5000 萬用戶。GitHub 擁有 1.5 億用戶。事實上,GitHub Copilot 已經被超過 1500 萬開發者使用。而我們才剛剛開始。
我們有一系列新的更新將在 Build 大會上推出,首先是 Visual Studio。它是針對 。NET 和 C++ 最強大的集成開發環境,而且我們正在使其變得更好。
支持 。NET 10,設計時的實時預覽,Git 工具的改進,跨平臺應用程序的新調試器,以及更多。我們將轉向每月一次的穩定版本發布節奏。
至于 VS Code,幾周前,我們發布了第 100 個開源版本,它包括改進的多窗口支持,并使得直接從編輯器中查看暫存區更加容易。
GitHub 仍然是開發者的家園,GitHub 企業版在企業中擁有巨大的發展勢頭。我們正在加倍努力,為構建任何應用程序的開發者提供支持,信任、安全、合規性、可審計性和數據駐留今天變得更加關鍵。
從您使用的工具到您部署的基礎設施,再到您想接觸的用戶和市場。談到信任,開源是 GitHub 的核心。我們正在邁出下一個重要一步。
隨著 GitHub Copilot 在 VS Code 內部的演變,人工智能已經成為我們編碼方式的核心。這就是為什么我們要在 VS Code 中開源 Copilot。從今天開始,我們將把這些人工智能驅動的能力直接集成到 VS Code 的核心中,將它們整合到為世界上最受歡迎的開發者工具提供支持的同一個開源倉庫中。當然,我們將繼續構建 GitHub Copilot 2。
事實上,在過去的幾年里,我們已經從代碼補全發展到聊天,再到多文件編輯,現在是智能代理。并且這種相同的模式正在更廣泛地出現在智能代理網絡中。你可以提問,人工智能助手會給出答案。你可以將任務分配給智能代理,并讓它們執行這些任務,或者與人工智能并肩工作,以完成工作和項目。而且你可以混合和匹配所有這些形態。
我們正在將應用程序現代化直接構建到代理模式中。因此,Copilot 現在能夠將 Java 8 等框架升級到 Java 21,或將 。NET 6 升級到 。NET 9,并將任何本地應用程序遷移到云端。它為你的代碼和依賴關系創建一個計劃,沿途提出修復建議,從你所做的更改中學習,并使整個過程無縫銜接。
我們接下來要推出的是一個用于站點可靠性工程(Site Reliability Engineering),或 SRE 的自主代理。SRE 代理會自動開始分類、根本原因分析和緩解問題,比如值班時遇到內存泄漏問題。
它會將事件管理報告作為包含所有修復項的 GitHub 問題記錄下來。
從這里開始,你可以將修復項分配給 GitHub Copilot。
這是向前邁出的下一個重大步驟,一個完全整合到 GitHub 中的完整編碼代理,將 Copilot 從一個結對程序員轉變為一個同儕程序員。你可以將問題、缺陷修復、新功能、代碼維護分配給 Copilot,它將自主完成這些任務。
今天,我非常激動地宣布,它現在對你們所有人開放。
簡單地報告缺陷的日子已經一去不復返了。現在,我被分配了修復缺陷的任務,這被稱作賦權。現在我在這里,處理我在 GitHub 問題中必須處理的所有缺陷或問題。第一個問題是為用戶群組規模社區頁面添加過濾器。
他們說,我得在這里安裝一些新的過濾器。它還會告訴我位置。我想它需要按大小劃分范圍,小、中、大,或者某種百分比。就像某種按案例分組,根據類型進行處理的東西。總之,我們先做對我來說最容易的事情。
實際上,它甚至有一些緩存機制,我完全不知道那是什么,但我猜有一個暫存緩存和一個 Redis 緩存。好吧,就這樣。讓我們做我能做的事情,那就是把它分配給我的新伙伴,Copilot。所以我要分配它。
讓我們去看看。它識別出來了。它創建了一個 PR(拉取請求)。它似乎知道我在這里,并且似乎正在繼續工作,我們稍后回來檢查一下。
能夠處理像這樣的問題,比如將郵件分類分配給 Copilot,真是太有趣了。但它正在做的是建立一個分支。它啟動 GitHub Actions,從某種意義上說,它只是為你生成計算資源,或者使用 GitHub Actions 創建一個虛擬機。它會將草稿 PR 提交到會話日志中,你可以回到會話日志,并持續看到所有正在工作的草稿 PR。
我們的編碼代理在提供卓越開發者體驗的同時,尊重所有的安全措施。這顯然極其重要。該代理在其自己的分支中工作。它僅使用由開發者配置的 MCP 服務器。我們可以讓其他代理執行代碼審查,并在它們運行任何 CI、CD 或合并時,讓相關人員參與其中。
我們還將所有這些內在特性提供給合作伙伴,以確保存在一個開放且安全的代理生態系統,無論是 SRE、SWE、代碼審查,還是你們所有人將構建的更多代理。
我們還要確保個人開發者和 IT 部門擁有所有的控制權。
談到代理生態系統,我對于 OpenAI 上周五發布的 codex 代理感到非常興奮。
納德拉和 Sam Altman 對話:
開發者用于軟件工程的各種不同形式的工具,一直在深入思考。CLI,還有上周的編碼代理。想談談對軟件工程如何演進的愿景,以及開發者將如何共同使用所有這些不同形式的工具嗎?
事實上,Codex 的第一個版本,那是早在 2021 年,在 GitHub 上一起做的最早的事情之一。一直在討論,總有一天我們會達到一種真正的智能體編碼體驗。對我來說,它終于實現了,這有點不可思議。這是我見過的對編程的最大改變之一。現在你擁有一個真正的虛擬隊友,可以給它分配工作,你可以完成一些事情,以及越來越多更高級的事情,在某個時候說,我有一個大的想法,去工作幾天,把它完成。而且你可以并行地發出許多請求,你可以修復錯誤,實現新功能,回答關于代碼的問題。這就像是真正的軟件工程任務委托。而且我認為它只會越來越好。如果你真正深入地使用 GitHub,你可以讓它訪問一個 reponent 環境,而且你可以完成一些非常了不起的事情。
讓開發者保持狀態,與本質上的同行程序員(也就是智能體)以及我們合作的其他人員一起工作,并使開發者流程本身和生命周期變得更快,這也非常棒。
你們也在研究很多模型,而且這些模型非常出色。事實上,有機會同步發布了一些你們構建的模型。請簡要介紹一下模型路線圖本身方面,未來會有哪些進展。
這些模型已經非常智能了,它們也會繼續變得更智能。但最令人興奮的事情之一是,這些模型的使用將會變得更簡單。你不需要從中挑選那么多的模型。它會自動地做正確的事情。它們會變得更加可靠。你將能夠在更多方面信任它們。將會有更多功能,例如多模態、卓越的工具使用和集成。它會更接近于“即插即用”。我可以和它對話。我可以完成復雜的、具備自主行動能力的編碼任務。我可以依賴它。
人們會對我們在這些方向上取得進展的速度感到驚訝。我知道大家對模型路線圖感到非常興奮。
當你審視 ChatGPT 時,它是目前規模最大的、有狀態的、具有自主代理能力的應用。Codex 是另一種代理應用。
本次大會旨在剖析,讓每位開發者都能在某種程度上構建這些新型的具有自主代理能力的應用,這些應用可以使用模型,進行自己的模型支架搭建,甚至可以進行多代理協同編排。
在大家構建這些大規模生產級的有狀態的自主代理能力的應用時,有什么建議?我認為關于這件事,最困難、最難管理的事情之一就是變化的速度。如果你思考兩年前、一年前或者現在所能做的事情,以及未來一兩年內可能做的事情,考慮到模型能力這種驚人的增長,以及人們在不久的將來將如何構建產品、軟件和公司,并且真正傾向于使用新的工具和新的工作流程,在歷史上我們還沒有見過像這樣的技術變革。早期且堅定地投入已經獲得了非常豐厚的回報。
我們希望在本次大會上真正剖析的一件事是,什么樣的應用服務器可以讓你采用最新的示例,并以這種速度持續前進?這是我們作為開發者構建這些應用程序時所面臨的挑戰。
在過去的幾個月里,當我們內部進行 Codex 的開發時,觀察這個過程真是太令人驚嘆了。我們與早期使用者合作,觀察到那些整天使用 Codex 的人們,他們的工作流程發生了多么迅速的改變,相對于其他人,他們所能完成的驚人數量也相當有趣。
非常感謝這次合作。在 Build 大會上再見。謝謝你們的邀請。
現在對于開發者來說,真是個不可思議的時代。所有這些工具都變得越來越豐富。更重要的是,這不僅僅關乎任何一種工具、任何一種代理,或者任何一種外形尺寸。而是關于它們所有集合在一起,讓我們作為個體以及作為軟件工程師團隊,能夠表達我們的技藝。
現在,讓我們向上提升一個層次。讓我們來談談 Microsoft 365 的平臺機遇。我對 Microsoft 365 Copilot 的最新更新感到非常興奮,它現在已全面上市。看到這一點真的令人激動。這是最大的更新。事實上,如果你仔細想想,我認為自從 Teams 發布以來,我們還沒有過這種級別的更新。
它真正將聊天、搜索、筆記本、創建和代理整合到一個直觀的框架中,這可以被看作是人工智能的用戶界面。聊天基于網絡數據和工作數據,這對于頁面來說是一個真正的游戲規則改變者。
搜索可以跨所有應用程序工作,無論是 Confluence、Google Drive、Jira 還是 ServiceNow,而不僅僅是 M365 數據。通過筆記本,可以創建異構的數據集合,例如將聊天、頁面以及任何文檔、電子郵件都放在這個集合中,然后從中提取音頻評論或播客。
創建功能可以將 PowerPoint 轉換成新的解釋視頻,或者生成圖像。智能代理中,研究員(Researcher)能夠綜合網絡和企業資源,將深度鏈式思維推理應用于任何主題或任何項目,分析師(Analyst)能夠從多個源文件的原始數據入手進行分析,直接上傳 Excel 文件即可獲取其中的洞見、進行預測并完成所有的可視化操作。這些智能代理最終都是為了將專業知識置于您的指尖。
Teams 將這一切整合,使其成為多人協作的平臺。你構建的所有代理現在都可以出現在 Teams 和 Copilot 中,可以通過在聊天或會議中簡單地@提及代理,來提問、分配行動事項或啟動工作流程。借助 Teams AI 庫,構建多人代理比以往任何時候都更容易,它現在支持 MCP(多人協作協議),僅需一行代碼,你甚至可以啟用 A2A(代理間通信),可以使用 Azure 搜索和一個新的檢索系統來添加諸如情景記憶或語義記憶等功能。
作為一名開發者,你可以發布代理,將代理發布到代理商店,使其在 Copilot 和 Teams 上被發現和分發,從而讓你接觸到數億用戶并釋放這一機遇。
在過去的一年中,我們看到各行各業的眾多合作伙伴構建了連接到 Copilot 和 Teams 的代理。例如,通過 Workday 的代理,你可以詢問 Copilot 什么需要你關注,它會給你所有 Workday 任務的摘要,讓你掌握學習、審批和工作流程的最新進展。
對于 ServiceNow 代理,可以實時詢問事件、所有解決指標,然后立即創建一個包含所有結果的 PowerPoint 演示文稿。
借助 LSEG 的代理,金融專業人士可以直接在 Excel 和 PowerPoint 中發現、分析和共享交易所發布的任何金融數據。
通過 Copilot Studio,可以開始構建自己的代理。 我們已經向 Copilot Studio 發布了很多新功能。 最近,我們將一個完整的核心代理直接放入了 Copilot Studio 中。 MCP 代理流,這非常關鍵。 現在,可以混合搭配大型語言模型和確定性工作流。
今天,我們讓在 Copilot Studio 中使用編排構建更復雜的多代理工作流變得更容易。 比如新員工入職,實際上這是一個相當復雜的過程。 它涉及來自設施、財務、法律等部門的代理,每個代理都有自己的專業知識和工作流。 因此,可以將它們整合在一起,一切都變得更快,并且每個人的體驗都更好。 這種多代理編排直接在 Copilot Studio 中進行。
總而言之,在過去的一年中,您已經構建了超過 100 萬個與 Copilot 團隊連接的代理,而且我們不會放慢速度。
今天,我們將推出一類新的企業級代理,可以使用基于貴公司的數據、工作流和風格進行微調的模型來構建它們。 我們稱之為 Copilot 調優。 這意義重大。
我的意思是,在某種程度上,這不僅僅是使用 Copilot,而是為每個客戶、每個企業、每個公司調整 Copilot。 現在,Copilot 可以學習您公司獨特的語氣和語言,而且很快它將更進一步,理解公司所有的特定專業知識和知識。
您只需要用一小部分參考文獻來播種訓練環境,然后啟動訓練運行。 定制模型繼承所有源代碼控制的權限,一旦集成到代理中,就可以部署到授權用戶。 所以您可以進入您設置的組,并在 Copilot 中進行分發。
例如,如果您是一家律師事務所,它將通過過去的論點和相關文獻進行推理,并提供非常符合您事務所的答案或生成文檔。 如果您是一家為多個垂直行業提供服務的咨詢公司,那么現在您可以開始為每個垂直行業調整這些模型,以反映您所了解的該行業工作流程的特定專業知識。
這都是關于獲取您作為一家公司所擁有的專業知識,并進一步放大它,以便公司中的每個人都能獲得它,并且您的產品和服務也能反映它。
為了讓大家對以上內容有個更直觀的感受,請允許我邀請 Mitty 上臺,為大家展示 Copilot 的整個生態系統。Mitty,交給你了。
作為開發者,我們可以使用全新的 Microsoft 365 Copilot 應用、Copilot Studio 和 Copilot Tuning 輕松擴展生產力解決方案。
讓我們從全新的 M365 Copilot 應用開始,我將向大家展示 Copilot 如何對我的 GitHub 待辦事項進行推理。這個應用是我集五項功能于一體的工作中心,包含聊天、搜索、代理、筆記本和創建功能。
在這里,我可以調用像研究員代理這樣的代理。研究員可以對我的所有工作數據進行推理。通過連接器,它甚至可以接入 GitHub。讓我們請求幫助,分析性能問題并確定下一步的優先級。它會繼續,并問我幾個澄清問題,就像我將這項任務委派給團隊中的某個人一樣。我會給它提供更多指導,然后它就開始工作了。
因為它建立在 OpenAI 03 推理模型之上,Researcher 會顯示其推理鏈,因為它從網絡和我的工作數據中提取信息。我在這里看到它給了我所需的一切,包括一些引文,以幫助我入門。
現在讓我向您展示如何在 Visual Studio 中構建此連接器。只需幾個步驟,我就可以添加一個名稱和一個保存位置。并且在幾秒鐘內,M365 代理工具包就為我提供了完全腳手架化的代碼,我可以對其進行修改。比如使用 Microsoft Graph API 創建我的連接。然后我可以索引任何類型的數據,因此在這里我為我的場景定義了一個特定的模式。接下來,我將使用 GitHub API 來獲取我的問題。最后,我會將每個議題導入 Microsoft Graph,以便 CodePilot 現在可以基于這些數據進行推理。
那么讓我們看看它的實際運行效果。我看到我的所有議題都在被索引,并且我獲得了正在發生的所有事情的完整日志。在日志加載時,我會向上滾動并確認我的 GitHub 連接已建立,并且它擁有我關心的所有待辦事項。
接下來,讓我們展示 CodePilot Studio 如何幫助我們以少量代碼構建代理。在這里,我創建了一個 RFP(征求建議書)響應代理,你可以在 Teams 中看到它。我看到它生成了一份提案,甚至使用它自己的 Entra ID 進行了發布。
這里可以看到一份特定的提案,其中包含期望的內容、語言和格式,例如來自一位經驗豐富的員工的提案。
現在繼續看看如何構建它。為此,將跳轉到 CodePilot Studio。在這里,描述了希望智能體執行的任務,并給出了一些指令。默認情況下選擇了 GPT-4.0 響應模型,但可以通過 AI Foundry 選擇其他模型。
向下滾動頁面,選擇要將此智能體基于哪些知識,以確保它從組織內的正確來源提取信息。
繼續向下滾動到工具部分,已經添加了這個觸發器,每當收件箱中收到新的 RFP(征求建議書)時,它都會提示智能體開始工作。
現在將這個智能體連接到 Dynamics MCP 服務器,以便它可以訪問 SKU(庫存單位)和定價數據。這將使得提案更加詳細。只需點擊幾下,它現在就已連接。此服務器將自動保持智能體的更新。
它還可以使用第三方服務器,如 DocuSign,或自定義 MCP 服務器,例如創建的這個 SAP 服務器,以訪問客戶帳戶數據。該智能體需要能夠檢查合規性和合同條款。
現在,不必從零開始構建,可以直接使用新的多智能體編排。正如薩蒂亞所說,這意味著智能體現在可以相互協作,承擔更復雜的工作。
現在繼續將此智能體連接到專門進行合規性檢查的智能體。通過編排,RFP(征求建議書)智能體可以連接到合規審查智能體,以確保不存在危險信號。如果通過,它現在將返回到此智能體以繼續該過程。
這樣,RFP 回復智能體就啟動并運行了。
現在轉到 Co-Pilot Tuning,這是薩蒂亞剛剛宣布的。這是一種低代碼的方式,可以完成原本需要整個數據科學家團隊花費數周才能完成的工作。專門為合同編寫而設計的新模型的微調。
這就是它在實際操作中的樣子。打開合同生成器代理,并要求它使用幾個示例文檔來起草一份合同。它將參考這些文檔以及創建的自定義模型來組裝合同。當文檔完成后,將收到一封包含草稿的電子郵件。
現在來看一下。看到這份合同正在使用公司語言、條款和條件、結構和格式。
下面是如何構建它的。將從創建一個新模型開始。將提供一些基本信息,一個名稱、一個描述,然后選擇任務類型,在本例中是文檔生成。現在將添加知識來源。在這里,我們將使用來自 SharePoint 的合同數據庫。會指定誰應該擁有訪問權限,所以是合同團隊和采購團隊。
我們會確保 Copyle 對知識來源和已調優模型的全部訪問權限都是一致的。
這樣,我們的合同構建器現在就可以進行數據標注了。
一旦主題專家完成了數據標注過程,我們就可以完成此微調模型的訓練。
讓我們繼續發布它。從 M365 Copilot 應用程序中,團隊可以選擇創建代理、選擇特定任務代理,并選擇我剛剛微調的合同構建器模型。
這樣,代理就準備好了。作為一名開發者,我已經擴展了我能夠交付的工作,從而使最接近業務的人員能夠通過人工智能重新構想他們的工作流程。
我對 Copilot Studio 感到非常興奮,它能夠訪問推理模型,并且能夠執行像 Copilot 調優和確定性工作流這樣的操作。在某種程度上,現在可以考慮這些代理和多代理框架,以代理的方式為每個角色、每個業務流程編排工作流。特別是一旦你開始讓每個業務應用程序都顯示為 MCP 服務器,就可以想象作為一名開發人員,如何開始思考下一級別的自動化。這在如何看待工作流和業務流程自動化方面,絕對是一個顛覆性的變革。那些 SaaS 應用程序和生產力軟件都通過角色和流程整合在一起。
這真是令人激動的一天。對我們來說,我們正在做的是將 Copilot、Copilot Studio 下的所有內容都拿出來,并將它作為一個一流的平臺提供給你們所有開發者,以便你們構建自己的應用程序、自己的應用程序擴展。
隨著模型發展得越來越快,并且通過每隔幾個月發布的新樣本變得更加強大,應用程序將不得不發展成為完整的、有狀態的應用程序,這些應用程序是多模型和多代理的。這就是現在最大的轉變。這不再是關于一個只有請求-響應 API 調用的模型。我們正在構建真實的、有狀態的、多模型應用程序,而且它們必須達到生產就緒狀態。因此,這就是構建一流應用服務器的動機。
將 Foundry 視為一條智能生產線。構建這些智能體和應用程序,僅僅靠一個出色的模型是不夠的。模型周圍的系統,無論是評估、編排層還是 RAG(檢索增強生成),都至關重要。Foundry 是人工智能時代的完整應用平臺。超過 70000 家組織已經在各個行業中使用它。包括寶馬、Carvana、可口可樂、納斯達克,以及像 Gainsight 等眾多獨立軟件供應商。
他們都選擇了 Foundry,企業正在從僅僅進行概念驗證轉向全企業范圍的部署,以真正釋放人工智能的投資回報率。
在過去三個月中,我們處理了超過 100 萬億個 tokens,同比增長了 5 倍。
不久前我在日本的時候,我看到了一個用 Foundry 構建的應用程序,它可以幫助患有聽覺處理障礙的人理解他們所聽到的內容,這讓我印象深刻。
視頻畫外音:
我兩歲的時候,因為耳聾什么也聽不見。我完全聽不到,所以有人告訴我這個世界是有聲音的。我遇到了加藤先生,他開始使用 YY 系統。他非常感動,給我們寫了一封信,信的內容是,我們的生活開始發生改變。最大的問題是我們無法溝通。在日本,有很多方言。因此,我們決定開發 MyEngine,讓人們可以用自己的語言說話,并將其翻譯成文字。
我們是 Azure AI Foundry,并且我們大量使用它。我們使用它的主要方式是驗證邏輯以糾正語音,并驗證翻譯是否適當。我們使用 Azure 語音服務進行實時寫作。除此之外,我們學習語音并為語音制作自定義模型。感謝這一點,我們的 Y.Y。系統在日本已達到 145 萬次下載。
我過去只知道我的孩子和孫子孫女們的聲音。我不知道他們在說什么。但我現在知道了,所以我可以教他們。我曾經只是一名工程師。但是當我發布這款應用時,用戶的聲音真的支持了我。我認為那是我的能量和動力。
真的非常感謝所有開發者分享這個故事。這真的很鼓舞人心。
今天,我們將更進一步。對于 Foundry 而言,一切始于模型選擇。我們已經支持 1900 個模型,無論是響應模型、推理模型、特定任務模型、多模態模型,應有盡有,它們都在 Foundry 中。當然,這包括我們 OpenAI 合作伙伴的最新成果。僅今年,我們已經在 Azure 上同步發布了來自 OpenAI 的 15 個模型,在新模型發布時提供當日訪問,而 Sora 將于下周推出。
作為開發者,我們關心多個維度,包括成本、可靠性、延遲以及質量。而 Azure OpenAI 是同類最佳。我們提供企業級保障,如高可靠性和出色的成本控制,無批處理或溢出,當然,還有領先的安全、合規和保障措施。但即便如此,選擇模型仍然可能有些繁瑣,您需要能夠快速將查詢路由到正確的模型,因此我們也正在簡化這一過程。
我們的新型模型路由器將自動為任務選擇最佳的 OpenAI 模型,無需再進行手動模型選擇。然而,目前構建的應用程序或代理只能綁定到一個模型,為了真正轉變為多模型。
因此,今天我們很高興地宣布,來自 XAI 的 Grok 即將登陸 Azure。 Grok 3 在一個單一模型中提供了推理、深度搜索和響應模型。
讓我們播放視頻。
納德拉和馬斯克的對話:
非常感謝你,埃隆,能來參加 Build 大會。 我知道你最初是在微軟做實習生,是一名 Windows 開發者,而且你現在仍然是一位重要的 PC 游戲玩家。 你想談談你在 Windows 早期的經歷,以及你構建的那些東西嗎?
是的,實際上我開始于 Windows 之前的 DOS 系統。 我有一臺早期的配備 MS-DOS 的 IBM PC,我記得一開始有 128K 的內存,后來增加到 256K,感覺像是很大的內存了。 我在 DOS 上編寫視頻游戲,然后后來在 Windows 上,我記得 Windows 3.1。
和大家在我們的開發者大會上見面真是太棒了。 顯然,對我們來說,最令人興奮的事情就是在 Azure 上推出 Grok。 我知道你對人工智能的未來有著深刻的愿景,而這正是推動你構建它的原因。 這是一個既能回應又能推理的模型家族,而且你有一個非常激動人心的路線圖。 你能否跟我們談談你的愿景,你在能力和效率兩方面都在努力突破。 或許你可以簡單地談談這方面的情況。
當然。 對于 Grok,尤其是即將發布的 Grok 3.5,它試圖從第一性原理進行推理,即將物理學的工具應用于思考。 因此,如果你想獲得根本真理,你需要將事物分解為最有可能正確的公理要素,然后從那里向上推理,然后你可以測試你的結論,如果你違反了能量或動量守恒定律,那么你要么會獲得諾貝爾獎,要么你就是錯的,而且你肯定錯了。
所以,Grok 3.5 的重點實際上是物理學的基礎知識,以及將物理學工具應用于所有推理路線,并以最小的誤差追求真理。 總會存在誤差,但目標是在承認誤差的前提下接近真理,并隨著時間的推移盡量減少誤差。 我認為這對于人工智能安全來說實際上極其重要。 我長期以來一直在思考人工智能安全問題,而我最終的結論是那句老話:誠實是最好的策略。 對于安全而言,確實如此。
我想強調,我們過去犯過錯,將來也會犯錯,但我們渴望迅速糾正。我們非常期待來自開發者社區的反饋,了解你們需要什么?我們哪里出錯了?我們如何才能做得更好? 并希望 Grok 能成為開發者社區非常樂于使用的東西,讓他們能夠感受到他們的反饋得到了傾聽,并且 Grok 正在改進并滿足他們的需求。
我非常激動能開始這段旅程,獲得開發者的反饋,并期待他們如何部署它。非常感謝您今天能抽出寶貴時間加入我們,我們非常期待與你合作并將它交付到開發者手中。
我們要再三強調,我們正在尋求來自開發者群體的反饋。告訴我們你們想要什么,我們會盡力實現。
我們希望開始這段旅程,獲得關于 API 方面的反饋,并在某種程度上幫助他們制定路線圖。 我們對所有這些新的公告感到興奮。
當你擁有多個模型時,你需要一種使用這些模型的新能力。現在你可以在 Foundry 上一次性配置吞吐量,并且你可以跨多個模型使用該配置的吞吐量,包括 Grok。這在您思考模型和模型供應的方式上,是一個顛覆性的改變。
一旦您完成了這一步,您就擁有了 Mistral,您甚至可以在歐盟區域以完全自主的方式進行部署,這對于世界各地構建應用程序的人們來說,正變得越來越重要。我們也對他們在開源、黑森林實驗室以及更多方面取得的所有進展感到興奮。
所有這些,都集中在一個已供應的吞吐量背后。因此,作為開發者,能夠混合搭配并使用它們,這對我們來說是很令人興奮的。它們中的許多都具有相同的 API 簽名,因此,能夠進行這些模型切換的能力甚至擴展了我們與 Hugging Face 的合作關系。您將能夠在 Foundry 中訪問超過 11000 個前沿和開源模型。
模型只是等式的一部分。對于任何構建代理的人來說,真正要有所成就,您需要能夠真正出色地訪問實時網絡,以及整個企業知識圖譜。我們了解到,構建一個復雜的檢索系統,僅僅擁有向量搜索和一些嵌入是不夠的。你真正需要的是一個數據庫或知識引擎,一個為代理專門定制的查詢引擎,這樣你就可以分解一個復雜的查詢,并行運行它們,并返回綜合的結果。把它想象成一個現代的代理知識棧,可以理解用戶想要什么以及你的數據意味著什么。
有了系統這一部分,下一層就是編排層。
你需要能夠編排所有這些代理或多個代理。 Foundry 代理服務讓你能夠構建聲明式代理,只需在門戶網站中編寫幾行代碼即可。 對于復雜的工作流程,它支持多代理編排。 它與 Semantic Kernel、AutoGen 等框架無縫集成,你可以將代理服務用作執行環境的托管服務。 超過 10000 個組織已經在使用它,代理服務現在已經全面可用。
運行了這些代理,接下來你需要的就是計算環境。 我們正在打造各種產品,從無服務器的 Azure Functions 到 Azure Container Apps,再到 AKS 為您提供的極限控制以及其擴展方式。 我們提供全方位的計算能力,以便您可以為任何您的代理場景找到合適的性價比。
我們使其變得簡單直接,例如,你可以將 Foundry 連接到你的容器應用或函數,并將任何開源模型部署到 AKS 中,無論它是在云端還是通過 Arc 以混合模式運行。 越來越多地,你甚至希望將這些模型部署在邊緣,而 Foundry 將會支持這一點。
我們正在彌合 Foundry 和 Copilot Studio 之間的差距和閉環。 這對開發者至關重要。 你現在可以采用一個模型,在 Foundry 中對其進行微調或后訓練,然后將其直接放入 Copilot Studio 中,這樣你現在就可以使用經過后訓練的模型來自動化工作流程或構建代理。 這就是你可以做的事情。
其中一個絕佳的例子是斯坦福大學醫學院所編排的,他們使用多個代理連接患者病史、放射學檢查和 PubMed 數據, 以進行諸如癌癥護理和腫瘤委員會會議等關鍵任務,并完全通過人工智能來編排這一切。 這非常令人難以置信。
視頻畫外音:
斯坦福醫學在癌癥研究領域處于領先地位。 在治療方面,腫瘤委員會是一個非常重要的會議,由許多不同的臨床醫生召開,因為患者的病情呈現方式是他們不熟悉的。
你必須整合關于藥物、任何手術、放射學、實驗室檢查、患者病史以及醫學文獻的信息。 不僅僅是您需要為腫瘤委員會收集大量信息。 而是這些信息分散在許多不同的地方。
斯坦福大學每年大約舉行 4000 次腫瘤委員會會議,匯集真實世界證據、文獻和臨床試驗。 每年超過 4000 次。
醫療保健代理協調器是一種將所有信息匯集在一起的方法,以便更高效、更快速、更準確地幫助做出患者決策。這是一個可以通過 Azure AI Foundry 部署的主動性人工智能解決方案。
我們已經能夠構建、定制和部署我們自己的代理,第一個用例是腫瘤委員會。存在一個編排層,它允許所有不同的代理進行調度,并向臨床醫生提供一份綜合報告,該報告匯集了所有不同的信息來源。
微軟融入其代理的一個非常強大的功能是在特定的臨床筆記中進行溯源。他們已經在用 Word 來總結事物,經常制作 PowerPoint 幻燈片。這使我們能夠將所有內容整合到一個綜合環境中,成為一個摘要。只需幾行代碼即可將這些代理部署到 Teams 中,以便我們可以開始直接與它們交互。
所有這些系統之間的集成度越高,他們在這些機械性事務上花費的精力就越少,我們就可以將更多的精力投入到我們擅長的實際決策中。它作為一個我們可以構建的平臺來交付。我們可以將事物打包起來與他人分享,以便社區醫院能夠獲得與學術醫療中心同等的能力。如果我們工作得更快,并且憑借更好的信息做出更好的決策,那么這本身就是一場革命。
我們希望開發不僅能幫助斯坦福的醫生,而且能幫助全世界醫生的工具。我認為這將是具有變革性的。我很高興地分享斯坦福大學使用的這種醫療保健代理編排器現在可供 Foundry 中的所有人使用。
在 Foundry 中使用多個模型,構建這個多代理編排器,并在 Copilot 和 Teams 中將其整合,就提供了一個以代理方式完成的工作流程編排的真實示例。那時,就能意識到正在從一個小應用程序轉變為可以在整個企業范圍內擴展的東西。
說到擴展到企業,應用服務器的另一個重要考慮因素是可觀測性。因此,我們現在在 Foundry 中推出了新的可觀測性功能,以幫助您監控和管理生產中的人工智能。您可以在一個地方跟蹤影響、質量、安全性以及成本。
未來,我們相信每個組織都將擁有人員和代理協同工作。現在普遍使用的用于身份識別、端點管理、安全等方面的系統,也需要擴展到代理。希望今天大規模使用的那些軌道也能在人員和代理之間工作。
借助 Entra ID,代理現在擁有自己的身份權限和身份控制。
您在 Foundry 和 Copilot Studio 中構建的代理會自動出現在 Entra 的代理目錄中。我們還在與 ServiceNow 和 Workday 合作,通過 Entra 為其代理提供自動配置和管理。
在數據治理方面,Purview 現在與 Foundry 集成。因此,當您編寫一個代理時,由于 Purview,您可以自動確保端到端的信息安全。
在安全方面,Defender 現在與 Foundry 集成。這意味著您的代理也會受到保護,就像端點一樣,免受諸如錢包濫用或憑據盜竊等威脅,這要歸功于 Defender。這只是對 Foundry,您的代理工廠的一個快速瀏覽。
Kedasha Kerr 演示:
現在,為了使這一切成為現實,我將向大家展示如何使用 Azure AI Foundry 和 GitHub Copilot 來讓您的開發生活更加輕松。這是 Vibe Travel,一個基于聊天的應用程序,它使用 Azure AI Foundry 提供 AI 旅行代理,以幫助人們規劃他們的旅行。
我計劃大約在 8 個月后去新西蘭旅行,所以我向 Vibey 詢問了可以滑雪的地方。這個數學不太對勁。從現在起 8 個月后是 2026 年 1 月,那將是南半球的夏季。我們需要讓我們的 AI 代理更智能,并提供更可靠的響應。
我可以進入 Foundry,查看我們為這個應用程序和我們的其他應用程序準備的所有 AI 代理。我們的 Vibe Travel 代理使用 GPT-4.0,并且有一個非常好的提示,但我們需要添加一些知識。我們可以通過向其提供包含參考數據的文件或連接到其他服務(如 Microsoft Fabric 或 TripAdvisor)來實現這一點。但我認為僅僅通過添加必應搜索來進行基礎知識的完善,我們就能取得很大的進展,所以讓我們選擇這個選項。
除了讓它訪問知識,我們還讓它訪問我們的航班預訂 API。而且因為它是一個開放的 API,所以它直接就可以工作。現在,讓我們回到我們的應用程序并再次嘗試我們的查詢。
能夠添加數據源或搜索能力使代理更智能,并且大大降低了產生幻覺的可能性。 我可以通過添加有關酒店折扣或天氣預報的信息,使其更加智能。 可能性是無限的。
大約八個月后,現在是 2026 年 1 月,那是夏季。不可能滑雪。那樣就好多了。而且你看到了我改進起來有多容易。
現在,讓代理實際代表我預訂機票。添加代理可以執行的行動,可以將應用程序從一個簡單的問答機器升級為一個可以實際代表您完成事務的自主代理。我可以使用一個行動將該預訂放入我的日歷中,或者請求預訂酒店,甚至可以請求從內部系統中請假。
現在,這些航班看起來很棒。雖然剛才看到了 Foundry 如何輕松地改進我們的代理,但在實際代碼中仍有大量工作要做。我將在 GitHub Copilot 中使用代理來完成這項工作。
讓我們打開 Copilot 代理模式,這是新的,我可以從所有主要的 LLM 提供商中選擇最流行和最強大的模型。代理模式使 GitHub Copilot 不僅僅是回答問題或建議代碼,而是真正幫助我完成工作。我可以在這里詢問,是否能展示在這個倉庫中分配給我的議題?
傳統上,我必須打開瀏覽器才能在 github.com 上查看議題,但是通過 MCP,或者說模型上下文協議,這允許你賦予像 GitHub Copilot 這樣的工具所需的上下文和能力來幫助你。GitHub Copilot 會注意到我們正在詢問關于 GitHub 議題的事情,并使用 GitHub MCP 服務器來獲取該信息。
看起來我有一些議題被分配給我,所以讓我們看看第一個。現在,當我在應用程序中單擊這個重置按鈕時,它會立即清除我們的聊天會話,而沒有警告。我們真的應該先警告用戶。讓我們回到應用程序,我可以要求 GitHub Copilot 幫助我實現議題一的細節,并獲取議題一的細節。
我還有這個漂亮的、我的經理最后一分鐘給我的設計,我也需要將其作為上下文添加到提示中。希望你能看到它。那么,讓我調出我的屏幕截圖給你看看。讓我把這個添加到上下文窗口并發送提示。
我們將看到 Copilot 請求特定權限,以使用 GitHub MCP 服務器來獲取問題的詳細信息。讓我們點擊繼續,允許它在我們的代碼庫中實施更改。你可以看到 GitHub MCP 服務器獲取了詳細信息,并且憑借代理模式的新視覺能力,Copilot 甚至可以更改我想要的草圖。然后它開始解決我想要更改的問題,并弄清楚如何更改它。
在它執行的同時,讓我們看看另一個問題。實際上,我在這里稍微作弊了一下。在我出來之前,我已經把問題分配給 Copilot 了。就像您之前在 Azure Dev Community 網站上看到的那樣,Copilot 已經滿足了您的需求。
Copilot 已經查看了這個問題,并為我們打開了一個拉取請求。
您可以在這里看到,它有一個包含實施細節和它推薦的代碼更改的描述。通過點擊這個查看會話按鈕并滾動瀏覽更改,我們還可以看到 GitHub Copilot 如何實施此更改的完整會話日志。
讓我們來看看實際的代碼。這看起來不錯,但要添加一些反饋,我可以在問題中或拉取請求中添加評論,GitHub Copilot 將會查看它并開始工作。您可以在這里看到這個小表情符號。同時處理兩個問題感覺真的很好。
現在,讓我們回到編輯器,看看第一期進展如何。如你所見,Copilot Agent Mode 能夠檢查建議的更改,尋找需要更改的相關文件,進行適當的更改,甚至堅持了我要求的風格和編碼標準。當我回到應用程序時,它能夠實現老板想要的 UI 更改。
讓我看看它是否在運行。正如你所見,這是實時的。沒有時間調試,但是一旦點擊這個問題,我很確定它已經實現了。Copilot 能夠在我們的應用程序中添加模態窗口,這是我們在短短幾分鐘內完成的兩個問題。感謝 GitHub Copilot 和 Azure AI Foundry。
實際上,既然在這兒,我很少有機會能查看薩提亞的工作。所以我們來看看他之前分配的那個問題。你還記得嗎?在網站上添加那個群組規模篩選器?
哦,我們已經在這里了。這就是問題所在,如你所見,Copilot 能夠開啟一個拉取請求,開始實施這些變更。
讓我們看看這個 PR(拉取請求)。如此處所見,Copilot 能夠添加群組規模篩選器屬性。它能夠添加邏輯,并且還添加了一些帶有說明的測試。這真是太棒了。
現在,它也已經將這個應用程序部署到我們的預發布環境了。那么讓我們來看一下這個部署。祈禱一切順利。讓我們一直往下滾動。您可以看到群組大小過濾器已經添加進來了。我確實發現有幾處地方想要調整,但我會在后臺處理這些,這樣您就可以查看了。幾分鐘之內就解決了 3 個問題。交給你了,薩蒂亞。非常感謝。
是的,說說并行工作有多努力吧。看到我們取得的進展,真正構建出每一個平臺轉變都需要一個應用服務器,并且構建出該應用服務器的完整性,這才表明平臺轉變現在正在擴大規模,這真是令人興奮。
到目前為止,我們已經討論了我們在云端所做的一切。
現在,我們希望通過今天宣布的 Foundry Local,將這種應用服務器和應用構建能力的力量帶到邊緣和客戶端。它包括一個快速、高性能的運行時,模型,代理即服務,以及用于本地應用開發的 CLI(命令行界面),并且完全支持 Windows 和 Mac。
讓我們退一步,花點時間談談 Windows。作為一名開發者,Windows 是最開放的平臺,擁有巨大的規模,你可以接觸到超過 10 億用戶和 10 億臺設備。我們也在不斷改進它,使其更安全、更可靠,更適合你的應用程序,無論你想要在哪里運行,無論是在云端還是在客戶端機器上。在過去一年里,我們已經看到從 Adobe 到 Zoom 的開發者在 Windows 上使用這些設備端人工智能能力來發布一些令人驚嘆的應用程序。在商店和 AI 中心,你可以開始看到很多這些功能被激活。
今天,我們將采取另一步驟,使 Windows 成為人工智能的最佳平臺。我們很高興地宣布 Windows AI Foundry。Windows AI Foundry 實際上是我們內部用來構建諸如 Copilot Plus PC 上的功能,例如 Recall 甚至點擊執行等功能。所有這些現在都是使用相同的運行時和 SDK 構建的。
現在,我們正在擴展這個平臺,以支持完整的開發生命周期,不僅在 Copilot PC 上,而且在 CPU、GPU、NPU 以及云端上。這樣你就可以構建你的應用程序,并使其在所有這些硅芯片上運行。
Foundry Local 已內置于 Windows AI Foundry 中,因此您可以利用這個豐富的預優化開源模型目錄,這些模型可以在您的設備上本地運行。借助 Windows AI Foundry,您可以自定義我們內置的 PHY Silica SLM 使用 LoRa 適配器,以滿足您應用程序的任何特定需求。
想象一下,鏡像自帶 PHY Silica,您只需在應用程序中使用 LoRa 適配器,它就可以工作了。如果說 O1 和 DeepSeq 標志著云端推理或測試時計算的開始,我認為 PHY Silica 將徹底改變 PC 上的推理計算方式,你們作為開發者將真正利用它來構建一些令人驚嘆的體驗。
除了模型本身,現在您還擁有所有這些豐富的語義 API,可以將本地數據嵌入并索引到向量存儲中,在所有隱私保護下。
然后您可以進行這些混合 RAG 應用程序,可以在其中真正訪問本地數據,并使其具有相關的、上下文相關的特性。
如果您正在構建自己的模型,Windows ML 為您提供了一條在各種芯片上部署高性能 AI 的途徑,而無需進行所有這些特定于設備的復雜調整。
今天我們將邁出下一步,為具有能動性的網絡實現 Windows 的現代化。
我們宣布 Windows 對 MCP 的原生支持。Windows 現在將包含幾個內置的 MCP 服務器,例如文件系統、設置、應用程序操作以及窗口管理。
我們還添加了原生的 MCP 注冊表,讓 MCP 兼容的客戶端能夠發現經過我們安全審查、性能測試的可靠 MCP 服務器,同時讓您完全掌控。
現在請 Divya 向大家展示這一切,以及它如何運作,以及作為應用程序開發者和 Windows 應用程序用戶,它是如何整合在一起的。
Divya 演示:
謝謝你,薩蒂亞。今天我將向您展示使用 GitHub Copilot 在 VS Code 中僅用三句話即可輕松設置新的 Linux 發行版、構建完整的網站項目并使用我的 Figma 設計進行更新。
首先,讓我們確保設置正確。為了讓代理連接到 MCP 服務器,應用程序需要獲得明確的用戶權限。在設置中,您會看到我已經啟用了 WSL 和 Figma,以便它們的 MCP 服務器可以被代理輕松訪問。其他應用程序保持其默認的禁用狀態,讓我作為用戶完全掌控。
一切就緒,讓我們進入 VS Code 并使用我的前兩句話。我已經打開了帶有 GitHub Copilot 的 VS Code,而且它也處于代理模式,正如你所看到的。我正在使用我的前兩句話,并且我向 GitHub Copilot 提問,你能在 WSL 中搜索最新版本的 Fedora 并為我安裝它嗎?安裝完成后,你也能為我設置一個簡單的網站項目嗎?
我按下回車鍵,這里的 Copilot 正在嘗試與 WSL MCP 服務器建立安全連接。它首先給了我幾個快速用戶同意提示中的第一個。我點擊接受,并允許它繼續。
在后臺,它也在嘗試查詢可用的在線發行版列表,發現 Fedora 42 是最新版本,并開始安裝。這大約需要兩到三分鐘,所以讓我們切換到已經完成設置的設備上。
我已經在這臺設備上設置好了環境。
讓我們向上滾動,看看它為我執行了哪些步驟。正如所見,這和之前的提示完全一樣。代理模式下的 GitHub Copilot 足夠智能,能夠相當無縫地解析這個多步驟請求。它還查詢了使用 DNF 包管理器直接在 Fedora 內部安裝 Node.js NPM 的請求。這里最棒的是,它還知道如何運行特定的命令,直接與我設備上的 WSL 交互。
現在讓我們去看看它為我創建的簡單網站項目。這是一個好的開始。我想更進一步,讓它看起來像這樣。這是我的 Figma 桌面應用,這是我選擇的設計,企鵝筆脈沖。
現在我準備好回到 VS Code 并使用我的第三句話了。我將在這里向 GitHub Copilot 提問:你能讓我的網站看起來像我在 Figma 中選擇的設計一樣,并提取設計細節并將它們應用到我的項目中嗎?可以在聊天中看到詳細的提示。
現在我輸入,Copilot 再次在這里建立與 Figma MCP 服務器的安全連接,并征求我的同意以繼續進行,我同意。在此之前,它創建了我的 MCP 注冊表中可用服務器的列表,發現 Figma 是執行此任務最相關的服務器,然后它繼續連接。
連接后,代理直接從 Figma 中提取設計細節,將它們集成到我的項目中,并相應地更新網站的布局、設計、樣式和內容。這可能需要大約 2 到 3 分鐘。
讓我們切換到另一個設備,在那里最后一步已經完成。在這個設備上,整個設置已經完成。在左側,您將看到它通過從我的 Figma 桌面應用程序中提取設計細節而應用的代碼更改。現在是我們去看看它為我創建的網站的合適時機了。
轟!這正是我在我的 Figma 桌面應用程序中選擇的設計。它僅僅在單一的聊天界面中,用三句話就完成了所有這些。
這只是我今天向你們展示的以開發者為中心的眾多場景中的一個例子。想象一下,這可以為你開啟哪些其他令人難以置信的機會,在保持安全的同時,提高你的生產力。這就是 Windows 上 MCP 的力量。安全、代理驅動且開發者優先。
現在把時間交還給您,薩蒂亞。
非常感謝您,迪維亞。正如所見,通過 VS Code、GitHub Copilot 和 WSL,我們正在真正地將 Windows 打造成最適合主動式網絡(agentic web)的開發環境。現在,說到 WSL,我們大約在 10 年前首次宣布了 Windows 上的 Ubuntu Bash。
隨后,它變成了我們今天所說的 WSL。回顧過去,存儲庫中的第一個問題就是請求將其開源。當時,我們項目的所有邏輯與 Windows 鏡像的其余部分都密不可分。但自那以后,隨著我們所做的許多改變,WSL 2 發行版變得更加獨立,并且是獨立的。所以讓我們回到最初的問題,并將其標記為已修復并關閉。因為今天我們要將 WSL 完全開源。
到目前為止,我們已經討論了很多關于主動式網絡以及圍繞它形成的生態系統,無論是 Microsoft 365 到 Cloud Foundry,一直到 Windows。我認為請我們的 CTO Kevin Scott 為大家更廣泛地介紹這個生態系統,以及我們共同構建一個更具主動性的網絡的機會,將會非常棒。
Kevin Scott(CTO)發言:
謝謝你,薩蒂亞。很高興見到大家。我想這算是我擔任微軟首席技術官以來的第九次 Build 大會,時間過得真快。我每年能有機會來這里和大家交流一次,暫時忘記我是一個內向的人,大概 15 到 20 分鐘。
并非每年五月都有什么神奇的事情發生,讓我忘記自己是個內向的人。只是在過去的一年里,科技領域發生了太多令人興奮的事情。未來一年還有很多即將發生的事情,我只是想和大家分享一些這種熱情。
現在真正讓我興奮的是一個正在出現的事物,它不僅僅是因為微軟希望它發生,而是因為我們大家在過去幾年里共同努力的組件、協議和服務正在形成我們一直稱之為“代理式網絡”的東西。而且真正令人鼓舞的是,這一切正以開放的方式發生,我認為考慮到我們未來的走向,這應該是我們都非常希望看到的。我稍后會解釋一下為什么這一點很重要。
但在我們深入探討這個開放的主動代理網絡架構之前,我們先來談談什么是代理。我知道你們可能在腦海中有很多不同的定義。這有點像羅夏墨跡測驗。但我一直回到的,以及我們在微軟推動的方向是,無論是在我們自己構建的代理方面,還是在我們努力創造的能力方面,為了幫助我們自己和幫助你們大家創建自己的代理,代理是人類能夠將任務委托給它的事物。隨著時間的推移,你委托給這些代理的任務變得越來越復雜。這就是我們隨著時間的推移所追求的目標。在過去一年里,我們所看到的是代理本身的爆發式增長。這就是我們描繪的主動代理網絡的樣子。
我們正在構建一個越來越豐富的代理生態系統,我們的合作伙伴和你們所有人都在參與,并且在未來一年里,我們將看到更多成果。
過去一年里,這些代理最引人注目的變化是使用頻率顯著提高。在全球范圍內,自上次 Build 大會以來,代理的日活躍用戶數量已經翻了一番以上,人們正以令人難以置信的速度增長和加速地使用它們。
更重要的是,由于過去一年里發布了新的推理模型,這些代理已經能夠承擔極其復雜的任務。你們已經從演示中看到了很多這樣的例子,尤其是代理在軟件工程方面所展現出的能力,未來在 Build 大會期間將會看到更多。
在代理網絡堆棧的代理層之上,存在一個運行時層。運行時是我們正在構建的一組新興組件。過去一年里,運行時層內部的推理組件得到了顯著提升,模型的推理能力將會持續變得越來越好。
我認為我們目前在推理方面存在一點能力過剩。這些模型比我們目前集體使用它們所能達到的效果更強大。我對大家的一個重大挑戰就是思考如何將你們的雄心壯志設定到 11,嘗試瞄準一些你們認為目前在推理能力方面幾乎不可能實現的事情。因為在接下來的 12 個月里,這些模型將會變得更加強大,而且成本會大大降低,所以我們不希望這種能力過剩的情況變得比現在更嚴重。
除了推理之外,還需要構建很多基礎軟件工程的東西。一段時間以來,代理顯著缺失的一件事是真正強大的代理記憶。我們已經用檢索增強生成(RAG)和長上下文窗口之類的方法近似地實現了它。
你真正希望你的代理能夠做到的是,擁有一個豐富的記憶庫,它們能夠以真正的廣度進行回憶,并且回憶具有很高的精確度,這樣從記憶中提取出來的信息才是準確的,你可以信任并依賴它們。
現在發生了一件非常有趣的事情,我們開源了一個名為“type agent”的系統,你們可以在 Build 大會上了解更多關于它的信息。這是我們嘗試解決代理記憶問題的一種方式,這對于減少它們的事務性,使它們能夠解決一次問題并回憶起解決方案至關重要。
它們可以記住與你的互動,從而變得個性化并理解你的偏好,就像你期望從你委托任務或與之合作的人那里得到的一樣。整個運行時層,你可以將微軟交付這些組件并參與社區的方式理解為,這些東西將在 Azure Foundry 中提供。
在未來的幾年里,Azure Foundry 將會變得越來越豐富。 你將會聽到我的同事 Jay Parikh 和其他一些人更深入地討論這個邊界層以及運行時。
如果考慮一個開放的主動代理網絡可能是什么樣子,最重要的事情是,你需要代理能夠代表你采取行動。代理能夠代表你采取行動,其中一個真正重要的事情是,它們必須與更廣闊的世界連接起來。因此,你需要協議,比如 MCP 和 A2A,以及未來一年可能涌現的其他協議,它們將以開放、可靠、互操作的方式連接你正在編寫的代理,以及現在正被數億人積極使用的代理,從而能夠訪問內容、訪問服務、代表用戶采取行動,并完成委派給它們的任務。
在本次 Build 大會上,我們真正想談論的令人超級興奮的事情是,我們對 MCP 的真正嚴肅的承諾。在過去的幾個月里,MCP 的發展速度簡直是突飛猛進。這是有充分理由的。它在這個開放網絡、開放的主動代理網絡生態系統中填補了一個極其重要的空白。這是一個非常簡單的協議,類似于互聯網中的 HTTP。它允許你做非常復雜的事情,僅僅是因為協議本身對于它所承載的有效載荷沒有太多的預設。
這也意味著它是一個很好的基礎,你可以在其之上構建其他東西。如果你思考互聯網本身是如何出現的,就像組件的可組合性和協議的分層,對于達到如今的豐富性至關重要。它為你提供了良好的起點,并且讓你能夠在事物隨時間推移發展時,發現并解決問題。
我們剛剛從薩提亞那里聽說了 Windows 中的 MCP 注冊表。我們正在進行大量工作,以使微軟的第一方平臺組件和第一方服務能夠進行 MCP 提升。我們已經選擇它作為我們的代理通信的標準協議,比如代理之間以及從代理到服務的通信。
然后,我們將在未來幾年、幾個月內與我們在 Anthropic 的合作伙伴和合作者一起做大量工作,以確保需要在 MCP 之類的協議之上解決的真正棘手的企業問題得到解決。比如,代理如何識別自己,如何構建一個真正豐富的權利基礎設施,以便我們可以授權代理訪問他們需要訪問的系統。我們將真正地支持這里的開放社區。
部分原因是,當你考慮堆棧這一層的協議的效用時,最重要的是普及性。
我們可以陷入各種爭論,而且我知道你們完全有能力做到這一點,作為工程師,你們對某些技術持有非常鮮明的觀點,這個東西比那個東西稍微好一點。但比所有這些都更好的是,獲得一個我們可以共同使用和在其基礎上構建的標準,我們希望那個東西是 MCP。
接下來我想談的是分層。如果你回想一下網絡,我們有 HTTP,然后我們有位于 HTTP 之上的東西,主要是 HTML,它對有效載荷有自己的傾向性。
所以我們今天宣布,你們都應該去查看一下 GitHub 倉庫里的代碼,NL Web。NL Web 背后的理念是,它為任何已經擁有網站或 API 的人提供了一種非常簡單的方式,將其網站或 API 變成一個代理應用程序。它允許你實現并利用大型語言模型的全部力量,來豐富你已經提供的服務和產品。
而且因為每個 NL Web 端點默認都是一個 MCP 服務器,這意味著人們通過 NL Web 提供的那些東西,將可以被任何使用 MCP 的代理訪問。所以你真的可以把它看作是代理網絡的 HTML。
我們已經與一些合作伙伴合作完成了大量工作,他們對此感到非常興奮,并且能夠非常快速地使用 NL Web 來實現快速的實施和原型設計。我們已經與 Trip Advisor、O'Reilly Media 以及一大批非常優秀的公司合作,這些公司在互聯網上提供重要的產品和服務,以便在其網站上添加 NL Web 功能,從而使他們可以直接在其網站上獲得這些代理體驗。
我想向大家展示的一件事,就是為了讓大家對這些功能有一個基本的了解,你們現在就可以出去做,雖然你們現在不應該這么做,請等待聆聽薩提亞主題演講的精彩結尾。但在那之后,您可以從這個倉庫中獲取代碼,我們在這里展示的是一種方法,讓您在您有權訪問的任何 GitHub 倉庫之上放置一個代理 NL Web 用戶界面。
所以在屏幕上展示的是你運行這個 Python 腳本。它與 GitHub API 對話。它從您的 GitHub 倉庫中提取大量數據。您看到的是 Jennifer Marsman,她是我的 CTO 辦公室團隊的成員,她是地球上最好的演示構建者,她正在將其存儲庫中的所有元數據和數據提取到 NL Web 存儲庫中。
您要做的第二件事是運行一個小腳本,該腳本獲取所有這些數據,并計算一堆嵌入。
關于使用哪個模型、哪個嵌入,以及將嵌入放入哪個向量存儲中以供 NL Web 服務器訪問,您有很多選擇。
一旦您計算出嵌入并將它們導入到本地向量存儲中(本例中,運行在筆記本電腦上),您就可以在其基礎上進行一些非常有趣的查詢。
在這種情況下,您可以做的比僅僅通過數據庫查詢或某種信息檢索方法獲得的更多。 例如,您可以說:“我寫了這段代碼,它在某個公關稿里,我不記得了,我需要回憶起這個算法的名字。” 這是 NL Web 可以做的事情,并且還有一些我們坦率地說甚至無法想象的事情。
這就是我們要開源的原因,并且我們希望聽到大家的大量反饋,關于我們如何改進和使 NL Web 更好。
再次強調,我們認為大家的想象力在能動網絡上的總和,將會使能動網絡成為一個比如果我們只有一個實體試圖獨自完成所有事情時,從根本上更有趣的東西。
您可以從這兩次特別的演講中了解更多關于這些事情的信息。 今天下午 4 點 30 到 5 點 30 有一個關于如何將你的網站變成一個 AI 應用程序的講座。 還有之前提到的關于內存方面的內容,今天下午 1 點 45 到 2 點有一個講座。 今天的講座將會非常精彩。
在把事情交還給薩蒂亞之前,我想說的最后一件事是,強調這兩個要點,說明為什么開放在這里如此重要。
當簡單的組件和簡單的協議相互組合,并且暴露給世界上每一個想要參與或有想法的開發者的全面審視和創造力時,世界上會發生令人難以置信的事情。
我經常和自己玩的一個思想游戲是,試圖想象如果網絡早期發展中的某個參與者,比如瀏覽器制造商,決定進行垂直整合并擁有整個網絡,網絡會變成什么樣。 百分之百的網絡都將被他們的想象力所限制。 憑借 30 年的歷史,很明顯,如果我們擁有那樣的網絡,那將不會是一個非常有趣的網絡,因為網絡的有趣之處在于,數百萬、數千萬、數億人參與其中,使其成為一個豐富而充滿活力的事物。
這正是我們認為在能動網絡中所需的,我們也希望各位能夠從中獲得啟發,著手進行一些相關工作,盡情發揮你們的想象力,共同使這件事變得有趣起來。 非常感謝各位的參與和構建。 明年再見。
凱文剛才描述的能動網絡愿景,在某種程度上,讓我們更接近于最初的網絡愿景和精神。
現在,無論是內容還是智能,都可以更加分散,并且更容易在網絡上被發現。
自然語言網絡是一件非常迷人的事物,期待看到大家對此有何作為。它使智能的創造變得民主化,對任何應用程序、任何網站來說都是如此。
有趣之處在于,它使任何開發者都能民主化地聚合這種智能。 給我一個推理模型,一個 NL 網絡,就可以利用一個意圖,并開始使用該推理模型進行組合,從而跨越這種分布式智能進行組合和綜合。 它完全改變了搜索是什么,信息流是什么,以及任何這些事物在構建方式上的定義。
這是一個我們希望共同創建的平臺。我認為將會由此產生一些重大的變革,因為這不僅僅是對過去的重復。過去 10 到 15 年,都是關于聚合器的力量。我認為一些重大的轉變即將發生。
現在進入堆棧的下一層:數據。 畢竟,對于任何人工智能應用來說,數據層都至關重要。 我們正在構建完整的數據堆棧。
有很多很棒的例子,比如 Lumen 使用 Fabric 節省了超過 10000 小時,因為他們可以更快地訪問數據;或者 Sitecore 通過我們的數據堆棧實現了 10 倍的速度提升。
NFL(美國國家橄欖球聯盟)使用我們的數據堆棧來運行最近的球探聯合會。
視頻畫外音:
在 NFL 中取得成功往往歸結于一次進攻、一秒時間、一件比對手做得更好的事情。 數據是其中很重要的一部分。球探聯合會是一項將排名前 3%的有資格參加選秀的橄欖球運動員聚集在一起的賽事。
在早期,我們收集的數據量相同,但它們分散在不同的系統中。 團隊無法在不查閱多個報告的情況下過濾、搜索和比較這些統計數據。 人工智能是獲得全面潛在客戶視圖的完美方式。
在我們啟動它之前,我們只有很短的時間來將所有這些整合在一起。 Azure AI Foundry 提供了我們所需的工具,使我們能夠立即行動。 我們從 Azure OpenAI GPT 模型開始,無需進行微調。 我們使用 Azure Cosmos DB 來快速存儲和檢索數據,并且使用 Azure 容器應用來無縫部署工作負載。 這就像一個我們立即解決的巨大挑戰。
現在,團隊能夠詢問有關特定球員的問題,并立即獲得允許球員之間進行比較分析的數據。 這確實給了評估人員以前沒有的優勢。
能夠像提問一樣,比如詢問防守鋒線最快的 40 碼沖刺時間,過去需要花費數小時的數據篩選,現在只需幾秒鐘即可完成。實時收集數據并深入挖掘細節的能力,尤其是在球員就在眼前時,能使決策更有信心。體育和數據結合是最令人興奮的。
在 Build 大會上,我們發布了大量關于數據的新聞,實際上是從即將發布的 SQL Server 2025 開始。更重要的是,我們正在比以往任何時候都更緊密地連接數據層和智能。對于任何現實世界的智能體,都需要存儲。因此,我們將 Cosmos DB 直接集成到 Foundry 中。這意味著任何智能體都可以存儲和檢索諸如對話歷史記錄之類的內容,并且很快它們就能夠使用 Cosmos 來滿足其所有的 RAG(檢索增強生成)應用需求。
我們還在 Azure Databricks 上更進一步,將你在 Genie 工作空間或 AI 函數中的數據連接到 Foundry。另一個非常酷的功能是,現在在 PostgreSQL 查詢中,可以直接擁有 LLM(大型語言模型),直接集成 LLM 的響應。可以基本上將自然語言和 SQL 混合在一起,并且以一種非常不同的方式進行編排和查詢計劃。
就 Fabric 而言,它也是我們數據和分析堆棧的核心,兩年前我們在 Build 大會上發布了它。Fabric 將所有的數據和工作負載整合到一個統一的體驗中。去年秋天,我們將 SQL 放入了 Fabric 中,今天我們正在邁出下一個重大步驟,也將 Cosmos DB 引入 Fabric。因為 AI 應用需要的不僅僅是結構化數據,還需要半結構化數據,無論是文本、圖像還是音頻。有了 Cosmos 和 Fabric,數據可以立即與 SQL 一起使用,現在可以統一整個數據狀態,并使其為 AI 做好準備。
還有更多。事實上,我們甚至正在將我們的數字孿生構建器直接構建到 Fabric 中。現在你可以非常輕松地使用數字孿生,無需代碼,低代碼。正如你所見,你可以超快地映射來自物理資產和系統的數據。我們還將宣布 One Lake 中的快捷轉換。你可以將其視為人工智能驅動的 ETL。可以應用所有這些預構建的人工智能驅動的轉換,例如,當數據進入時,進行音頻到文本或情感分析,摘要,所有這些都由 Foundry 直接驅動到 Fabric 中,而且只需點擊幾下。
最后,我想談談我現在最喜歡的功能之一,即將進入 Power BI 的 Power BI 中的 Copilot。 這允許你與你的所有數據進行聊天,提問關于數據的問題,直觀地探索,跨多個 Power BI 報告和語義模型對其進行分析。
此代理將在 Microsoft 365 Copilot 中可用。 構建那些語義模型,在 Power BI 中構建那些儀表板,現在能夠在聊天界面中在其之上放置推理模型,這將是一個顛覆者。 我們對此感到非常興奮。
那么讓我們進入堆棧的底層,即基礎設施。 作為一個開發者,你面臨著經典的優化問題,即在性能和延遲方面提供最佳的 AI 體驗,然后以單調遞減的成本來交付它。 這就是為什么我們采取系統方法,與整個行業合作來優化整個堆棧,無論是數據中心、硅片、系統軟件還是應用服務器,將它們作為一個系統整合在一起,并優化和利用軟件的力量。
我們的目標是提供成本最低、規模最大的基礎設施,以構建云和下一代 AI 工作負載。 這一切都歸結為以最低的成本、每瓦特提供最多的 tokens,這才是我們的最終等式。 并且我們正在書寫在硅片上繪制多條 S 曲線。 可以將其視為經典的摩爾定律加上系統軟件優化以及模型優化,這是這三條 S 曲線的復合效應。
而且我們正以真正的速度進行這一切,所以當任何東西準備就緒,你都想將其引入到集群中。 事實上,Azure 是第一個將 NVIDIA GB200 投入使用的云平臺,并且是以大規模方式進行的。 現在,Azure 在單個帶有 NVLink 的 GB200 (72 個機架)的性能方面處于領先地位,產生了驚人的令牌數量,每秒 865000 個令牌。 這是任何云平臺的最高吞吐量。
當然,沒有人比黃仁勛更適合談論這個了。 讓我們播放視頻。
納德拉和黃仁勛的對話:
非常感謝 Jensen 再次參加我們的 Build 開發者大會。 在一天結束時,我們的共同目標是能夠為世界提供更多的智能。 在某種意義上,甚至可以說它是每美元每瓦的令牌數量。 所以我只是想能夠獲得您對所有這些的看法,也許從我們行業的最初開端,即摩爾定律開始。 很高興來到這里,薩蒂亞。 事實上,兩年前,我們剛剛在 Azure 上共同推出了世界上最大的 AI 超級計算機。
這是計算工作方式的重大變革,它結合了新的 CUDA 算法、新的模型技術以及在 Azure 上的新型 AI 基礎設施。總而言之,所有這些加在一起,比 Hopper 快 40 倍。 這僅僅是兩年內令人難以...
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.