題圖|視覺中國
如果有一個行業,技術演進如風扇葉片轉動之迅速;格局變化如走馬燈般眼花繚亂,那么非大模型莫屬。
回顧2023年,生成式AI的主題詞還是“百模大戰”,融資、刷榜成為這一時期的主流。
然而,隨著基座大模型的門檻不斷提升,短短一年時間,玩家格局就迅速收斂,到了2024年,市場已經從百模齊發變為少數玩家的資本與技術持久戰;
到了今年,行業關注重點再次從模型性能轉向落地價值,如何將大模型的能力轉化為業務的生產力,成為新的核心命題。
而Agent就是AWS給出的答案。
借助Agent,千行百業都有了將生意用大模型重做一遍的可能。
但如何低成本、高質量的重新做一遍,如何讓Agent加速落地呢?
昨天凌晨舉辦的2024 年AWS紐約峰會,給出了答案。
為什么是現在?為什么是Agent?
事實上,如果關注最近一段時間的大模型發布會,可以發現一個很有趣的現象,無論是國內的Kimi K2,還是海外的Grok 4,亦或是一個月之前的Minimax M2,在各種榜單SOTA(最佳表現)之外,都不約而同的關注一個指標——工具調用能力。甚至,就連OpenAI,也在今天凌晨推出了最新的ChatGPT Agent,主打多工具集成能力。
更直白來說,過去行業關心的是LLM本身,但今年,更加關注借助LLM能實現什么。
AWS峰會同樣如此。
不同于過去將最新的模型發布作為重磅亮點,這一次的峰會,Agentic AI 是唯一的關鍵詞。
一方面,它可以讓大模型從被動響應提示轉變為通過AI Agents主動行動,來代表人類或系統進行推理、規劃和完成具體任務。此外,相比傳統的workflow(工作流,其響應機制被代碼寫死),Agents具有迭代思考的能力——可以評估結果、調整方法,并持續朝著既定目標努力,具備更高的能力提升天花板。
比如,去年市場上一度流行一種AI教程,就是用大模型A,生成提示詞,大模型B根據提示詞配圖,然后將所有內容一股腦丟給辦公軟件,借助辦公軟件的自動排版功能進行PPT美化。這個過程不僅繁瑣,并且十分低效。而通過AI智能助手,則能夠打通不同模型以及工具的內部系統、利用語義數據源自動提取上下文信息,直接根據用戶指令完成最終的交付結果。
那么為什么是今年?
這一波Agentic AI 爆火背后,有兩大原因:
其一是 CrewAI,LangGraph,LlamaIndex 在內,過去兩三年里各種Agent編排框架逐漸成熟,讓Agentic AI 構建變得越來越容易。
其二則是標準化協議的出現,例如模型上下文協議(MCP)和 Agent2Agent(A2A)極大簡化了模型與工具之間的鏈接。也是自去年底MCP橫空出世起,從manus到genspark,從heygen到lovart,新的明星Agent玩家,如雨后春筍冒出,小團隊、強業務創新、高實用性成為這一時期的創業團隊主流畫像。
他們的出現,進一步帶動了Agent在千行百業的落地。LangChain的(田野)調查結果則更為激進,超過一半的公司已經在生產環境中部署Agent,近80%的正在研發Agent。
當然,這中間存在的一個悖論——知道LangChain的企業,大部分都是有Agent使用經驗或者意愿的玩家。
相對而言,Gartner的預測更加保守也更具普適性代表,到2028年,33%的企業軟件將使用Agentic AI,15%的日常工作決策將由Agent自主完成。
既然Agent未來將無處不在,那么如何快速找到、試用并部署Agent呢?
AWS在其Marketplace市場中目前已經上架了上百種AI Agents & Tools,用戶只需用自然語言搜索,就能輕松找到所需要的Agent產品直接用于生產實踐。
不過,當前情況來看,Agent的數量還遠遠不足以滿足千行百業的需求,而通用性Agent也并不足以直接解決行業與企業的獨特性問題。
在峰會現場,AWS Agentic AI 副總裁 Swami 將這些尚未被解決的困難一共總結為六點:
如何安全地執行并擴展Agent代碼,如何讓Agent能記住過往的互動與學習,如何讓Agent的身份和權限被進一步細化,如何打造更適合復雜工作流的工具體系,如何發現和使用我們需要的工具與資源,如何讓Agent的每次交互都變得可被審核可追溯?
這些問題每一項都事關Agent能否從poc(概念試驗)真正走向生產,也關系著Agent落地的體驗與安全。
既然當前仍然供需不匹配,那AWS干脆把構建Agent的成本與門檻直接打下來,讓更快速、靈活、大規模、更安全地去部署和構建專屬Agent成為可能。
Amazon Bedrock AgentCore,如何降低構建Agent的門檻?
Agent很好,但是哪怕只是半年前,構建一個企業級Agent都依然是一個不小的難題。
原因很簡單,不是所有公司都有manus與genspark這樣的能力,僅僅依靠模型+框架+MCP,就能把一個概念變成生產級Agent。
要知道,傳統的Agent開發,除了需要了解Docker、K8s各種云原生生產環境,還需要能夠從上下文管理,到角色控制,到內存系統,再到內容生成的可控性與安全合規,每個環節都能做到極致。
而歷史經驗告訴我們:一個東西再好,如果它的門檻太高,產能始終受限,那就注定成為一個昂貴的玩具,而無法真正撬動一個時代的創新。
因此,對于常規的有定制Agentic AI需求的客戶,AWS發布了一套完整的企業級服務解決方案——Amazon Bedrock AgentCore。
借助 Amazon Bedrock AgentCore,開發者能夠直接對接Amazon Bedrock 或第三方平臺部署的各類 AI 模型,并快速、安全的將 AI Agent從概念加速到生產環節。
為了彌合agent從poc(概念試驗)到production(生產環境)之間的溝鴻,AgentCore有以下七大模塊:
? AgentCore Runtime(運行時環境):提供具備會話隔離機制的沙盒化低延遲無服務器環境,支持包括主流開源框架、工具和模型在內的任意Agent架構,并能處理多模態工作負載及長時運行Agent。說白了,借助AgentCore Runtime,開發者無需掌握Docker、K8s,就能直接上手agent部署。
? AgentCore Memory(記憶系統):可以通過統一管理會話記憶與長期記憶,為模型提供關聯上下文,讓Agent持續學習用戶偏好等信息,變得更加智能與個性化。
? AgentCore Observability(可觀測性):Agent構建難以一次到位已經成為共識,但如何發現問題,調整問題,就需要過程可視化追溯,AgentCore Observability正是為此而生,可支持元數據標記、自定義評分、軌跡檢查及故障診斷/調試過濾器。
? AgentCore Identity(身份管理):支持AI Agents安全訪問AWS服務及GitHub、Salesforce、Slack等第三方工具,既可代表用戶操作,也可在獲得預先授權后自主執行。
? AgentCore Gateway(網關服務):將現有API和Amazon Lambda函數轉化為Agent工具,提供跨協議統一訪問能力(含MCP協議),并支持運行時自動發現功能。
? AgentCore Browser(瀏覽器功能):這是今年以來Agent創業最火熱的方向,AgentCore Browser可以提供托管式瀏覽器實例,支持自動化網頁操作流程擴展,可以用于訪問沒有程序化API的系統或需要通過Web界面訪問的資源。
? AgentCore Code Interpreter(代碼解釋器):提供隔離式代碼執行環境,保障生成代碼的安全運行。
這些服務可以單獨使用,也可以協同工作,按需求按用量計費;此外,AgentCore還可以與任何AI代理框架與模型、協議(包括MCP和A2A)配合使用,真正幫助用戶實現適合的才是最好的。
此外,這些能力全都基于AWS成熟的安全基礎構建,內置身份控制和安全管控,讓Agent原生具備企業級安全與可靠性。
企業級Agent還缺什么,應該長什么樣子?
對于常規Agent需求,通過AgentCore中的工具組合,已經可以解決80%以上的問題。但對于部分有著更高需求的企業級用戶而言,深度定制化才是大勢所趨。
針對這部分用戶,AWS推出了兩大亮點功能S3 Vectors、基于Amazon Nova模型的定制化功能,以及一個用于企業級AI coding的Agent范例Kiro。
當下,Agent成為大模型落地的主流,而多數Agent的底層,本質是一個由大模型驅動的復雜RAG系統。
所謂RAG,即檢索增強生成,增強與生成部分依靠大模型,而檢索部分則依靠向量數據庫。
因此,活動現場AWS還推出了Amazon S3 Vectors, 一種基于對象存儲的向量數據庫產品,可以提供亞秒級查詢性能,并將上傳、存儲和查詢向量的總成本降低高達90%,以應對AI時代的海量非結構化數據處理需求。
但一個問題是,在此之前AWS已經推出了向量檢索產品OpenSearch,為什么還要額外推出Amazon S3 Vectors?
原因很簡單,OpenSearch為代表傳統向量數據庫,主要將向量加載在內存之中,優勢是高效、及時響應;但是內存方案快速響應的B面則是高成本。
向量數據對應的元數據通常是非結構化數據,信息密度較低、體積較大,全部加載在內存成本高昂,而S3這樣的對象存儲,成本顯然更低,也更適合多數向量數據的檢索。
技術上,S3 Vectors 引入了向量桶概念,無需配置任何基礎設施,即可通過一組專用的 API 來存儲、訪問和查詢向量數據。在這個結構中,每個向量桶都會對應一組向量索引,用于高效的對數據進行索引,每個向量桶最多可以包含10,000 個向量索引,每個向量索引可以包含數千萬個向量。
此外,不同于市面上一些開源向量數據庫只是單純向量索引的集合,在S3 Vectors ,還支持將元數據與向量數據作為鍵值對的形式匹配,進而支持向量+時間,向量+類別,向量+顏色,向量+價格等更高級的過濾檢索操作。
隨著時間的推移,當用戶對向量進行增刪改查,S3 Vectors會自動優化對應的索引與數據分布,以實現向量存儲的最佳性價比。
而對于一些對高性能、實時響應有更高要求的檢索增強生成(RAG)場景,S3 Vectors則可以與亞馬遜OpenSearch服務集成,將低頻的冷數據存儲在S3 Vectors,而將一些更高頻的熱數據,移動到OpenSearch,從而達成性能與成本的高效平衡。
基于高效的大模型與向量存儲系統,Prompt優化和 檢索增強生成(RAG)已經可以很好地用于多數Agent的落地,但是仍有一些特殊業務,仍需對模型層面進行微調從而達成目標。
一個常見的場景比如,企業需要基于RAG架構構建一個醫學或者法學Agent。但是在將非結構化數據存儲到向量數據庫之前,還需要經過一個embedding環節,把原始數據轉化為計算機可以理解的向量語言。
目前,市面上已經有了很多成熟的embedding模型,但是具體到落地,我們依然要根據業務特性不同,對各種embedding模型進行微調,才能保證農業中的蘋果與科技產業的蘋果被更好的區分,現實中的水桶與數據庫概念中的桶指向不同含義。
基于這一背景,AWS在Amazon SageMaker AI中推出了Amazon Nova定制化的功能,對模型進行包括監督微調(SFT)、直接偏好優化(DPO)、近端策略優化(PPO)、人類反饋強化學習(RLHF)、持續預訓練(CPT)、知識蒸餾等在內的操作。
目前,這些技術已經可以作為現成的亞馬遜 SageMaker 組成使用,無縫部署到Amazon Bedrock,并支持按需和通過提供吞吐量推斷。據AWS官方數據,目前已經有超過10000名客戶使用Amazon Nova系列模型帶來顯著降本增效。
除了向量數據庫與模型微調,最近大火的AI coding,AWS也沒有落下。
針對市面上常規的IDE產品只關注coding本身,而忽略了coding背后的產品需求、文檔、交互的問題,AWS推出了AI IDE產品Kiro,其關鍵創新有三:
? 規范驅動開發(spec-driven development),可以幫助開發者通過自然語言和架構圖清晰地表達他們對復雜功能的構建邏輯。 ? 智能代理鉤子(Intelligent Agent hooks),可以自動處理生成文檔、編寫測試和優化性能等重要但耗時的任務,在保存文件或提交代碼等情況下自動觸發。 ? 專門設計的界面(purpose-built interface),支持聊天交互開發,也支持規范驅動開發,適合的就是最好的。
而借助Kiro,專業開發者不僅能更高效的產出代碼,更能高效的產出高可用,更符合業務需求的代碼。
尾聲
回顧過去的歷史,當下的AI浪潮已經不是人類歷史上的第一次。而過去的多次AI泡沫已經明明白白告訴我們,模型要落地才有價值。
這也是這一輪大模型浪潮與過去的最大不同之所在:
一方面模型本身具備極強的通用能力,構建了其落地千行百業的地基;
在此基礎上,經過AWS這樣的企業助推,框架、數據庫、調用接口、開發工具、模型微調工具依次成熟,讓Agent加速從概念走向落地,甚至成為每一個行業,每一個企業的專屬定制。
而這,也是技術泡沫與技術革命最大的區別之所在。
- end -
想把AI的想象力變成業務的增長力?
2025亞馬遜云科技城市巡演,聚焦最熱門的 AI 場景,現場拆解、即時體驗,為城市伙伴帶來零距離的前沿洞察。七城席位同步開放,搜索“亞馬遜云科技”小程序,即刻注冊!
本內容為作者獨立觀點,不代表虎嗅立場。未經允許不得轉載,授權事宜請聯系 hezuo@huxiu.com
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4592549.html?f=wyxwapp
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.