為加速AI應用在企業市場落地,4月9日,阿里云在北京召開AI勢能大會。
北京“人工智能+”新方案亮相
北京市政府副秘書長楊爍在會上致辭,全面介紹了北京市在人工智能與數字經濟發展方面的最新成就及未來規劃:支持MaaS平臺在京集聚發展;推動行業軟件企業全面具備模型能力;支持軟件企業加快智能化技術改造;健全人工智能應用服務生態。
AI正在推動各行各業的生產力變革
阿里云智能集團資深副總裁、公共云事業部總裁劉偉光發表主題演講,大模型的社會價值正在企業市場釋放,阿里云將堅定投入,打造全棧領先的技術,持續開源開放,為AI應用提速。
近一年多來,通義大模型技術加速迭代,在to B和to C賽道都取得了一些進展,在消費端表現為用戶體驗的優化,在產業側表現為生產力的極大提升。長遠看,AI最大的價值是推動各行各業的生產力變革。
截至2025年1月底,阿里云百煉平臺中調用通義API的企業和開發者已超過29萬,用AI重構代碼開發、硬件制造、智能座艙、金融服務、藥物研發、太空探索等場景,AI的行業化應用經驗正在迅速積累與沉淀。
地平線:基于云+AI打造全棧智駕基礎設施
依托阿里云萬卡智算集群,地平線正在訓練端到端智駕模型。通過對異常節點的及時排查和對每個訓練任務的精細管理,智算集群的整體故障恢復時間降低40%以上,推動端到端模型的訓練效率加速提升。
中華財險:“云原生+AI”推動保險業智能化升級
在新一代分布式核心系統上線后,中華財險已從“數字化”走向“數智化”升級。通義靈碼助力60%研發人員使用AI編程,代碼采用率達37.5%(累計53萬行)。基于通義大模型,條款解讀助手和智能理賠助手為保險產品全流程智能化奠定基礎,重塑行業效率標桿。
春晚:支撐總臺春晚實現史上最廣覆蓋
2025總臺春晚傳播數據創下新紀錄,新媒體端直播收視次數21.3億次,比去年同期提升26.04%。作為總臺春晚云計算AI獨家合作伙伴,阿里云支撐總臺春晚實現史上最廣覆蓋,為春晚直播提供了強大的全球云基礎設施和通義大模型AI技術支持。
叮咚買菜:大模型實現AI賦能生鮮電商
叮咚買菜作為國內領先的生鮮電商平臺,通過百煉平臺接入Qwen-plus,Qwen2.5-VL等通義千問模型,結合語音識別(ASR)、語音合成(TTS)技術等,對售前咨詢、供應鏈管理、售后智能客服等環節進行智能化改造。相比于過去基于本地服務器部署自建模型的方式,通過百煉平臺接入通義千問模型后,叮咚買菜的模型推理成本降低70%以上。
美高域:大模型融入醫療硬件
美高域通過將通義大模型融入醫療硬件:簡易體征采集設備(血壓、血氧等)連接美高域microcraft系統,基于Qwen進行實時數據分析并生成健康報告;醫患對話語音實時轉錄與多模態分析,讓醫患溝通更流暢,診斷更精準。同時,依托阿里云算力,美高域實現了從問診到隨訪的全流程數字化,重塑醫療服務體驗。
AI和云計算基礎設施全面升級
會上,面向AI大模型訓練及推理的新需求,阿里云基于自研「飛天+CIPU」架構,對AI云計算基礎設施進行全面升級。
第九代ECS開啟商業化,更強、更快、更劃算
基于自研「飛天+CIPU」技術架構,采用英特爾至強6性能核處理器,阿里云ECS 9代Intel實例算力較上代提升最高達20%,通過3.6GHz全核睿頻與504MB超大L3緩存,可保障高并發場景流暢響應,并結合AMX矩陣加速技術,可顯著提升AI數據預處理場景的執行效率。此外,在安全能力上新實例支持TDX機密虛擬機,大大降低了機密計算的使用門檻。
在過去幾個月的邀測過程中,9代Intel企業級實例得到客戶的廣泛好評,在數據庫、在線游戲、web應用等場景帶來顯著的性能提升。今天,9代Intel企業級實例全面降價,在上一代基礎上再降5%,并正式開啟商業化售賣,讓更多的客戶以更劃算的價格享受更高性能的云計算服務。
高性能存儲優化,提升訓練和推理效率
文件存儲CPFS實現了面向AI智算能力的升級。單客戶端吞吐性能達40GB/s,單計算節點緩存吞吐15GB/s,支持可線性擴展的分布式緩存。提供容量型存儲池,有效降低溫冷數據成本,支持高達100GB/s的數據流動。此外,CPFS發布目錄級配額,通過Access Point簡化數據訪問權限管理。
對象存儲OSS發布資源池QoS的BucketGroup能力,用戶可以方便的對資源池內部的多個桶進行分組吞吐控制,有效降低管理復雜度。OSSFS 2.0版本,極大地優化了端側順序讀寫的效能,使用vLLM庫從OSS中加載Qwen2.5模型的速度提升了7.73倍。同時,單賬號缺省100Gbps讀吞吐地域擴展至新加坡。OSS同城冗余在吉隆坡上線,現已覆蓋全球12個地域。
ESSD 同城冗余云盤在3月19號已經正式商業化。企業核心系統和服務都可以通過ESSD同城冗余云盤實現同城容災,當某個可用區發生物理故障時,提供持續的讀寫服務,保障業務的連續性。
云網絡持續夯實可靠性,提升智能運維能力
阿里云ZooRoute技術,把跨域網絡SLA提升到99.995%,當前已集成到阿里云跨域,專線和互聯網接入網絡等場景。
網絡智能服務NIS是阿里云打造的基于AIOps與行業大數據的智能運維工具集,在用戶上云的全生命周期提供開箱即用的網絡深度可觀測能力,包括最新的流量分析NPM、網絡架構巡檢等。
智能計算「靈駿」再進化,可主動發現故障并“自愈”
從訓練到推理,基于GPU的加速計算為AI大模型全面升級。現在,阿里云靈駿智能計算平臺可實現智能化感知故障,主動發現故障占比高達96%,并且通過自動化故障處置的“自愈”體系技術,將任務中斷恢復時間從小時級壓縮至分鐘級。在萬卡級超大規模訓練中,一個月內靈駿GPU集群有效訓練時長占比超過93%。
針對千億MoE模型推理及智駕場景,靈駿推出「高顯存+高性能網絡」計算實例,較以往的顯存容量增加了47%,足以承載「滿血版」大模型推理任務;同時,顯存訪問帶寬提升了22%,極大地優化了自動駕駛感知類模型的訓練性能。
人工智能平臺PAI:面向MoE架構及推理模型全面升級
在模型推理階段,PAI-EAS具備負載感知的PD分離架構,結合MoE分布式推理調度引擎Llumnix,能顯著提升推理速度和資源利用率,首Token生成響應時間降低92%,端到端服務吞吐提升91%。同時PAI-EAS推出高性能KV Cache緩存服務,千萬級用戶活躍用戶場景的KV Cache命中率可提升10倍以上。
在模型訓練階段,PAI平臺搭載自研的大規模MoE混合精度訓練引擎PAI-FlashMoE、高性能post-training訓練框架PAI-Chatlearn,幫助開發者和客戶靈活高效地進行強化學習及SFT訓練。
阿里云大數據AI產品全面擁抱MCP,大數據開發治理平臺DataWorks發布基于MCP的Agent服務,用戶可以通過自然語言實現自動化數據集成工作。DataWokrs和Hologres相繼發布了MCP Server,可供大模型自由調用。云原生大數據服務MaxCompute發布AI Function,可支撐用戶構建Data+AI一體化工作流。
數據與AI更近,阿里云瑤池數據庫產品家族上新
為了讓數據距離AI更近,針對AI應用需求的爆發式增長,阿里云瑤池在會上發布重磅數據庫新品及能力升級。阿里云正式推出「推理加速服務」Tair KVCache,實現KVCache動態分層存儲,為大模型推理降本提速。
瑤池數據庫核心產品已全面支持In-DB AI功能,通過內嵌“模型即算子”能力,讓數據與AI貼得更近,實現用戶數據內循環、不出域,顯著提升推理效率。云原生數據庫PolarDB forAI功能升級,用戶通過SQL語句即可調用內置大模型,提供開箱即用的AI能力。
百煉上線業界首個
全生命周期MCP服務
為了讓AI Agent有“更聰明的大腦”、“更豐富的交互”,4月9日,阿里云百煉上線業界首個全生命周期MCP服務,無需用戶管理資源、開發部署、工程運維等工作,5分鐘即可快速搭建一個專屬MCP Agent,大幅降低Agent的開發門檻。百煉平臺首批上線了高德、無影、Fetch、Notion等50多款阿里巴巴集團和三方MCP服務,覆蓋生活信息、瀏覽器、信息處理、內容生成等領域,可滿足不同場景的Agent應用開發需求。
同日,阿里云還預告了AI Agent Store的愿景,通過Agent Store這種創新模式,把阿里巴巴集團和生態伙伴的Agent向外開放,讓各行各業的人都可以擁有自己專屬的助理。
聯合更多伙伴,共促AI生態繁榮
在AI勢能峰會上,阿里云發布AI生態伙伴計劃——“繁花計劃”,并推出AI應用與服務市場。未來三年,阿里云將在基礎設施,模型,數據,工具,應用,交付六大領域與生態伙伴一起服務百萬云上客戶,拓展百億商機,共同打造中國繁榮的AI生態。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.