AI領域的競爭核心,已經從大模型的“有無之戰”變成了“應用之戰”。
在這個階段里,比拼的不再是宏觀概念,而是落地能力和商業化的進展,這無疑反映了這個行業的進步,以及智能時代帶來的新行業機遇的興起。
今天,火山引擎AI創新巡展走進廈門,在活動上介紹了豆包大模型的最新數據——日均 tokens 使用量突破5000億,以及一系列模型升級和行業共創進展。
這意味著什么?對行業又有什么啟示?
——導語
01
5000億tokens的背后
日均使用量5000億tokens,在目前的大模型賽道里,是一個非常顯著的數量級,它代表著豆包大模型的使用量進入賽道相對領先的位置。
在自然語言處理領域,一個tokens通常是指文本中的最小單位,它可以是一個單詞、一個標點符號或者一個子詞單元。
換句話說,5000億tokens/天的使用量意味著——豆包大模型每天都需要處理極其大量的數據,這至少相當于處理數百萬篇長文章或數千萬到數億條社交媒體帖子的日均量。
如此高的使用量,也表明有許多企業和個人正在積極使用該模型進行各種任務,比如文本生成、聊天機器人、文檔摘要、翻譯、問答系統等。
5000億tokens/日的背后,更是豆包大模型生態的紅火和用戶量、用戶使用頻率的高速增長——當前豆包大模型的平均每家企業客戶的日均tokens使用量,較5月15日模型發布時,又增長了22倍。
而總tokens從1200億到5000億,總體相當于2個多月漲了400%。
這顯示了,豆包大模型正成為國內頭部大模型中,受到廣泛歡迎且商業化前景可期的一個重量級選手。
做為一個相對而言略晚加入這個賽道的企業,獲得如此強悍的數據,背后的支撐是什么?
02
用戶在為豆包的強悍能力買單
順便一提,豆包大模型的定價也是感人的,其大致的定價標準,是輸入1000萬個tokens,收費8元人民幣,這在行業里也屬于超高性價比。
火山引擎總裁譚待指出,給出更有性價比的收費,讓更多的企業降低了試錯成本,讓許多猶豫的企業敢于嘗試,從而最終迎來了更多企業的擁抱。
但是,大模型的收費和水電費不一樣,后者是標品,所以價低者得;但大模型的用戶考慮的更是綜合的ROI,換言之,如果沒有持續的創新,如果沒有強悍的能力和賦能工具,如果不始終保持業界領先的水平,也是無法持續的留住客戶的。
一位AI大咖有一句話說的很經典——大模型的每一次升級,可能都意味著有一個大模型企業的出局。
在筆者看來,豆包大模型迅速打開局面并保持比較強的競爭力,和兩個要素比較有關,那分別就是更強模型和更易落地。
大模型就相當于汽車的發動機,如果一輛汽車的發動機不夠強大,那么無論造型多優美、營銷多豐富,也是無法吸引用戶的。
事實上,豆包大模型可能是近期各類大模型榜單中,成績最耀眼的大模型之一。
例如,智源研究院旗下的FlagEval大模型評測平臺發布的最新評測榜單顯示——在閉源大模型的“客觀評測”中,豆包大模型以綜合評分75.96分排名名列前茅,是得分最高的國產大模型。
評測成績顯示,豆包大模型的數學能力、知識運用、任務解決等多項能力在客觀評測和主觀評測中都有著出色表現。
這樣的成績,與豆包大模型擁有大模型的全棧技術和豐富的應用場景,從而能夠實現高效率的端到端優化,關系密切。
大模型訓練需要更強的算力支撐,火山引擎AI全棧云依托字節跳動的海量資源共池,支持多芯、多云架構,擁有超大規模算力,支持萬卡集群組網、萬億參數MoE大模型,提供超高性能網絡和存儲,保障計算資源的穩定運行。
火山引擎還自研了mGPU容器共享方案,GPU利用率提升100%+,為生成式AI工作負載提供更高性價比的算力資源。
在企業的AI應用落地中,火山引擎AI全棧云還提供了一站式資源服務和全鏈路數據管理能力,從而助力企業高效、彈性的構建AI訓練或推理業務,可以進一步加快企業實現AI應用落地。
你也許覺得這句描述有些空洞,但如果你像我一樣在最近2個月密集拜訪了一批初創期的大模型應用型企業,就會有完全不同的體感。
“嚴格意義上講,我們現在還沒有吃透大模型怎么在技術層面充分優化的問題,所以更多的精力是在解決‘怎么用好’,而不是“具體解決什么問題”,一家AI應用創業公司的負責人梵東告訴我:“我們最早覺得自己的創意很好,但在落地中發現,AI優質人才難求、技術水平也參差不齊,各大模型提供的支持也千差萬別”。
“如果不降低學習、使用大模型的隱形成本,提升用戶擁抱大模型的便利性,這個行業就談不上進化和成熟”,同為AI創業者的李準這么說:“‘好用’是我們這些早期的AI應用企業很看重要的一個方面”。
而豆包大模型盡可能的做到了從用戶需求出發,在提供強大性能的同時,盡可能的解決“好用易用”的問題。
例如,豆包大模型迅速實現了家族化、系列化,既有強大的通用模型,也有細分的垂類模型如文生圖等,讓用戶的選擇變得更加精準。
另一個各大模型企業競爭激烈的焦點,就是主打低代碼、低門檻,“讓用戶自己學會應用”。
“目前的用戶對低代碼,對于可以‘拿來主義’各種模塊商店有剛需,所以火山就做了針對性的開發”,一位已經使用了一段時間的豆包大模型的業內人士分享說:“例如扣子專業版,各種Bot商店、工作流商店、插件商店,讓用戶以最低成本獲得生態里沉淀下來的優質資源,同時他們的創新也會再次沉積在這個生態里,使之不斷生長。”
更為重要的是,豆包還擁有火山方舟這樣的一站式大模型服務平臺,“這就相當于使用大模型的操作系統,幾乎無所不包”。
火山方舟平臺,不僅提供模型精調、推理、評測等全方位功能與服務,還提供豐富的插件生態和AI原生應用開發服務,并通過安全可信的基礎設施,專業的算法技術服務,實現全方位保障企業級AI應用落地。
“國內大模型具有如此全面的開發服務平臺的,并不多見”,李準表示:“這就跟開手動擋的車與開有高級輔助駕駛功能的汽車一樣,體驗是有代差的。這也是豆包大模型的應用企業的使用量激增的一個要素,“只有底層跑通了,用戶才有更多的精力集中于應用創新,才會有使用量的激增”。
另一個重要的要素,就不得不提到火山引擎獨有的行業優勢——字節同款。
強大、好用與易用,前提是都有企業在不斷的用,只有用了才有優化的空間。
而豆包的一個突出的特點就是,它是在真實業務中錘煉出來的。
簡單說,豆包大模型,向內看,有字節跳動內部50+真實業務場景的實踐驗證;向外看,有30+行業的外部企業深度參與共創,它們的使用量達到每日數千億tokens,這是打磨好模型的前提。
舉一個小例子,豆包大模型有成本優勢,背后的原因是,火山引擎可提供充沛的GPU算力資源池,有豐富的內外客戶應用,可以通過潮汐、混部等方式,以技術手段實現資源的高利用率和極致降低成本。
例如,針對AI工程方面,對底層的異構算力,基于實際需求,豆包大模型實現了混合調度和分布式推理等優化,這些都能夠對推理成本實現大幅度降低。
這是一種很有技術含量的降本增效,是一種可以持續的優化,也是大模型的生態魅力所在。
03
大模型下一步“卷”向何方?
一個不爭的事實是,國內大模型賽道很卷,但如何突破卷的現狀,火山引擎有自己的答案。
答案是卷應用、卷落地,只有在真實場景中創造真實價值的大模型才能生存下去,這是這個行業的競爭焦點,也很殘酷,但是是行業鐵律。
而火山引擎的應用現在已經實現了多面開花,豆包大模型主要應用的行業已經涵蓋了汽車、金融、游戲、互聯網、智能終端、消費、醫療健康、傳媒、教育科研等。
在傳媒行業的具體實踐中,內容生成是目前的一個競爭焦點,豆包以剪映+智能創作云為切入點,以大模型作為強抓手,用數據產品構建基礎設施,為各大傳統媒體、新媒體及融媒體中心等提供了整合智能解決方案。
這使得豆包可以幫助用戶通過新聞小助手作為抓手,結合豆包為內容生產特別是傳媒行業的內容生產提供的精悍好用的垂直模型,幫助用戶在這一賽道處于領先地位。
在文旅行業,豆包和生態企業攜手探索伴游大模型,通過大模型幫助旅游人士制作省心游玩攻略和行程規劃,通過智能修圖和短片剪輯能力幫助人們降低攝影和修圖的門檻,記錄旅程中的美好。
在為高等院校、科研機構等服務中,豆包大模型一方面以HiAgent平臺為核心,打造校級AI中臺,建設教育信息及學科類AI應用,服務于教務服務、教學實訓、高校科研等場景;另一方面,實現了科研文獻的智能檢索和摘要生成,加快信息獲取,而研究數據的自動化分析,則進一步提高了研究效率。
HiAgent是火山引擎旗下的企業專屬AI應用創新平臺,高度適配企業個性化需求,讓業務人員可以輕松構建智能體,讓業務創新不受生產技能的限制。在具體業務場景的應用中,HiAgent能夠支持企業業務人員像搭積木一樣低代碼搭建智能體,提升應用創新速度,并支持混合部署,幫助企業打通擁抱大模型的最后一公里。
而對這一切,火山引擎總裁譚待有個精彩的點評,他說:“用戶不會莫名其妙地增長,只有最好的模型才有最大的使用量,這是因果互相促進的動態過程。都沒有人用的東西怎么可能是好東西呢?特別是技術,用的人越多,技術就會越好,這是整個技術領域的共識”。
如果說,火山引擎在廈門的活動焦點,是兩個月內大模型使用量從1200億/tokens到5000億tokens/日的400%的成長,那么,在即將到來的上海站活動中,還將帶來什么信息,值得我們拭目以待。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.