對大企業(yè)來說,保守不單單是因循守舊,更多時(shí)候,則是無法與昨日成功的自己,奮力作別。
可面對未來,百度還在持續(xù)張開懷抱。
2月28日,百度官方公眾號宣布,將于3月16日發(fā)布文心大模型4.5,繼續(xù)自身開放的戰(zhàn)略轉(zhuǎn)軌,并且,一些更加明朗且積極的信號,也在該事件中悄然傳出。
按照百度的說法,即將全面開放的文心大模型4.5,將是百度最強(qiáng)的下一代大模型。尤其在基礎(chǔ)模型能力上,文心大模型4.5將迎來大幅提升,且具備原生多模態(tài)、深度思考等能力。
到了今年的6月30日,該模型還將正式開源,這或?qū)Ыo用戶更好的體驗(yàn),以及對GPT-4.5發(fā)起全面挑戰(zhàn)。
不僅如此,算上此次文心大模型4.5推出,以及DeepSeek橫空出世后,百度接連宣布文心一言免費(fèi)和上線深度搜索功能,加上旗下搜索、地圖、小度等相繼接入了 DeepSeek,可以說,百度近期打出了系列“開放”的組合拳,無疑正以一種開放的姿態(tài),直面行業(yè)的劇烈變化。
而這一切,看似是戰(zhàn)略的轉(zhuǎn)變,實(shí)則,更是一種技術(shù)積淀的必然回響。
百度讓Open Ai臉紅心跳?
在DeepSeek掀起行業(yè)開放浪潮之時(shí),百度,無疑是國內(nèi)響應(yīng)最為迅捷的企業(yè)之一。
這一次,即將在3月16日發(fā)布的文心大模型4.5,或也將為行業(yè)聚光燈下,對百度“大模型”的期中大考。
不過,據(jù)百度方面透露,文心大模型4.5在基礎(chǔ)模型能力上已經(jīng)有了大幅提升,且具備原生多模態(tài)、深度思考等能力,號稱百度最強(qiáng)大模型。
具體而言,此次文心大模型4.5,具有當(dāng)前行業(yè)內(nèi)幾乎最強(qiáng)的RAG(檢索增強(qiáng)生成)能力,而該能力,也是衡量大模型優(yōu)劣的重要標(biāo)準(zhǔn)之一。
為此,百度的RAG,可在大模型理解用戶需求階段,不斷對知識點(diǎn)進(jìn)行拆解,細(xì)化問題。到了檢索階段,又可向大模型展開搜索排序優(yōu)化,并將搜索返回的異構(gòu)信息統(tǒng)一表示,送給大模型。
到了最終的生成階段,百度RAG還可綜合不同來源的信息獨(dú)自判斷,尤其加上百度實(shí)時(shí)和全面的搜索生態(tài)后,基于大模型邏輯推理能力,就可一舉解決信息沖突等問題,從而生成準(zhǔn)確率高、時(shí)效性好的答案。
事實(shí)上,自文心一言發(fā)布初,百度便一直強(qiáng)調(diào)檢索增強(qiáng),隨后經(jīng)過近兩年技術(shù)沉淀,百度的檢索增強(qiáng)能力不斷提升的同時(shí),也讓該能力的價(jià)值,受到業(yè)界一致認(rèn)可。
并且,百度即將推出的文心大模型4.5,更在百度自研的iRAG等技術(shù)加持下,可將百度搜索的億級圖片資源與自身強(qiáng)大的基礎(chǔ)模型能力相結(jié)合,從而生成種類繁多的真實(shí)圖片。甚至,iRAG可以做到在生成特定物品、特定人物以及特定人物與任意背景結(jié)合的圖像時(shí),在準(zhǔn)確率、真實(shí)性上都有顯著突破,極大減少幻覺。
其呈現(xiàn)的整體效果,將會遠(yuǎn)遠(yuǎn)超過文生圖原生系統(tǒng),不僅能夠去掉了Ai味兒,而且成本很低,在使用場景上,不論是影視作品、漫畫作品,還是連續(xù)畫本、海報(bào)制作等領(lǐng)域,無疑帶給用戶留有大量施展才華的空間。
一個(gè)可以預(yù)見的例子是,在文心大模型4.5正式上線后,用戶如果有品牌宣傳的需求,則可以借助iRAG技術(shù)下,在幾乎0成本操作中,像素極復(fù)刻以往大片宣傳海報(bào)動(dòng)輒需要一二十萬,甚至大幾十萬成本的圖片。
此外,文心一言還將上線的深度搜索功能,可為用戶提供專家級內(nèi)容回復(fù),實(shí)現(xiàn)多模態(tài)輸入與輸出。不僅如此,深度搜索功能下,還能提供多項(xiàng)工具調(diào)用,包含了高級聯(lián)網(wǎng)、文檔問答、圖片理解等功能,在用戶處理多場景任務(wù)中,效能無疑將得到極大提升。
值得注意的是,先前的2月27日,百度準(zhǔn)備發(fā)布文心大模型4.5消息一經(jīng)公布,2月28日的凌晨,OpenAi則迅速發(fā)布了GPT-4.5模型。似乎,雙方正在暗自較勁。
不過,OpenAi的發(fā)布或許略顯倉促。據(jù)報(bào)道,OpenAi前員工安德烈·卡帕西,曾提前體驗(yàn)了GPT-4.5后,認(rèn)為GPT-4.5主要提升在非推理密集型任務(wù)上的改進(jìn),這些任務(wù)多與情商有關(guān),而在數(shù)學(xué)、代碼等領(lǐng)域,GPT-4.5并不擁有最強(qiáng)的能力。
當(dāng)然,GPT-4.5與文心大模型4.5雙方具體表現(xiàn)如何,仍有待進(jìn)一步驗(yàn)證。
不過,從先前文心一言和ChatGPT對比來看,文心一言在中文語境與本土化上,往往有著GPT難以比擬的優(yōu)勢:尤其在問答準(zhǔn)確性、實(shí)時(shí)性上,文心一言的幻覺較少,對時(shí)事的反應(yīng)也更加迅捷。
從這點(diǎn)上說,百度的文心大模型4.5的深度思考能力,加上自身極強(qiáng)的多模態(tài)功能,對中國用戶而言,或許在未來能有更好的體驗(yàn)。
例如,從RAG能力實(shí)測來看,在國內(nèi)外主流大模型中,百度文心一言綜合表現(xiàn)一直屬于第一梯隊(duì)。即使是春節(jié)檔電影細(xì)節(jié)、春晚節(jié)目等內(nèi)容,文心一言都可以準(zhǔn)確回答,做到文能對題,相比之下,OpenAi雖能檢索到信源,卻無法生成準(zhǔn)確回答。
更重要的是,文心一言將于4月1日全面免費(fèi),PC端和App端用戶均可體驗(yàn)。與之相對的是,GPT-4.5雖接入API,但OpenAi計(jì)劃逐步轉(zhuǎn)向GPT-5的免費(fèi)基礎(chǔ)版(額度受限),付費(fèi)用戶需升級至Plus/Pro版本。
從這點(diǎn)上說,免費(fèi)且開源的文心大模型4.5,起碼在普惠性上,將帶給用戶更多的誠意。
開放,不僅僅是一種姿態(tài)
DeepSeek橫空出世后,浪潮風(fēng)波席卷全球。
對此,百度卻沒有故步自封,反而動(dòng)作頻頻,持續(xù)以一種開放的姿態(tài),直面變化。
此前的2月13日,文心一言就正式宣布,將于4月1日起全面免費(fèi),所有PC端和App端用戶均可體驗(yàn)文心系列最新模型,以及超長文檔處理、專業(yè)檢索增強(qiáng)、高級Ai繪畫等功能,一舉引起社會廣泛討論。
一天后的2月14日,百度接著宣布,將在未來幾個(gè)月陸續(xù)推出文心大模型4.5系列,以及在6月30日起正式開源。
兩天的2月16日,百度的開放,也延續(xù)到了對DeepSeek態(tài)度上:彼時(shí),百度將全面接入DeepSeek和文心大模型最新的深度搜索功能。并且,搜索用戶可免費(fèi)使用DeepSeek和文心大模型深度搜索功能。
在百度全面轉(zhuǎn)向開源、開放的戰(zhàn)略轉(zhuǎn)軌下,百度旗下的搜索、地圖、小度等也相繼接入 DeepSeek,由此,Ai浪潮引發(fā)產(chǎn)品升級的紅利,也不斷分享到了更多百度系的用戶。
從大模型到搜索,百度的開源、免費(fèi),共同打出了一套開放“組合拳”。
從這點(diǎn)上說,在李彥宏帶領(lǐng)下的百度,無疑正展開了一場自我變革,此時(shí),決心和勇氣缺一不可。
更重要的是,在這場開放過程中,又將會帶給用戶、公司、乃至整個(gè)行業(yè)哪些真正的價(jià)值?
對此,先前李彥宏曾談到,開源4.5系列的決策,源自于對技術(shù)領(lǐng)先地位的堅(jiān)定信心,開源將進(jìn)一步促進(jìn)文心大模型的廣泛應(yīng)用,并在更多場景中擴(kuò)大其影響力:“我想強(qiáng)調(diào)的是,無論開源閉源,基礎(chǔ)模型只有在大規(guī)模解決現(xiàn)實(shí)問題時(shí),才具備真實(shí)價(jià)值。”
可以說,大模型烈火烹油的兩周后,以O(shè)penAi、百度等為首的頭部玩家,已將這場大模型的競爭,步步進(jìn)逼,終于向應(yīng)用層面全面進(jìn)擊。此時(shí),百度也在用一種更加開放的策略,試圖去占據(jù)大模型第二場的主動(dòng)權(quán)。
而在這場競爭中,更多應(yīng)用層面的創(chuàng)新,無疑將惠及全球范圍內(nèi),越來越多的用戶。
“技術(shù)”如何打敗“故事”?
“過去,我們談?wù)撃柖蓵r(shí),每18個(gè)月,性能水平或價(jià)格都會減半。但是今天,當(dāng)我們談?wù)摯笳Z言模型時(shí),增加的成本基本上降低了,可以在12個(gè)月內(nèi)降低90%以上”
百度CEO李彥宏在世界政府峰會上,曾如此說道。
事實(shí)上,能夠在DeepSeek沖擊中迅速調(diào)整船頭,而不一味固守“閉源”,這既是百度戰(zhàn)略轉(zhuǎn)折的勇氣,也離不開百度長年以來技術(shù)沉淀的支撐。
李彥宏曾談到:“不僅在Ai領(lǐng)域或IT行業(yè),回顧過去幾百年的歷史,大多數(shù)創(chuàng)新都與降低成本有關(guān)。如果成本降低一定比例,生產(chǎn)力也隨之提高同樣比例,這就是創(chuàng)新的本質(zhì)。在今天,創(chuàng)新速度比以往都快得多。”
事實(shí)上,Ai行業(yè)發(fā)展至今,“技術(shù)實(shí)力”正在取代“故事性”,逐漸成為該行業(yè)的核心競爭力。
從這點(diǎn)上說,當(dāng)下,能夠撐起百度文心大模型強(qiáng)功能、快更迭、免費(fèi)開源的根本,則源于百度在技術(shù)上的底氣。其中,百度在大模型上訓(xùn)練成本的持續(xù)降低,也離不開百度昆侖芯和百舸平臺的助力。
近期,百度智能云成功點(diǎn)亮昆侖芯三代萬卡集群,這也是國內(nèi)首個(gè)正式點(diǎn)亮的自研萬卡集群。據(jù)悉,百度智能云將進(jìn)一步點(diǎn)亮三萬卡集群。
值得注意的是, 昆侖芯萬卡集群具有極強(qiáng)的規(guī)模效應(yīng),大規(guī)模集群可以通過任務(wù)并行調(diào)度、彈性算力管理等方式,提高計(jì)算資源利用率,避免算力閑置,提高單任務(wù)的計(jì)算效率,降低整體算力成本,最終實(shí)心可大幅提高資源利用率。
這也意味著,在昆侖芯萬卡集群規(guī)模效應(yīng)的作用下,百度大模型的推理和訓(xùn)練所需的計(jì)算量一直在持續(xù)減少,從而直接降低算力成本。
不僅如此,百度的百舸平臺,還能對大規(guī)模集群進(jìn)行高效的部署管理。
例如,為解決大模型訓(xùn)練時(shí)高通信帶寬的需求,百度不僅建設(shè)了超大規(guī)模HPN高性能網(wǎng)絡(luò),還可通過優(yōu)化的擁塞控制算法、集合通信算法策略,提升了通信效率,將帶寬有效性提升到90%以上。
同時(shí),由于萬卡集群的能耗極高,常規(guī)的散熱方案能耗可達(dá)十兆瓦或更高,這將提升企業(yè)進(jìn)行模型訓(xùn)練的電力成本,為此,百舸還采用了創(chuàng)新性散熱方案,可以有效降低能耗,進(jìn)一步降低模型訓(xùn)練成本。
此外,為提升GPU 的有效利用率(通常用MFU來表示GPU的有效利用率),百舸還在持續(xù)優(yōu)化并完善模型的分布式訓(xùn)練策略,通過高效并行化任務(wù)切分策略,將訓(xùn)練主流開源模型的集群MFU提升至58%。
以及,為了保證大規(guī)模集群執(zhí)行訓(xùn)練任務(wù)的穩(wěn)定性,百舸提供全面的故障診斷手段,可快速自動(dòng)偵測到導(dǎo)致訓(xùn)練任務(wù)異常的節(jié)點(diǎn)故障。加上百度自研的BCCL,目前已經(jīng)將故障恢復(fù)時(shí)間從小時(shí)級降低到分鐘級,保障集群有效訓(xùn)練率達(dá)到98%。
于是,當(dāng)以上技術(shù)形成源源不斷的合力后,到了24年初的財(cái)報(bào)電話會上,李彥宏則表示,文心大模型的推理成本,已經(jīng)已降低至一年前的1%。
此次文心大模型4.5能夠迅速推出,最大的原因之一,或許源于推理成本不斷降低。
對此,有觀點(diǎn)指出,百度在模型推理部署上的優(yōu)勢,尤其是在飛槳深度學(xué)習(xí)框架的支持下,其中并行推理、量化推理等都是飛槳在大模型推理上的自研技術(shù)。受此影響,飛槳和文心的聯(lián)合優(yōu)化,則可以實(shí)現(xiàn)推理性能提升,推理成本降低。
而面對機(jī)遇與風(fēng)險(xiǎn)并存的未來,人們可以預(yù)見的是,文心大模型4.5的推出以及近期百度頻頻開放的動(dòng)作,遠(yuǎn)遠(yuǎn)不是終點(diǎn)——
“我們?nèi)孕鑼π酒?shù)據(jù)中心和云基礎(chǔ)設(shè)施進(jìn)行持續(xù)投入,來訓(xùn)練更好、更智能的下一代模型。”李彥宏曾談到。
--THE END--
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.