99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

“大模型六小虎”被曝獲20億融資,放出首個(gè)推理模型技術(shù)秘籍!

0
分享至


8大核心亮點(diǎn):涵蓋RL訓(xùn)練、長(zhǎng)上下文處理、模型架構(gòu)創(chuàng)新。

來源:晚點(diǎn)、MiniMax

作者:程茜

李水青

智東西7月15日消息,近日,“大模型六小虎”之一MiniMax新動(dòng)向頻發(fā)。

昨日,據(jù)晚點(diǎn)報(bào)道,MiniMax接近完成近3億美元(折合人民幣約21.5億元)的新一輪融資,投后估值超過40億美元(折合人民幣約287億元)。“大模型六小虎”中,智譜、百川智能、月之暗面估值均超200億元,零一萬物、階躍星辰超100億元。

上個(gè)月,MiniMax前腳宣布啟動(dòng)“發(fā)布周”,一口氣發(fā)了推理模型MiniMax-M1、視頻大模型海螺02、通用智能Agent MiniMax Agent、端到端視頻創(chuàng)作Agent海螺視頻Agent、語音設(shè)計(jì)工具;后腳外媒彭博社就爆料,MiniMax正在籌備赴港上市


MiniMax成立于2021年11月,去年3月獲得6億美元A輪融資,當(dāng)時(shí)估值約為25億美元(約合人民幣180億元),該輪融資由阿里巴巴集團(tuán)領(lǐng)投,紅杉中國(guó)、高瓴資本參投。此前,騰訊、米哈游等公司也參與了MiniMax的融資。

今日,MiniMax放出了其在7月10日的M1全球技術(shù)閉門會(huì)的技術(shù)實(shí)錄,M1團(tuán)隊(duì)與香港科技大學(xué)、滑鐵盧大學(xué)、Anthropic、Hugging Face等技術(shù)人員,圍繞RL(強(qiáng)化學(xué)習(xí))訓(xùn)練、模型架構(gòu)創(chuàng)新、長(zhǎng)上下文展開探討,主要干貨信息如下:

1、針對(duì)有限上下文長(zhǎng)度,RL能賦予模型新能力;

2、RL訓(xùn)練可以讓模型獲得范圍廣闊的知識(shí);

3、只在數(shù)學(xué)和代碼上進(jìn)行RL訓(xùn)練,模型更容易產(chǎn)生幻覺;

4、Latent reasoning(隱性推理)可能是讓模型用圖像進(jìn)行思考的一個(gè)方向;

5、Reward Modeling(獎(jiǎng)勵(lì)建模)、多智能體、AI自動(dòng)化研究、非token空間推理是RL領(lǐng)域令人興奮的挑戰(zhàn);

6、長(zhǎng)上下文在Agent工作流中有巨大潛力;

7、混合架構(gòu)將成為主流;

8、大模型領(lǐng)域,脫離硬件的純粹算法研究正逐漸失去關(guān)注度。

如今大模型領(lǐng)域呈現(xiàn)出激烈的競(jìng)爭(zhēng)態(tài)勢(shì),DeepSeek等模型引發(fā)行業(yè)震動(dòng)的同時(shí)使得國(guó)產(chǎn)大模型格局深度洗牌,大模型六小虎紛紛調(diào)整戰(zhàn)略求生存,在此背景下,MiniMax得到資本青睞,拿下大額融資、被曝沖刺IPO,其對(duì)于大模型在長(zhǎng)文本處理能力、低成本訓(xùn)練等方面的有哪些創(chuàng)新點(diǎn)?這次技術(shù)閉門會(huì)有哪些獨(dú)到見解能為業(yè)界提供參考?我們?cè)噲D從其精華整理中找到答案。

01.

揭秘M1背后閃電注意力機(jī)制

推理模型自我反思的關(guān)鍵是高效利用計(jì)算資源

今日放出的技術(shù)閉門會(huì)實(shí)錄提到,MiniMax研究人員針對(duì)MiniMax-M1采用的混合線性注意力以及推理模型是否已經(jīng)具備推理和自我反思能力進(jìn)行了探討。

MiniMax-M1是其發(fā)布周最先更新的模型,作為全球首個(gè)開源大規(guī)模混合架構(gòu)的推理模型,參數(shù)規(guī)模達(dá)到4560億,每個(gè)token激活459億參數(shù),原生支持100萬上下文輸入以及業(yè)內(nèi)最長(zhǎng)的8萬token推理輸出,輸入長(zhǎng)度與閉源模型谷歌Gemini 2.5 Pro一致,是DeepSeek-R1的8倍。此外,研究人員訓(xùn)練了兩個(gè)版本的MiniMax-M1模型,其思考預(yù)算分別為40K和80K。

MiniMax在標(biāo)準(zhǔn)基準(zhǔn)測(cè)試集上的對(duì)比顯示,在復(fù)雜的軟件工程、工具使用和長(zhǎng)上下文任務(wù)方面,MiniMax-M1優(yōu)于DeepSeek-R1和Qwen3-235B等開源模型


其博客提到,在M1的整個(gè)強(qiáng)化學(xué)習(xí)階段,研究人員使用512塊H800訓(xùn)練了三周,租賃成本為53.74萬美金(折合人民幣約385.9萬元),相比其一開始的成本預(yù)期少了一個(gè)數(shù)量級(jí)。

M1是基于MiniMax-Text-01模型開發(fā),采用了混合專家(MoE)架構(gòu)和閃電注意力機(jī)制。

M1的閃電注意力機(jī)制可以高效擴(kuò)展測(cè)試時(shí)計(jì)算。例如,與DeepSeek-R1相比,M1在10萬個(gè)token的生成長(zhǎng)度下只需消耗25%的FLOP,使得M1適合于需要處理長(zhǎng)輸入和廣泛思考的復(fù)雜任務(wù)。

對(duì)于混合線性注意力會(huì)如何影響使用RL的推理模型的性能,技術(shù)探討會(huì)中提到,在訓(xùn)練過程中,當(dāng)其擴(kuò)展到可處理數(shù)萬token上下文長(zhǎng)度的模型時(shí),遇到了RL訓(xùn)練停滯不前,獎(jiǎng)勵(lì)信號(hào)在僅幾百步后就不再增長(zhǎng)的問題。這與線性注意力架構(gòu)在這種規(guī)模下固有的訓(xùn)練不穩(wěn)定性有關(guān),會(huì)導(dǎo)致某些層激活值爆炸等,并使模型在訓(xùn)練和推理時(shí)的行為出現(xiàn)嚴(yán)重錯(cuò)位。

這使得其發(fā)現(xiàn)混合線性注意力的一個(gè)根本性權(quán)衡:效率極高,單位token的計(jì)算成本非常低,但通常需要生成更多的 token(即更長(zhǎng)的推理路徑)才能達(dá)到與full attention模型相同的性能。其工作證明:通過適當(dāng)規(guī)模的RL以及合適的推理時(shí)算力,混合注意力模型能實(shí)現(xiàn)媲美Full Attention(全注意力)架構(gòu)性能

這對(duì)未來架構(gòu)設(shè)計(jì)的一個(gè)關(guān)鍵啟示——評(píng)估方法的重要性。為了公平地比較混合模型與其他模型,研究人員應(yīng)該基于在給定任務(wù)下、固定總計(jì)算預(yù)算內(nèi)的性能來進(jìn)行評(píng)估,而不僅僅是比較固定輸出長(zhǎng)度下的效果。

被問及推理模型是否已經(jīng)具備了System 2推理和自我反思能力,研究人員稱,System 2推理和自我反思,可以被理解為從大語言模型基本原理中涌現(xiàn)出的、可被觀測(cè)的模式。

首先其核心驅(qū)動(dòng)力,是有效利用更大的計(jì)算資源來獲得更好性能的能力。高級(jí)推理能力,是擴(kuò)展這些資源后的直接結(jié)果,而非其根本原因。本質(zhì)上,為模型提供更多的計(jì)算能力去“思考”,使得這些復(fù)雜的模式得以涌現(xiàn)。

其次,這種高級(jí)推理可以被看作是一種自動(dòng)化的Prompt Engineering。對(duì)于數(shù)學(xué)或編程等復(fù)雜任務(wù),模型學(xué)會(huì)了生成自己的內(nèi)部思考過程,這實(shí)際上取代了人類提供詳盡、分步式指令的需要。

對(duì)于寫作等任務(wù),模型在思考過程中會(huì)先對(duì)問題進(jìn)行分析,并對(duì)寫作步驟進(jìn)行專業(yè)化拆解。它會(huì)獨(dú)立地執(zhí)行諸如規(guī)劃和對(duì)問題進(jìn)行更深層次分析等操作。這使得模型能夠通過創(chuàng)建詳細(xì)推理路徑來“像專家一樣思考”。

因此System 2推理和自我反思,實(shí)質(zhì)上是如何高效地利用并擴(kuò)展計(jì)算預(yù)算(Computation Budget),同時(shí)也是模型自動(dòng)深化用戶問題的體現(xiàn)

02.

從MiniMax-M1到大模型產(chǎn)業(yè)核心議題:

模型架構(gòu)創(chuàng)新、RL訓(xùn)練、長(zhǎng)上下文應(yīng)用

從MiniMax-M1出發(fā),MiniMax團(tuán)隊(duì)成員與其他技術(shù)專家還探討了當(dāng)下大模型行業(yè)的其他核心話題,如模型架構(gòu)創(chuàng)新、RL訓(xùn)練、長(zhǎng)上下文應(yīng)用等領(lǐng)域探討了當(dāng)前的前沿話題,有以下8大核心要點(diǎn):

1、RL訓(xùn)練可增強(qiáng)有限上下文長(zhǎng)度模型能力

首先需要定義模型的基礎(chǔ)能力:對(duì)于給定上下文長(zhǎng)度的模型,在一組特定問題上無限次嘗試下的通過率(pass@k, k→∞)是多少,如果通過率為1,就表示這個(gè)模型能解決這類問題,通過率為0,則表示模型解決不了。

如果模型的生成長(zhǎng)度,即模型思考過程的長(zhǎng)度無限,RL無法賦予模型新能力,所有能用自然語言表述的問題,理論上模型都可以通過有限次的采樣嘗試來解決。

如果針對(duì)有限上下文長(zhǎng)度,RL能賦予模型新能力。因?yàn)镽L所做的是改變模型輸出的分布,預(yù)訓(xùn)練后,模型可能需要至少10W tokens才能解決某個(gè)問題,但經(jīng)過RL微調(diào)后,它可能只需要10K tokens。如果模型有限上下文長(zhǎng)度是50K tokens,那么RL的確賦予了模型新能力。

在有限上下文長(zhǎng)度下, pass@k是一個(gè)好的衡量指標(biāo)。K的取值很重要,這取決于如何定義模型能力,如果定義是“模型至少有一次能解決這個(gè)問題”,那么應(yīng)該用盡可能大的k來衡量pass@k;但如果定義是“模型能否在4次嘗試內(nèi)解決問題”,那應(yīng)該去衡量pass@4。

目前Reward(獎(jiǎng)勵(lì))是RL scaling的核心瓶頸,特別是如何為那些不基于結(jié)果的獎(jiǎng)勵(lì)(Non-outcome-based Reward)進(jìn)行建模,比如,人類可以從別人寫的一段文字或反饋中獲得正面或負(fù)面的感受,但目前并沒有很好的方法來對(duì)這種主觀感受進(jìn)行建模。

2、預(yù)訓(xùn)練的價(jià)值在于更多樣化的數(shù)據(jù)分布

原則上可以,只要有足夠的信息源就可以用RL來替代任何過程。某種意義上,預(yù)訓(xùn)練只是RL的一種特例,任何監(jiān)督學(xué)習(xí)都可以被看作是一種特殊的強(qiáng)化學(xué)習(xí)。現(xiàn)階段,RL訓(xùn)練階段的數(shù)據(jù)分布,要比預(yù)訓(xùn)練數(shù)據(jù)的分布狹窄得多,這正是目前進(jìn)行預(yù)訓(xùn)練能帶來的最大收益——它讓模型獲得了范圍遠(yuǎn)為廣闊的知識(shí)

但在當(dāng)前階段,預(yù)訓(xùn)練的價(jià)值在于可以在預(yù)訓(xùn)練階段接觸到更多樣化的數(shù)據(jù)分布。目前RL研究的核心挑戰(zhàn)之一是如何拓展至Reward清晰的環(huán)境之外。獎(jiǎng)勵(lì)建模(Reward Modeling)可能是一種解決方案,但更為通用的獎(jiǎng)勵(lì)信號(hào)依然是行業(yè)在探索的方向。

3、只在數(shù)學(xué)和代碼上做RL訓(xùn)練更易產(chǎn)生幻覺

關(guān)于通用推理,至少在今年二月左右,大多數(shù)RL數(shù)據(jù)都來自于數(shù)學(xué)或編程領(lǐng)域。事實(shí)上,只在數(shù)學(xué)和代碼上進(jìn)行RL訓(xùn)練,模型更容易產(chǎn)生幻覺。SimpleQA等事實(shí)性基準(zhǔn)、MMLU等多學(xué)科問答基準(zhǔn)上模型的性能都會(huì)顯著下降。

因此研究人員做通用推理數(shù)據(jù)集的動(dòng)機(jī)之一,就是創(chuàng)建更多樣化的RL訓(xùn)練數(shù)據(jù)。WebInstruct-verified數(shù)據(jù)集旨在為所有領(lǐng)域構(gòu)建更大規(guī)模的RL訓(xùn)練數(shù)據(jù),以便模型能夠在不同領(lǐng)域取得進(jìn)步,而不僅是數(shù)學(xué)和編程。

現(xiàn)在MiniMax嘗試進(jìn)一步擴(kuò)大這個(gè)規(guī)模,之前,通過在預(yù)訓(xùn)練數(shù)據(jù)集中搜索可用的RL數(shù)據(jù)來擴(kuò)大規(guī)模,其已經(jīng)將其擴(kuò)展到50萬量級(jí),現(xiàn)在正嘗試通過檢索更大規(guī)模的預(yù)訓(xùn)練數(shù)據(jù)集,從中獲取越來越多樣的RL數(shù)據(jù),并采用在Mid-training(中期訓(xùn)練)進(jìn)行RL的范式,而不僅僅是作為后訓(xùn)練。

4、隱性推理是讓模型用圖像思考的可能方向

目前很多視覺推理范式,核心大都集中在文本形式的思維鏈上,視覺部分固化為一個(gè)ViT(Vision Transformer)編碼器,無法讓模型在編碼圖像上花費(fèi)更多計(jì)算資源。像視覺語言模型Pixel Reasoner或其他研究,正試圖幫模型重新審視圖像的特定區(qū)域,并對(duì)其進(jìn)行重新編碼,從而在關(guān)鍵區(qū)域上投入更多算力。

但這并不是從底層提升模型能力的方法,現(xiàn)階段更像是權(quán)宜之計(jì)。因?yàn)楝F(xiàn)有的視覺編碼器太弱,無法很好處理高分辨率圖像,所以才嘗試用其他操作操縱圖像表示,然后從輸入中重新調(diào)用并在此基礎(chǔ)上進(jìn)行推理。現(xiàn)階段,重新調(diào)用幀或高亮顯示等工具,實(shí)際上都只是在增強(qiáng)感知能力。

其他更復(fù)雜的圖像生成技術(shù)等工具,能從根本上改變圖像,其已經(jīng)超越了單純?cè)鰪?qiáng)感知的范疇,比如在幾何問題中畫輔助線。這種方法如果奏效,未來或成為“用圖像思考”的更強(qiáng)大版本。

但仍需解決其根本的瓶頸問題:如何更好地編碼視覺像素,以及如何以更好的方式在抽象潛在空間(Latent Space)中進(jìn)行視覺推理

Latent Reasoning(隱性推理)可能是一個(gè)方向。機(jī)器人或具身智能領(lǐng)域的視覺推理需要在空間中思考,在這些涉及空間感的場(chǎng)景下,很多推理過程是隱式的,無法被清晰地表述或言語化。

5、多智能體、AI自動(dòng)化研究是RL領(lǐng)域挑戰(zhàn)

RL面臨挑戰(zhàn)之一是Reward Modeling,特別是如何超越那些結(jié)果容易被評(píng)估的環(huán)境;另一個(gè)可能很重要的領(lǐng)域是多智能體,多智能體目前更多受限于基礎(chǔ)設(shè)施,而非理論研究;另一個(gè)領(lǐng)域是AI自動(dòng)化研究——讓模型自己訓(xùn)練自己,這與AGI的定義相關(guān),即當(dāng)模型可以在沒有人類干預(yù)的情況下,自我訓(xùn)練并自我提升;非token空間的推理也存在機(jī)會(huì)。

6、長(zhǎng)上下文是Agent的破局點(diǎn)

長(zhǎng)上下文在Agent工作流中有巨大潛力,Agent完成某個(gè)任務(wù)時(shí),能將整個(gè)代碼庫、API參考文檔、歷史交互數(shù)據(jù)等等,全部一次性喂給它。這種任務(wù)不能分幾次調(diào)用來處理,因?yàn)?strong>智能體完成任務(wù)時(shí)掌握的關(guān)于這個(gè)項(xiàng)目的信息越多,產(chǎn)出的質(zhì)量就越高。

研究人員有望從目前在大多數(shù)情況下,只能處理相當(dāng)孤立任務(wù)的智能體,發(fā)展到那些能夠管理復(fù)雜項(xiàng)目、同時(shí)保持完整上下文感知的智能體。

M1超長(zhǎng)上下文模型的真正價(jià)值在于解鎖了全新的企業(yè)級(jí)應(yīng)用場(chǎng)景。例如,法律行業(yè)客戶需要把文件一塊一塊地喂給大語言模型,并用一些竅門來優(yōu)化檢索和上下文管理。這樣問題在于,可能錯(cuò)過埋藏在某個(gè)隨機(jī)法律文件某一頁中的關(guān)鍵細(xì)節(jié)。1M token的上下文窗口就可以一次性處理整個(gè)案件歷史、所有相關(guān)判例以及所有其他信息源。

7、混合架構(gòu)將成為主流

對(duì)比純線性注意力和Full Attention,混合注意力機(jī)制(Hybrid Attention)是最有前景的方案。純線性注意力機(jī)制有很多根本性局限,因?yàn)樗臓顟B(tài)大小是固定的,因此,在處理長(zhǎng)序列建模問題時(shí)表現(xiàn)不佳

Full Attention雖然提供了靈活性,但其代價(jià)也顯而易見:KV緩存大小會(huì)隨著序列長(zhǎng)度線性增長(zhǎng),并且訓(xùn)練復(fù)雜度也是平方級(jí)的。當(dāng)序列不斷變長(zhǎng)時(shí),高昂的推理和訓(xùn)練復(fù)雜度就會(huì)成為瓶頸。

混合架構(gòu)將會(huì)成為模型設(shè)計(jì)的主流,因?yàn)殡S著對(duì)大規(guī)模部署和低延遲需求的增長(zhǎng),人們會(huì)越來越關(guān)心推理效率和模型的推理能力。未來如何進(jìn)一步拓展混合注意力架構(gòu)的空間,研究人員可能需要探索不是簡(jiǎn)單地用固定的比例來交錯(cuò)堆疊Softmax注意力和線性注意力層,或許需要更多樣的混合架構(gòu)形式。

在大模型領(lǐng)域,脫離硬件的純粹算法研究正逐漸失去關(guān)注度。如果一項(xiàng)技術(shù)無法規(guī)模化,或者不能被高效地部署,那它就很難獲得關(guān)注、形成勢(shì)能。一個(gè)算法不僅要在理論上站得住腳,還必須在硬件上——尤其是在GPU或TPU這類加速器上高效運(yùn)行。如今的算法研究者們還應(yīng)該掌握一些底層的GPU編程工具,這才是當(dāng)今在大模型領(lǐng)域做算法研究的正確方向。

混合架構(gòu)目前的瓶頸在于基礎(chǔ)設(shè)施。混合模型的有效性在去年就已經(jīng)得到了很好的驗(yàn)證,但沒有公司投入更多資金進(jìn)行大規(guī)模驗(yàn)證。

8、混合架構(gòu)推理速度對(duì)現(xiàn)實(shí)應(yīng)用至關(guān)重要

在推理層面,隨著混合注意力架構(gòu)越來越流行,為了在SGLang或其他推理引擎中充分利用緩存感知和緩存復(fù)用等特性,研究人員需要為普通架構(gòu)和混合架構(gòu)設(shè)計(jì)統(tǒng)一的抽象層,這樣才能簡(jiǎn)單地將所有優(yōu)化應(yīng)用到混合模型上。

此外當(dāng)前MiniMax模型7+1層交錯(cuò)的架構(gòu)可能會(huì)帶來一些工程挑戰(zhàn),特別是在用計(jì)算圖優(yōu)化(Graph Optimization)進(jìn)行部署時(shí),因?yàn)椴煌瑢拥挠?jì)算和內(nèi)存訪問模式是不同的,這會(huì)導(dǎo)致GPU利用率不平衡。可能需要用一些技術(shù)來解決它,比如批處理重疊(Batch Overlapping)或者更先進(jìn)的Pipeline策略。

從支持混合架構(gòu)的技術(shù)層面來說,首先需要一個(gè)混合分配器(Hybrid Allocator),有助于管理混合架構(gòu)的KV緩存。這些狀態(tài)的生命周期與全注意力層的KV緩存并不同步,所以需要設(shè)計(jì)如何讓它與現(xiàn)有的緩存機(jī)制、預(yù)填充、解碼等環(huán)節(jié)協(xié)同工作。

其次,批處理重疊(Batch Overlapping)會(huì)很有幫助。采用了混合架構(gòu)后,如果能將兩個(gè)微批次(Micro-batches)重疊起來處理,只要比例計(jì)算得當(dāng),理論上任意時(shí)刻都會(huì)有一個(gè)微批次在執(zhí)行計(jì)算密集型的Full Attention 操作,從而最大化GPU利用率。

從生產(chǎn)部署的角度來看,混合架構(gòu)的推理速度對(duì)現(xiàn)實(shí)應(yīng)用至關(guān)重要。例如,有一個(gè)客戶,需要并發(fā)處理多個(gè)幾十萬token的請(qǐng)求。但對(duì)于使用二次方復(fù)雜度注意力的傳統(tǒng)模型,在這種輸入大小和并發(fā)量下,生成速度都會(huì)變得極慢。

03.

結(jié)語:“大模型六小虎”發(fā)力

作為MiniMax推出的首個(gè)推理模型,MiniMax-M1是其在模型架構(gòu)、算法創(chuàng)新上的最新探索。未來大語言模型在測(cè)試或推理階段,往往需要?jiǎng)討B(tài)增加計(jì)算資源或計(jì)算步驟來提升模型性能,尤其在Agent發(fā)展加速的當(dāng)下,模型需要進(jìn)行數(shù)十到數(shù)百輪的推理,同時(shí)集成來自不同來源的長(zhǎng)上下文信息,才能執(zhí)行任務(wù)。MiniMax在M1上的技術(shù)探索,對(duì)于推理模型能力、長(zhǎng)上下文處理能力的突破或許均有可復(fù)用性。

與此同時(shí),“大模型六小虎”之一的月之暗面也放出了其最新一代MoE架構(gòu)基礎(chǔ)模型Kimi K2,總參數(shù)量達(dá)到1萬億(1T),在預(yù)訓(xùn)練階段使用了“MuonClip”優(yōu)化器實(shí)現(xiàn)萬億參數(shù)模型的訓(xùn)練優(yōu)化。

可以看出,被DeepSeek沖擊的“大模型六小虎”現(xiàn)在正在卯足勁頭,競(jìng)相通過技術(shù)創(chuàng)新開發(fā)更實(shí)用、更低成本的模型。

閱讀最新前沿科技趨勢(shì)報(bào)告,請(qǐng)?jiān)L問歐米伽研究所的“未來知識(shí)庫”

https://wx.zsxq.com/group/454854145828


未來知識(shí)庫是“ 歐米伽 未來研究所”建立的在線知識(shí)庫平臺(tái),收藏的資料范圍包括人工智能、腦科學(xué)、互聯(lián)網(wǎng)、超級(jí)智能,數(shù)智大腦、能源、軍事、經(jīng)濟(jì)、人類風(fēng)險(xiǎn)等等領(lǐng)域的前沿進(jìn)展與未來趨勢(shì)。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進(jìn)入。

截止到3月31日 ”未來知識(shí)庫”精選的百部前沿科技趨勢(shì)報(bào)告

(加入未來知識(shí)庫,全部資料免費(fèi)閱讀和下載)

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
風(fēng)靡一時(shí)的蘭州拉面,為何很少人去吃了?4個(gè)扎心原因趕跑了顧客

風(fēng)靡一時(shí)的蘭州拉面,為何很少人去吃了?4個(gè)扎心原因趕跑了顧客

平祥生活日志
2025-07-24 02:00:43
給近兩年最好的10部犯罪劇排名:《掃毒風(fēng)暴》第5,第1沒有爭(zhēng)議

給近兩年最好的10部犯罪劇排名:《掃毒風(fēng)暴》第5,第1沒有爭(zhēng)議

坊聞本尊
2025-07-24 19:03:52
陳佩斯新片《戲臺(tái)》首波口碑出爐!觀眾催淚點(diǎn)評(píng):我們不想看他輸

陳佩斯新片《戲臺(tái)》首波口碑出爐!觀眾催淚點(diǎn)評(píng):我們不想看他輸

晴晴的娛樂日記
2025-07-24 11:45:17
美國(guó)總統(tǒng)時(shí)隔近20年首次正式造訪美聯(lián)儲(chǔ),特朗普和鮑威爾說了些什么?

美國(guó)總統(tǒng)時(shí)隔近20年首次正式造訪美聯(lián)儲(chǔ),特朗普和鮑威爾說了些什么?

澎湃新聞
2025-07-25 08:42:32
一問到底丨確診超4000例,基孔肯雅熱啥來頭?總臺(tái)專訪中疾控專家

一問到底丨確診超4000例,基孔肯雅熱啥來頭?總臺(tái)專訪中疾控專家

環(huán)球網(wǎng)資訊
2025-07-25 22:21:31
世衛(wèi)組織警示基孔肯雅熱疫情風(fēng)險(xiǎn),呼吁全球加強(qiáng)防控

世衛(wèi)組織警示基孔肯雅熱疫情風(fēng)險(xiǎn),呼吁全球加強(qiáng)防控

界面新聞
2025-07-25 19:14:25
《戲臺(tái)》上映即翻車,票房大爆卻差評(píng)如潮,這種“爛片”別再拍了

《戲臺(tái)》上映即翻車,票房大爆卻差評(píng)如潮,這種“爛片”別再拍了

銀河史記
2025-07-25 19:38:00
中國(guó)是如何識(shí)破雙面間諜斯諾登騙局的?

中國(guó)是如何識(shí)破雙面間諜斯諾登騙局的?

霹靂炮
2025-07-25 13:29:17
杜特爾特女兒獲得勝利!菲律賓友華派一片歡騰:小馬科斯要完了

杜特爾特女兒獲得勝利!菲律賓友華派一片歡騰:小馬科斯要完了

小企鵝侃世界
2025-07-25 22:57:39
“內(nèi)鬼”陳天生被查,曾任反貪局局長(zhǎng)

“內(nèi)鬼”陳天生被查,曾任反貪局局長(zhǎng)

政知新媒體
2025-07-25 18:26:27
河北涿州突降暴雨道路積水快沒過車窗,居民稱“開車像開船”,當(dāng)?shù)兀航煌ㄕ鸩交謴?fù)

河北涿州突降暴雨道路積水快沒過車窗,居民稱“開車像開船”,當(dāng)?shù)兀航煌ㄕ鸩交謴?fù)

極目新聞
2025-07-25 20:06:08
馮德萊恩登上離華專機(jī)前,中歐發(fā)布聯(lián)合聲明,特朗普進(jìn)退兩難

馮德萊恩登上離華專機(jī)前,中歐發(fā)布聯(lián)合聲明,特朗普進(jìn)退兩難

掌青說歷史
2025-07-25 18:13:45
奧巴馬是用進(jìn)步文化和平權(quán)主義摧毀美國(guó)立國(guó)之本的“特洛伊木馬”

奧巴馬是用進(jìn)步文化和平權(quán)主義摧毀美國(guó)立國(guó)之本的“特洛伊木馬”

壹家言
2025-07-25 08:59:54
宗慶后的警覺,狐貍分餅,梅艷芳信托化為了烏有

宗慶后的警覺,狐貍分餅,梅艷芳信托化為了烏有

月滿大江流
2025-07-24 17:44:11
連刷《南京照相館》和《戲臺(tái)》,一部超上頭,一部看得昏昏欲睡!

連刷《南京照相館》和《戲臺(tái)》,一部超上頭,一部看得昏昏欲睡!

小丸子的娛樂圈
2025-07-24 15:09:55
河南幫扶人員68張白條2.8萬元餐館欠款已結(jié)清,縣糧食局簽字人:深表歉意,自己先墊的錢

河南幫扶人員68張白條2.8萬元餐館欠款已結(jié)清,縣糧食局簽字人:深表歉意,自己先墊的錢

極目新聞
2025-07-25 11:40:21
53歲性感女神驚爆真空上陣露古怪胸型!豐滿上圍下垂到肚臍

53歲性感女神驚爆真空上陣露古怪胸型!豐滿上圍下垂到肚臍

粵睇先生
2025-07-23 00:55:58
洪森司令部暴露秘密,大批柬軍陣亡:多種中美制坦克火箭炮大混戰(zhàn)

洪森司令部暴露秘密,大批柬軍陣亡:多種中美制坦克火箭炮大混戰(zhàn)

南宮一二
2025-07-25 16:50:07
村民要求村委會(huì)公開多年收支,被通知要交“23萬元復(fù)印費(fèi)”?鎮(zhèn)政府:村委提供查閱機(jī)會(huì),對(duì)方執(zhí)意復(fù)印

村民要求村委會(huì)公開多年收支,被通知要交“23萬元復(fù)印費(fèi)”?鎮(zhèn)政府:村委提供查閱機(jī)會(huì),對(duì)方執(zhí)意復(fù)印

大風(fēng)新聞
2025-07-25 21:27:15
兒子高考712分,父親帶出國(guó)旅游在海關(guān)被攔,父親:我沒這個(gè)兒子

兒子高考712分,父親帶出國(guó)旅游在海關(guān)被攔,父親:我沒這個(gè)兒子

球場(chǎng)指揮家
2025-07-25 20:05:13
2025-07-26 02:00:49
人工智能學(xué)家 incentive-icons
人工智能學(xué)家
人工智能領(lǐng)域權(quán)威媒體
4046文章數(shù) 37239關(guān)注度
往期回顧 全部

財(cái)經(jīng)要聞

劉煜輝:當(dāng)下重要不是找確定性而是轉(zhuǎn)折點(diǎn)

頭條要聞

8旬翁下葬前墓地被人埋死狗沿路埋鐵釘暗器 官方介入

頭條要聞

8旬翁下葬前墓地被人埋死狗沿路埋鐵釘暗器 官方介入

體育要聞

3年過去了,她還是歐洲杯上最酷的姐

娛樂要聞

汪蘇瀧不忍了 !張碧晨痛失《年輪》演唱權(quán)

科技要聞

36款熱門車高危智駕場(chǎng)景測(cè)試,“團(tuán)滅”!

汽車要聞

李斌一口氣講了近3個(gè)小時(shí)樂道L90 原因是為啥?

態(tài)度原創(chuàng)

房產(chǎn)
健康
教育
時(shí)尚
軍事航空

房產(chǎn)要聞

分?jǐn)?shù)線集體飆漲!海中867分!2025海南中招格局大變!

呼吸科專家破解呼吸道九大謠言!

教育要聞

再獲國(guó)際物理奧賽金牌,南師附中學(xué)子勇登世界之巔!

今年夏天一定要有這件衣服,好看又復(fù)古!

軍事要聞

吳謙少將任中國(guó)駐埃及使館國(guó)防武官

無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 永兴县| 钟山县| 门头沟区| 岢岚县| 弥渡县| 酒泉市| 博兴县| 油尖旺区| 闽侯县| 麻阳| 福州市| 兴和县| 繁峙县| 炎陵县| 耒阳市| 龙泉市| 四子王旗| 商水县| 丹阳市| 阳高县| 栾城县| 同心县| 博乐市| 罗平县| 乐昌市| 乐至县| 南城县| 富民县| 龙口市| 安平县| 叶城县| 桂阳县| 房山区| 湘乡市| 花莲县| 丹寨县| 建阳市| 裕民县| 密山市| 西昌市| 高邮市|