99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

谷歌Transformer過(guò)時(shí)了?清華姚班校友等三連擊,爆改注意力!

0
分享至


新智元報(bào)道

編輯:KingHZ

【新智元導(dǎo)讀】RNN太老,Transformer太慢?谷歌掀翻Transformer王座,用「注意力偏向+保留門(mén)」取代傳統(tǒng)遺忘機(jī)制,重新定義了AI架構(gòu)設(shè)計(jì)。全新模型Moneta、Yaad、Memora,在多個(gè)任務(wù)上全面超越Transformer。這一次,谷歌不是調(diào)參,而是換腦!

谷歌又有新的注意力了!

他們提出的新架構(gòu)參數(shù)減少40%,訓(xùn)練速度較RNN提升5-8倍,在某些任務(wù)上性能甚至Transformer好7.2%

在大語(yǔ)言模型(LLMs)中,他們引入了新的注意力偏向策略,并重新構(gòu)想了「遺忘」這一過(guò)程,用「保留」來(lái)取而代之。


所謂的「注意力偏向」現(xiàn)象,是指人類(lèi)天然傾向于優(yōu)先處理特定事件或刺激

受人類(lèi)認(rèn)知中的「關(guān)聯(lián)記憶」(associative memory)與「注意力偏向」(attentional bias)概念啟發(fā),谷歌的團(tuán)隊(duì)提出了統(tǒng)一視角:

Transformer與RNN,都可以被看作是優(yōu)化某種「內(nèi)在記憶目標(biāo)」(即注意力偏向),從而學(xué)習(xí)鍵值映射的關(guān)聯(lián)記憶系統(tǒng)。

他們發(fā)現(xiàn):

  1. 幾乎所有現(xiàn)代序列模型的底層學(xué)習(xí)過(guò)程,都可以歸結(jié)為關(guān)聯(lián)記憶機(jī)制;

  2. 所謂的遺忘機(jī)制,本質(zhì)上是一種對(duì)注意力偏向的正則化操作;

  3. 不同模型之間的差異,可以用「注意力偏向+保留機(jī)制」這一組合來(lái)解釋。

為此,他們把這一切都被整合進(jìn)了名為Miras的新框架中,提供四個(gè)關(guān)鍵設(shè)計(jì)維度,指導(dǎo)下一代序列模型的構(gòu)建。

1.記憶架構(gòu)— 如何構(gòu)建記憶,決定了模型的記憶能力,比如向量、矩陣、MLP等

2.注意力偏向— 模型如何集中注意力,負(fù)責(zé)建模潛在的映射模式

3.保留門(mén)控— 如何平衡學(xué)習(xí)新概念和保留已學(xué)概念

4.記憶學(xué)習(xí)算法— 模型如何訓(xùn)練,負(fù)責(zé)記憶管理,比如梯度下降、牛頓法等


圖1:Miras框架概述

這次他們,一口氣提出了三種新型序列模型,在某些任務(wù)上甚至超越了超越Transformer。


這三種新模型——Moneta、Yaad和Memora,超越了現(xiàn)有線性遞歸神經(jīng)網(wǎng)絡(luò)的能力,同時(shí)保持快速可并行訓(xùn)練的過(guò)程。

新模型各有所長(zhǎng),在特定任務(wù)中表現(xiàn)卓越:

· Moneta:在語(yǔ)言建模任務(wù)中PPL指標(biāo)提升23%

· Yaad:常識(shí)推理準(zhǔn)確率達(dá)89.4%(超越Transformer7.2%)

· Memora:記憶密集型任務(wù)召回率提升至91.8%

在多個(gè)任務(wù)上,新模型提升明顯:

? 在PG19長(zhǎng)文本建模任務(wù)中,參數(shù)量減少40%情況下保持相當(dāng)性能

? 線性計(jì)算復(fù)雜度使訓(xùn)練速度較傳統(tǒng)RNN提升5-8倍

? 在CLUTRR關(guān)系推理基準(zhǔn)上創(chuàng)造92.3%的新SOTA紀(jì)錄


論文鏈接:https://arxiv.org/abs/2504.13173

模型沒(méi)有失憶,

但也有問(wèn)題

研究者定義并形式化了注意力偏向的概念,作為序列模型的內(nèi)部記憶目標(biāo),旨在學(xué)習(xí)輸入(即鍵和值)之間的潛在映射。

廣義上講,關(guān)聯(lián)記憶是將一組鍵K映射到一組值V的操作符(Operator)

為了學(xué)習(xí)數(shù)據(jù)中的潛在映射模式,它需要一個(gè)目標(biāo),該目標(biāo)針對(duì)某種類(lèi)型的記憶并衡量學(xué)習(xí)到的映射質(zhì)量:


研究人員不再用「遺忘」(forget)這個(gè)詞,而是提出了「保留」(retention)的概念。

因此,「遺忘門(mén)」(forget gate)也就變成了「保留門(mén)」(retention gate)。

模型并不會(huì)真的清除過(guò)去的記憶——

它只是選擇對(duì)某些信息不那么「上心」而已。

此外,研究人員提供了一套全新的替代保留門(mén)控(忘記門(mén))用于序列模型,帶來(lái)了新的洞察,幫助平衡學(xué)習(xí)新概念和保留先前學(xué)到的概念。

現(xiàn)有的深度學(xué)習(xí)架構(gòu)中的遺忘機(jī)制,可以重新解釋為一種針對(duì)注意力偏向的??正則化

比如,softmax注意力Miras的一個(gè)實(shí)例,利用Nadaraya-Watson估計(jì)器找到MSE損失的非參數(shù)解時(shí),無(wú)需保留項(xiàng)。


論文鏈接:https://arxiv.org/abs/2407.04620

實(shí)際上,這次谷歌團(tuán)隊(duì)發(fā)現(xiàn)大多數(shù)現(xiàn)有模型(如Transformer、RetNet、Mamba等)都采用了類(lèi)似的注意力偏向目標(biāo),即嘗試最小化鍵值對(duì)之間的?? 范數(shù)(均方誤差

它存在幾個(gè)問(wèn)題

  • 對(duì)異常值敏感:極端或錯(cuò)誤輸入可能?chē)?yán)重干擾記憶更新

  • 不支持可調(diào)節(jié)的保留策略:不同任務(wù)/token 重要性不同,不能一視同仁

  • 無(wú)法應(yīng)對(duì)復(fù)雜上下文需求:長(zhǎng)文檔、多語(yǔ)義層、跨段落推理等任務(wù)對(duì)注意力機(jī)制要求更高


表1:基于Miras框架視角的近期序列模型概覽

目標(biāo)函數(shù):注意力偏向策略

基于關(guān)聯(lián)記憶概念的神經(jīng)架構(gòu)設(shè)計(jì),被轉(zhuǎn)化為學(xué)習(xí)鍵值之間的基本映射,可以利用最小化目標(biāo)函數(shù)L來(lái)實(shí)現(xiàn):

為了求解上述優(yōu)化問(wèn)題,最簡(jiǎn)單的方法就是利用梯度下降。

具體來(lái)說(shuō),給定一對(duì)新的鍵值對(duì),可以通過(guò)以下方式更新記憶(一下叫做更新方程):

這一公式可以被重新解釋為一種瞬時(shí)驚訝度度量,其中模型記憶那些違反目標(biāo)預(yù)期的token。

更新方程可以看作是在線梯度下降的一步,涉及損失函數(shù)序列的優(yōu)化:

眾所周知,在線梯度下降可以被視為跟蹤正則化領(lǐng)導(dǎo)者(Follow-The-Regularized-Leader, FTRL)算法的一個(gè)特例。

這其實(shí)對(duì)應(yīng)于某些特定選擇的損失函數(shù)。

具體來(lái)說(shuō),假設(shè)W? = 0,則更新方程中的更新規(guī)則等價(jià)于下列方程(以后稱(chēng)為二次更新方程):


以上方程使用了損失函數(shù)的線性近似和二次正則化。

然而,從原則上講,也可以使用其他損失函數(shù)的近似以及其他正則化函數(shù)

更具體地說(shuō),可以將二次更新方程推廣到如下形式:


其中:

  • 第一項(xiàng)是注意力偏向(Attentional Bias)的和

  • 最后一項(xiàng)是記憶穩(wěn)定性(Memory Stability)正則化項(xiàng)。

不同的損失函數(shù)和正則化項(xiàng),對(duì)應(yīng)不同的算法

在這種情況下,記憶的更新不僅依賴(lài)于當(dāng)前輸入數(shù)據(jù)的特征,還受到記憶結(jié)構(gòu)的影響,正則化項(xiàng)在其中起到了平衡學(xué)習(xí)和記憶穩(wěn)定性的作用。

Miras提出的三類(lèi)新型注意力偏向策略。

??范數(shù):記憶精度可調(diào)

如正文所述?2回歸損失通常是自然選擇,但其對(duì)數(shù)據(jù)噪聲較為敏感。

自然的擴(kuò)展是采用?范數(shù)目標(biāo)函數(shù)類(lèi)。

具體而言,設(shè)M為記憶模塊,k為鍵集合,v為值集合,?注意力偏向定義為:


不同的范數(shù)對(duì)應(yīng)對(duì)噪聲的敏感度:

??更抗異常值,

??是常規(guī)選擇,

?∞ 聚焦于最大誤差。

Huber損失:「應(yīng)對(duì)異常」心理機(jī)制

Huber損失具備容錯(cuò)機(jī)制的記憶模塊。

盡管?2范數(shù)目標(biāo)是許多統(tǒng)計(jì)與機(jī)器學(xué)習(xí)任務(wù)的常見(jiàn)選擇,但其對(duì)異常值和極端樣本的敏感性眾所周知。

這種敏感性同樣存在于將?2損失用于注意力偏向的場(chǎng)景。

為解決該問(wèn)題,并借鑒穩(wěn)健回歸的思路,研究者建議采用Huber損失類(lèi)型作為注意力偏向,從而降低異常數(shù)據(jù)對(duì)記憶學(xué)習(xí)過(guò)程的負(fù)面影響。


Huber損失結(jié)合了??(正常情況下)和??(出現(xiàn)大誤差時(shí)),在面對(duì)異常值時(shí)也能保持學(xué)習(xí)的穩(wěn)定性。

魯棒優(yōu)化:考慮最壞情況

魯棒優(yōu)化(Robust Optimization)的核心思想:最小化最壞情況下的損失在一個(gè)不確定性集合(uncertainty set)內(nèi)優(yōu)化性能。


  • 不只是優(yōu)化當(dāng)前值,而是對(duì)可能擾動(dòng)做最壞情況準(zhǔn)備

  • 提高模型應(yīng)對(duì)微小輸入變化的魯棒性,適用于噪聲或?qū)剐暂斎氕h(huán)境

類(lèi)似「?jìng)浞萦洃洝共呗浴词宫F(xiàn)實(shí)偏離,也不崩盤(pán)。

魯棒優(yōu)化使模型在輸入有小幅變動(dòng)時(shí)也能保持穩(wěn)定。

正則化:保留門(mén)策略

在多數(shù)傳統(tǒng)模型中(如 LSTM、Mamba、Transformer),信息的遺忘或記憶更新是隱式的,模型只是不斷地「覆蓋」舊狀態(tài)。

但現(xiàn)實(shí)中,大家知道:

并不是所有信息都值得被長(zhǎng)期記住,有些應(yīng)該快速遺忘,有些則必須深深保留。

因此,Miras 框架提出了一個(gè)明確的設(shè)計(jì)目標(biāo):

引入可控的、可設(shè)計(jì)的保留機(jī)制 Retention Gate,使模型顯式判斷是否保留舊記憶。

這就是Retention Gate的作用核心。

另一種解讀的方法是,將更新方程視為從最新的鍵值對(duì)(k?, v?)中學(xué)習(xí)(通過(guò)使用其梯度或驚訝度度量),同時(shí)保持接近先前狀態(tài)W???,以保留先前記憶的token。

這種形式可以推廣為:


其中,右側(cè)第一項(xiàng)是?(W; k_t, v_t)的近似,最小化它對(duì)應(yīng)于從新概念(k?, v?)中學(xué)習(xí)。

第二項(xiàng)則對(duì)W的變化進(jìn)行正則化,以使學(xué)習(xí)動(dòng)態(tài)穩(wěn)定,并保留先前學(xué)到的知識(shí)。

Retention函數(shù)可能包括局部和全局組件:


其中:

  • 第一項(xiàng)是一種預(yù)度量,用于控制W_{t-1}的偏差,旨在保留先前學(xué)到的知識(shí)。

  • 系數(shù)η?可以被視為一種元上下文學(xué)習(xí)率,其中較大的η?值意味著從新概念中學(xué)習(xí)更多,同時(shí)允許對(duì)先前學(xué)到的概念有更高的遺忘率。

  • 第二項(xiàng)是全局保留,它控制與記憶大小相關(guān)的變化。

從目標(biāo)函數(shù)角度,保留門(mén)對(duì)應(yīng)正則項(xiàng)。

基于概率的機(jī)制:將記憶處理為概率分布(比如用KL散度)來(lái)保持其穩(wěn)定性。

彈性網(wǎng)(Elastic net):結(jié)合了軟遺忘(??)和硬遺忘(??)的方法。

Lq穩(wěn)定性:可調(diào)節(jié)記憶對(duì)變化的抵抗程度。

Bregman散度:引入非線性、能感知數(shù)據(jù)結(jié)構(gòu)形狀的記憶更新方式。

三個(gè)新模型

研究人員利用 Miras 框架構(gòu)建了三個(gè)新模型:

? Moneta ——靈活且表達(dá)力強(qiáng)。它采用可定制的 ?p/?q范數(shù)來(lái)靈活控制記憶更新的精度。

? Yaad ——抗噪和抗極端值能力強(qiáng)。它使用Huber損失和自適應(yīng)更新機(jī)制來(lái)保持模型的穩(wěn)定性。

? Memora ——穩(wěn)定且規(guī)范的記憶控制。它通過(guò)KL散度和Softmax更新方法,確保記憶在合理范圍內(nèi)波動(dòng)。

在實(shí)驗(yàn)中,這些新模型在以下任務(wù)中表現(xiàn)優(yōu)于現(xiàn)有最強(qiáng)模型語(yǔ)言理解、常識(shí)推理、發(fā)現(xiàn)罕見(jiàn)事實(shí)(像「大海撈針」那樣找出隱藏信息)、 在長(zhǎng)文本中保留細(xì)節(jié)信息

實(shí)驗(yàn)表明,Miras中的不同設(shè)計(jì)選擇產(chǎn)生了具有不同優(yōu)勢(shì)的模型。

Moneta專(zhuān)注于記憶更新中的可定制精度,使用靈活的??/?q 范數(shù)。

Yaad使用Huber損失和自適應(yīng)更新來(lái)保持穩(wěn)定性。

Memora利用KL散度和Softmax更新來(lái)保持記憶的邊界。

實(shí)驗(yàn)結(jié)果

首先關(guān)注語(yǔ)言建模中的困惑度(perplexity)以及常識(shí)推理任務(wù)的表現(xiàn)。

研究者在表2中報(bào)告了Memora、Yaad、Moneta三個(gè)模型變體,以及一些基準(zhǔn)模型(參數(shù)量為340M、760M 和 1.3B)的結(jié)果。


表2:Miras各個(gè)變體與基準(zhǔn)模型在語(yǔ)言建模和常識(shí)推理任務(wù)中的表現(xiàn)。帶有*標(biāo)記的為混合模型,高亮的內(nèi)容是表現(xiàn)最好的純模型和混合模型

所有模型變體都優(yōu)于包括Transformer++、現(xiàn)代線性遞歸模型和混合方法在內(nèi)的全部基準(zhǔn)方法

尤其是在與混合模型的比較中取得更好表現(xiàn)更為關(guān)鍵,因?yàn)樗心P妥凅w都是純遞歸結(jié)構(gòu)(完全不依賴(lài)注意力機(jī)制)。

在Miras的三個(gè)變體中,雖然Moneta的表現(xiàn)略遜于Memora和Yaad,但這三者的差距并不大,且具體哪個(gè)模型效果最好會(huì)因任務(wù)類(lèi)型和模型大小而異。



擴(kuò)展模式分析(Scaling Pattern)

為了評(píng)估新模型的擴(kuò)展能力,并與基準(zhǔn)模型做對(duì)比,研究者繪制了模型在不同大小和上下文窗口下的性能變化圖。

上下文長(zhǎng)度

研究者將訓(xùn)練時(shí)使用的上下文長(zhǎng)度從2K擴(kuò)展到32K,分別在模型大小為340M和760M的兩個(gè)版本上進(jìn)行實(shí)驗(yàn)。結(jié)果如圖3中間和右側(cè)所示。

Miras的三個(gè)變體在上下文長(zhǎng)度增加時(shí)的擴(kuò)展能力均優(yōu)于當(dāng)前最先進(jìn)的基準(zhǔn)模型。

這種性能優(yōu)勢(shì)主要來(lái)自?xún)蓚€(gè)方面:

(1) 更強(qiáng)表達(dá)能力的記憶結(jié)構(gòu)。與Mamba2和GSA這些使用向量或矩陣形式記憶的基準(zhǔn)模型不同,新模型變體使用了兩層的多層感知機(jī)(MLP),能更有效地學(xué)習(xí)長(zhǎng)序列信息;

(2) 保留門(mén)(retention gate)和注意力偏向的設(shè)計(jì):新的模型突破了傳統(tǒng)做法,這有助于更高效地管理固定容量的記憶。

模型大小

研究者還在圖3左側(cè)展示了模型的計(jì)算量(FLOPs)與困惑度的關(guān)系。

在相同的 FLOPs(計(jì)算預(yù)算)下,三個(gè)模型變體的表現(xiàn)都超過(guò)了所有基準(zhǔn)模型。再次證明了強(qiáng)大的記憶機(jī)制設(shè)計(jì)對(duì)模型性能的重要性。


圖3:在C4數(shù)據(jù)集上擴(kuò)展模型規(guī)模和序列長(zhǎng)度時(shí)的表現(xiàn)趨勢(shì)。(左)隨著模型規(guī)模增加的表現(xiàn);(中)在模型規(guī)模為340M時(shí),序列長(zhǎng)度增加帶來(lái)的影響;(右)在模型規(guī)模為760M時(shí),序列長(zhǎng)度增加帶來(lái)的影響

大海撈針任務(wù)(Needle In Haystack)

為了評(píng)估模型在處理長(zhǎng)文本時(shí)的有效上下文能力,研究者采用了「大海撈針」(Needle In Haystack)任務(wù)。

在「大海撈針」任務(wù)中,模型需要從一段很長(zhǎng)的干擾文本中找出一條特定的信息(即「針」)。

在RULER基準(zhǔn)中的S-NIAH(單一大海撈針)任務(wù),在文本長(zhǎng)度分別為1K、2K、4K和8K的情境下對(duì)新模型和基準(zhǔn)模型進(jìn)行測(cè)試,結(jié)果見(jiàn)表3。

所有模型變體都以顯著優(yōu)勢(shì)超過(guò)了所有基準(zhǔn)模型。

值得注意的是,在處理合成噪聲數(shù)據(jù)(S-NIAH-PK)時(shí),Moneta 的表現(xiàn)優(yōu)于其他模型。這一發(fā)現(xiàn)說(shuō)明 -范數(shù)目標(biāo)函數(shù)和保留門(mén)機(jī)制在噪聲環(huán)境下更具魯棒性,能更好地保持模型性能。


表3:Moneta、Yaad、Memora以及基準(zhǔn)模型在RULER中的NIAH任務(wù)上的表現(xiàn)。最佳結(jié)果用高亮表示。

更多細(xì)節(jié)和理論推導(dǎo),請(qǐng)參閱原文。

作者介紹

Peilin Zhong目前是谷歌紐約的算法與優(yōu)化團(tuán)隊(duì)的研究科學(xué)家。

他在哥倫比亞大學(xué)獲得了博士學(xué)位。

在此之前,他曾是清華大學(xué)跨學(xué)科信息科學(xué)研究院(姚班)的本科生。

他的研究興趣廣泛,主要集中在理論計(jì)算機(jī)科學(xué)領(lǐng)域,特別是算法的設(shè)計(jì)與分析。

具體包括并行算法和大規(guī)模并行算法、隱私算法、壓縮算法、流式算法、圖算法、機(jī)器學(xué)習(xí)、高維幾何、度量嵌入、數(shù)值線性代數(shù)、聚類(lèi)以及與大規(guī)模數(shù)據(jù)計(jì)算相關(guān)的其他算法。


參考資料:

https://arxiv.org/abs/2504.13173

https://x.com/TheTuringPost/status/1914316647386714289

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
華為新機(jī)突然開(kāi)售,價(jià)格把網(wǎng)友們整不會(huì)了

華為新機(jī)突然開(kāi)售,價(jià)格把網(wǎng)友們整不會(huì)了

科技堡壘
2025-06-22 12:31:45
羅帥宇為什么敢硬剛?!

羅帥宇為什么敢硬剛?!

立德讀書(shū)
2025-06-13 21:21:49
A股:大家要做好心理預(yù)期,明天(6月23日),股市很可能這樣變化

A股:大家要做好心理預(yù)期,明天(6月23日),股市很可能這樣變化

財(cái)經(jīng)大拿
2025-06-22 07:10:07
還是低估了黑豆水的威力!早晚一杯,火氣消了,睡眠也好了!

還是低估了黑豆水的威力!早晚一杯,火氣消了,睡眠也好了!

江江食研社
2025-06-16 18:30:09
970萬(wàn)德黑蘭人已逃走500萬(wàn),伊朗原油揮淚大甩賣(mài)

970萬(wàn)德黑蘭人已逃走500萬(wàn),伊朗原油揮淚大甩賣(mài)

史政先鋒
2025-06-21 21:49:44
違規(guī)吃喝標(biāo)準(zhǔn)確定!杜絕“一刀切”式整治,誰(shuí)亂加碼誰(shuí)擔(dān)責(zé)

違規(guī)吃喝標(biāo)準(zhǔn)確定!杜絕“一刀切”式整治,誰(shuí)亂加碼誰(shuí)擔(dān)責(zé)

王五說(shuō)說(shuō)看
2025-06-22 16:07:36
“貨沒(méi)收到,錢(qián)卻要還!”各地?cái)?shù)百人報(bào)案京東白條被盜刷,警方立案后仍被催收

“貨沒(méi)收到,錢(qián)卻要還!”各地?cái)?shù)百人報(bào)案京東白條被盜刷,警方立案后仍被催收

大風(fēng)新聞
2025-06-20 21:40:13
平行世界四維空間真存在嗎?網(wǎng)友:我去過(guò)陰間,在上五年級(jí)的時(shí)候

平行世界四維空間真存在嗎?網(wǎng)友:我去過(guò)陰間,在上五年級(jí)的時(shí)候

解讀熱點(diǎn)事件
2025-05-06 00:07:14
湖北小縣城:體制內(nèi)女教師的貧富差距

湖北小縣城:體制內(nèi)女教師的貧富差距

英軍眼
2025-06-22 11:59:00
美國(guó)為什么要打擊伊朗核設(shè)施?伊朗會(huì)如何報(bào)復(fù)性反擊?

美國(guó)為什么要打擊伊朗核設(shè)施?伊朗會(huì)如何報(bào)復(fù)性反擊?

點(diǎn)評(píng)校尉
2025-06-22 12:44:39
比“不婚不育”更猛烈的沖擊波,來(lái)自70后父母的集體“撒手”!

比“不婚不育”更猛烈的沖擊波,來(lái)自70后父母的集體“撒手”!

小談食刻美食
2025-05-14 08:28:53
吃霸王婚宴的錢(qián)總“社會(huì)性死亡”了,生意被曝,新婚女兒也被連累

吃霸王婚宴的錢(qián)總“社會(huì)性死亡”了,生意被曝,新婚女兒也被連累

知鑒明史
2025-06-19 16:42:38
不出意外,7月起,將迎來(lái)新一波降價(jià)潮,4類(lèi)商品價(jià)格或會(huì)“跳水”

不出意外,7月起,將迎來(lái)新一波降價(jià)潮,4類(lèi)商品價(jià)格或會(huì)“跳水”

小談食刻美食
2025-06-20 17:01:49
為什么說(shuō)對(duì)大自然要保持敬畏之心,看完網(wǎng)友的各種分享,讓人后怕

為什么說(shuō)對(duì)大自然要保持敬畏之心,看完網(wǎng)友的各種分享,讓人后怕

熱鬧的河馬
2024-11-01 14:00:16
一天“血賺”38萬(wàn)?浙江一派出所被網(wǎng)友瘋狂點(diǎn)贊!

一天“血賺”38萬(wàn)?浙江一派出所被網(wǎng)友瘋狂點(diǎn)贊!

FM93浙江交通之聲
2025-06-22 23:01:16
《慶余年》男演員轉(zhuǎn)型拍短劇,演長(zhǎng)劇18年無(wú)人理,一朝霸總天下知

《慶余年》男演員轉(zhuǎn)型拍短劇,演長(zhǎng)劇18年無(wú)人理,一朝霸總天下知

易同學(xué)愛(ài)談娛樂(lè)
2025-06-22 16:10:05
郭德綱真沒(méi)有說(shuō)錯(cuò),穿旗袍還真有開(kāi)叉到胳肢窩的!大家看看唄!

郭德綱真沒(méi)有說(shuō)錯(cuò),穿旗袍還真有開(kāi)叉到胳肢窩的!大家看看唄!

翻開(kāi)歷史和現(xiàn)實(shí)
2025-05-15 23:36:41
大批特務(wù)被捕,美中情局叫苦連天,中國(guó)成“間諜墳場(chǎng)”

大批特務(wù)被捕,美中情局叫苦連天,中國(guó)成“間諜墳場(chǎng)”

智觀科技
2025-06-18 11:39:09
全賣(mài)光了!貴州一家人套現(xiàn)42億,把爛攤子留給了8.8萬(wàn)股民

全賣(mài)光了!貴州一家人套現(xiàn)42億,把爛攤子留給了8.8萬(wàn)股民

毒sir財(cái)經(jīng)
2025-04-25 22:21:31
19歲女孩被親生父親一周強(qiáng)奸4次,報(bào)警后母親竟讓她去撤案

19歲女孩被親生父親一周強(qiáng)奸4次,報(bào)警后母親竟讓她去撤案

胖胖侃咖
2025-05-28 08:00:16
2025-06-23 02:48:49
新智元 incentive-icons
新智元
AI產(chǎn)業(yè)主平臺(tái)領(lǐng)航智能+時(shí)代
12929文章數(shù) 66077關(guān)注度
往期回顧 全部

科技要聞

"你應(yīng)該靠嘴吃飯",羅永浩自述被梁文鋒勸退

頭條要聞

伊朗投入5萬(wàn)億美元的核項(xiàng)目遭摧毀 哈梅內(nèi)伊面臨抉擇

頭條要聞

伊朗投入5萬(wàn)億美元的核項(xiàng)目遭摧毀 哈梅內(nèi)伊面臨抉擇

體育要聞

中國(guó)女排0-3意大利 香港站3勝1負(fù)收官

娛樂(lè)要聞

離婚四年!趙麗穎被曝新戀情惹爭(zhēng)議

財(cái)經(jīng)要聞

蘋(píng)果后院起火

汽車(chē)要聞

首搭華為雙王牌/6月24日預(yù)售 嵐圖FREE+正式下線

態(tài)度原創(chuàng)

健康
藝術(shù)
教育
旅游
公開(kāi)課

呼吸科專(zhuān)家破解呼吸道九大謠言!

藝術(shù)要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫(xiě)法

教育要聞

2026qs排名完整名單公布后,申請(qǐng)難度會(huì)暴漲的幾所英國(guó)大學(xué)!

旅游要聞

熱聞|清明假期將至,熱門(mén)目的地有哪些?

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 商丘市| 南澳县| 宁阳县| 永定县| 栾川县| 海宁市| 漳平市| 会东县| 民勤县| 梧州市| 雷波县| 曲阜市| 渝北区| 阳春市| 顺义区| 通化市| 乌海市| 固阳县| 楚雄市| 鹤峰县| 成武县| 资溪县| 盱眙县| 南开区| 揭阳市| 汤原县| 二手房| 城固县| 利川市| 井陉县| 广汉市| 舟山市| 昌江| 中山市| 唐山市| 舞阳县| 翼城县| 金寨县| 酒泉市| 霍邱县| 西林县|