99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

帝國理工學院提出讓AI提前知道自己不知道的神奇方法

0
分享至


這項由英國帝國理工學院的陳立湖和法國Inria Saclay研究院的Gael Varoquaux領導的突破性研究發表于2025年6月,論文標題為"Query-Level Uncertainty in Large Language Models"。有興趣深入了解的讀者可以通過代碼庫https://github.com/tigerchen52/query_level_uncertainty獲取更多技術細節。

想象一下,你有一個非常聰明的朋友,他博學多才,幾乎什么問題都能回答。但是,你最希望這個朋友具備什么品質呢?除了知識淵博,更重要的是他要誠實——當遇到不懂的問題時,能夠坦率地說"我不知道",而不是胡編亂造一個聽起來很有道理的答案。

這正是當今大語言模型面臨的核心挑戰。這些AI系統就像那個博學的朋友,能夠回答各種各樣的問題,但它們有一個致命弱點:即使不知道答案,也會信心滿滿地給出回復,就像一個不懂裝懂的人,表面上侃侃而談,實際上可能在誤導別人。

研究團隊發現了一個有趣的現象:現有的AI不確定性評估方法就像是醫生在病人治療完成后才做體檢,雖然能檢查治療效果,但為時已晚。他們提出了一個革命性的想法——能否讓AI在還沒開始"說話"之前,就先自我評估一下,判斷自己是否真的知道答案?這就像是讓那個聰明朋友在開口回答之前,先在心里快速檢查一遍自己的知識庫,確認是否真的了解這個問題。

這種"提前體檢"的方法被研究團隊稱為"查詢級不確定性"。與傳統的"答案級不確定性"不同,這種新方法就像是給AI裝上了一個內置的"誠實檢測器",讓它在產生答案之前就能評估自己的知識邊界。這不僅能讓AI更加誠實可信,還能在實際應用中節省大量的計算資源和成本。

想象一下這樣的場景:當你向AI詢問一個復雜問題時,它首先會在內心進行一番"自我對話"——"這個問題我真的懂嗎?我的知識儲備足夠回答這個問題嗎?"如果AI發現自己可能不太確定,它就會主動尋求外部幫助,比如搜索相關信息,或者坦誠地告訴你"這個問題超出了我的知識范圍"。

這項研究的創新性在于,研究團隊開發了一種完全不需要額外訓練的方法,叫做"內部置信度"。這種方法就像是挖掘AI大腦深處的潛在智慧,讓AI能夠通過自我評估來判斷自己的知識邊界。這種方法的美妙之處在于,它不需要改變AI的原有結構,也不需要大量的訓練數據,就像是給現有的AI裝上了一個"智慧探測器"。

研究團隊在多個重要的測試任務上驗證了這種方法的有效性,包括事實性問答和數學推理任務。結果顯示,這種"內部置信度"方法確實能夠幫助AI更好地識別自己知道和不知道的問題,就像是給AI裝上了一面"智慧鏡子",讓它能夠更清楚地看到自己的知識邊界。

更令人興奮的是,這種方法在實際應用中展現出了巨大的價值。研究團隊展示了兩個非常實用的應用場景:一是"智能檢索增強",當AI發現自己可能不知道答案時,會主動搜索外部信息來補充知識;二是"模型級聯",讓小型AI先嘗試回答問題,只有在遇到困難時才調用更強大但成本更高的大型AI。這就像是建立了一個"AI咨詢團隊",根據問題的難易程度分配合適的"專家"來處理。

這項研究為AI的發展開辟了一個全新的方向。在當前AI技術快速發展的時代,如何讓AI變得更加誠實可信,是一個至關重要的課題。這種"提前體檢"的方法不僅能夠提高AI的可信度,還能在保證性能的同時顯著降低運算成本,為AI技術的實用化應用提供了重要的技術支撐。

一、AI的"知識邊界"問題——就像給博學朋友劃定專業范圍

要理解這項研究的重要性,我們首先需要認識一個基本事實:即使是最先進的AI系統,也有自己的"知識邊界"。這就像是一個學者,不管多么博學,也不可能精通所有領域。問題是,AI往往意識不到這個邊界在哪里,就像一個不知道自己不知道的人。

傳統的AI不確定性評估方法就像是事后諸葛亮。想象一下,你讓一個朋友幫你修理電器,他信心滿滿地拆開了設備,折騰了半天,最后才發現自己其實不懂這個型號的維修方法。這時候再評估他的技能水平,損失已經造成了。現有的AI系統也是如此,它們先生成答案,然后再評估這個答案的可靠性,這種"馬后炮"式的方法既浪費計算資源,又可能已經產生了錯誤信息。

研究團隊深入分析了機器學習中的兩種不確定性類型。第一種叫做"偶然不確定性",就像是問一個模糊不清的問題,即使是專家也可能給出不同的理解。第二種叫做"認識不確定性",指的是因為知識不足而產生的不確定性,就像是問一個超出某人專業范圍的問題。這項研究專門關注第二種不確定性,因為這是可以通過更多學習和訓練來改善的。

在高風險領域,比如醫療診斷或法律咨詢,AI的這種"不知道自己不知道"的問題就變得特別危險。想象一下,如果一個醫療AI對自己不確定的診斷結果也表現得信心十足,可能會誤導醫生做出錯誤的治療決定。因此,讓AI能夠準確評估自己的知識邊界,不僅是技術問題,更是關乎安全和信任的重要議題。

研究團隊注意到,現有的解決方案往往需要對AI進行額外的訓練,就像是重新教育一個已經成年的人。這種方法不僅費時費力,還可能影響AI原有的能力。更重要的是,這種方法的通用性有限,在不同的任務或者不同的AI模型上,可能需要重新訓練。

正是基于這些觀察,研究團隊提出了"查詢級不確定性"的概念。這就像是在AI接到問題的瞬間,讓它先進行一次"內心獨白"——"這個問題我真的懂嗎?"這種預判斷的方法,可以在AI開始"說話"之前就做出決策,既節省了資源,又避免了錯誤信息的產生。

二、"內部置信度"方法——讓AI學會內省的神奇技巧

研究團隊開發的"內部置信度"方法,就像是教會AI進行深度內省。這種方法的核心思想非常巧妙:讓AI通過回答一個簡單的是非題來評估自己的知識水平。

具體來說,當AI收到一個問題時,研究團隊會先給它一個"預熱問題":"請只回答'是'或'否'來表示你是否能夠準確回答這個問題。"然后,他們會計算AI回答"是"的概率。這個概率就像是AI內心的"自信程度表",數值越高,表示AI越認為自己能夠正確回答這個問題。

但是,研究團隊并沒有止步于此簡單的方法。他們發現,AI的"大腦"(也就是神經網絡)在處理信息時,每一層、每一個位置都在進行復雜的計算,就像是一個龐大的思維網絡,每個節點都在處理和傳遞信息。研究團隊意識到,如果只看最終的輸出,就像是只聽一個人的最終結論,而忽略了他思考過程中的所有中間步驟。

于是,他們開發了一種更加精密的方法,就像是在AI的"思維過程"中安裝了無數個"監聽器",監控AI在處理問題時每一個階段的"自信程度"。這就好比是觀察一個學生解題時的完整過程,不僅看他的最終答案,還要觀察他在每一步計算中的猶豫和確信程度。

研究團隊發現了一個有趣的現象:AI在不同的"思維層次"和不同的"思考階段"表現出的自信程度是不一樣的。有些位置的自信程度更能準確反映AI的真實知識水平,就像是有些學生的中間步驟比最終答案更能反映他們的真實理解程度。

為了找到這個"最佳觀察點",研究團隊繪制了一張詳細的"自信度地圖"。他們發現,在AI的"思維網絡"中,存在一個特殊的位置,研究團隊稱之為"決策中心"。這個位置就像是AI大腦中的"智慧核心區域",在這里測量的自信程度最能準確反映AI的真實知識水平。

有趣的是,這個"決策中心"的位置并不總是在AI思維過程的最后階段。就像有些人在思考問題時,往往在中間某個階段就已經形成了最準確的判斷,而后續的思考反而可能引入干擾。研究團隊發現,最佳的"決策中心"通常位于AI處理完整個問題之后的某個中間層次,這個發現顛覆了人們對AI思維過程的傳統認知。

為了充分利用AI"思維網絡"中的所有信息,研究團隊開發了一種精巧的"加權平均"方法。這種方法就像是組建一個"內部專家團",讓AI大腦中的每個"專家"(每個思維節點)都發表意見,然后根據每個"專家"的可靠程度給他們分配不同的"發言權重"。

這種權重分配策略借鑒了一個叫做"衰減編碼"的數學方法。簡單來說,就是離"決策中心"越近的思維節點,獲得的權重越大,就像是在一個智囊團中,最核心專家的意見權重最大,而邊緣專家的意見權重較小。通過這種方式,研究團隊能夠綜合AI大腦中所有相關信息,得出一個更加準確和可靠的"內部置信度"分數。

研究團隊特別強調,這種"內部置信度"方法最大的優勢是完全不需要額外訓練。這就像是發現了AI大腦中原本就存在的"內省能力",只需要用正確的方法去挖掘和利用這種能力,而不需要重新教育AI。這種方法的通用性很強,可以應用到不同類型的AI模型上,就像是一把萬能鑰匙,能夠打開不同AI系統的"內省之門"。

三、實驗驗證——用數字證明方法的神奇效果

為了驗證"內部置信度"方法的有效性,研究團隊設計了一系列精心策劃的實驗,就像是給這個新方法進行全方位的"體能測試"。

研究團隊選擇了三個具有代表性的測試平臺來檢驗他們的方法。第一個是TriviaQA,這是一個包含大量常識問題的數據庫,就像是一本百科全書的問答版本,涵蓋歷史、地理、科學等各個領域的知識。第二個是SciQ,專門測試科學相關的知識,就像是一場科學知識競賽。第三個是GSM8K,這是一個數學推理測試,包含了大量需要多步驟計算的數學題目,就像是給AI準備的數學考試。

在測試中,研究團隊使用了三種不同規模的AI模型:Phi-3.8B、Llama-8B和Qwen-14B。這就像是邀請了三位不同水平的學生來參加同一場考試,看看新方法在不同"智力水平"的AI上是否都能發揮作用。

實驗的設計思路很巧妙:研究團隊首先讓AI用最直接的方式(貪婪解碼)回答每個問題,如果答案正確,就認為這個問題在AI的"知識邊界"內,如果答案錯誤,就認為這個問題超出了AI的知識范圍。然后,他們用各種不確定性評估方法來預測AI能否正確回答每個問題,看看哪種方法的預測最準確。

為了公平比較,研究團隊還測試了許多現有的不確定性評估方法。這些方法就像是不同的"診斷工具",有些基于詞匯概率分析,有些基于語義相似性計算,還有些基于AI內部狀態的語義熵分析。通過對比,研究團隊能夠清楚地看到"內部置信度"方法相比其他方法的優勢所在。

實驗結果令人振奮。在大多數測試場景中,"內部置信度"方法都表現出了明顯的優勢。特別是在較大的AI模型上,這種優勢更加顯著。以Qwen-14B模型為例,在三個測試任務上的平均AUC(一個衡量分類準確性的指標)達到了65.6,遠高于其他基線方法。這就像是在一場識別游戲中,新方法的準確率比其他方法高出了一大截。

更有意思的是,研究團隊還發現了"內部置信度"在校準性方面的優勢。校準性就像是一個溫度計的準確程度——如果一個方法說AI有80%的把握答對問題,那么實際上AI確實應該在大約80%的類似情況下答對。實驗結果顯示,"內部置信度"方法在這方面的表現consistently更好,意味著它不僅能準確預測AI的表現,還能給出可靠的置信程度估計。

研究團隊還進行了一項特別有趣的對比實驗,測試了"內部置信度"的兩個版本:一個使用他們精心設計的"衰減權重"策略,另一個使用簡單的平均方法。結果顯示,使用"衰減權重"策略的版本表現更好,這證明了他們關于"決策中心"和權重分配策略的理論是正確的。

為了更直觀地展示方法的效果,研究團隊繪制了一系列"置信度分布圖"。這些圖表就像是AI內心想法的"可視化地圖",清楚地顯示了AI對已知問題和未知問題的不同反應模式。從這些圖表中可以看出,對于AI確實知道答案的問題,內部置信度分數普遍較高;而對于AI不知道答案的問題,內部置信度分數明顯較低。這種清晰的區分能力正是一個好的不確定性評估方法應該具備的特質。

值得注意的是,盡管"內部置信度"方法表現出色,但研究團隊也誠實地指出,目前的方法還有改進空間。在某些測試場景中,方法的表現雖然優于基線,但優勢并不是壓倒性的。這就像是一個正在成長的學生,雖然已經展現出了天賦,但還需要繼續努力和完善。

四、實際應用展示——讓AI變得既聰明又節約

研究團隊不僅在理論上證明了"內部置信度"方法的有效性,還通過兩個非常實用的應用場景展示了這種方法的實際價值。這兩個應用就像是給AI裝上了"智能開關",讓它能夠根據自己的知識水平智能地決定何時需要外部幫助。

第一個應用場景叫做"高效檢索增強生成",聽起來很技術化,但實際概念很簡單。想象一下,你有一個非常聰明但有時候也會不知道答案的助手。傳統的做法是,不管什么問題,這個助手都會先去圖書館查資料,然后再回答你,這樣雖然準確,但效率很低,也很費錢(因為查資料需要時間和成本)。

而"高效檢索增強生成"的思路是:讓助手先評估一下自己是否知道答案。如果內部置信度很高,說明這個問題在他的知識范圍內,他就直接回答,不需要去查資料。只有當內部置信度較低時,他才會去圖書館查找相關信息來補充知識。這種方法既保證了答案的準確性,又大大提高了效率,降低了成本。

研究團隊在TriviaQA數據集上測試了這種應用方法。實驗結果顯示,通過合理設置置信度閾值,可以在保持相當準確性的同時,大幅減少對外部檢索服務的調用。實驗圖表清楚地顯示了兩個重要區域:一個是"權衡區域",在這個區域內,用戶可以根據對成本和準確性的不同要求,靈活調整閾值設置;另一個是"收益區域",在這個區域內,可以在不降低性能的情況下減少檢索成本,這相當于找到了一個"免費午餐"的解決方案。

第二個應用場景叫做"模型級聯",這種方法就像是建立了一個"AI咨詢團隊"。在這個團隊中,有一個能力較弱但運行成本很低的"初級顧問"(小型AI模型),還有一個能力很強但運行成本較高的"高級專家"(大型AI模型)。

具體的工作流程是這樣的:當有問題需要解答時,首先由"初級顧問"來評估這個問題的難度。如果"初級顧問"的內部置信度很高,說明這個問題相對簡單,在他的能力范圍內,那么就由他直接處理,不需要麻煩"高級專家"。只有當"初級顧問"發現問題太難,內部置信度較低時,才會把問題轉交給"高級專家"處理。

研究團隊用Phi-3.8B作為"初級顧問",Llama-8B作為"高級專家",在TriviaQA數據集上測試了這種模型級聯方法。實驗結果令人印象深刻:通過智能分配任務,不僅保持了整體的回答準確性,還顯著降低了計算成本,因為大部分簡單問題都由成本較低的小型模型處理了。

更重要的是,研究團隊在實驗中發現了和第一個應用相同的"雙區域"現象。在"權衡區域"內,用戶可以根據自己的預算和精度要求,靈活調整使用大型模型的頻率。而在"收益區域"內,甚至可以在提高整體性能的同時降低計算成本,這是因為合理的任務分配讓每個模型都能發揮自己的最大優勢。

這兩個應用場景的成功展示了"內部置信度"方法的實用價值。在實際的AI應用中,計算成本往往是一個重要考慮因素,特別是對于需要大規模部署的服務。通過智能地判斷何時需要額外的計算資源(無論是外部檢索還是更強大的模型),這種方法為AI系統的經濟高效運行提供了一條新的途徑。

研究團隊還特別分析了"局部性參數"對方法性能的影響。局部性參數就像是調節"決策中心"影響范圍的旋鈕,數值不同會影響AI在進行內部評估時考慮的"思維范圍"。實驗發現,不同的AI模型和不同的任務類型需要不同的局部性設置,但是一個經驗值(w=1.0,對應局部性0.72)在大多數情況下都能取得不錯的效果,這為實際應用提供了便利。

五、方法的局限性與未來改進方向

盡管"內部置信度"方法展現出了令人矚目的效果,但研究團隊也很誠實地承認了這種方法目前存在的一些局限性,就像任何新生的技術都需要時間來完善和成熟一樣。

首先,這種方法目前主要適用于有確定答案的問題,比如事實性問答和數學計算。對于那些本身就具有爭議性或者開放性的問題,比如政治觀點或哲學討論,目前的方法還無法很好地處理。這就像是一個專門用來檢測數學題對錯的工具,暫時還無法評判詩歌的好壞。研究團隊明確指出,這是他們未來需要拓展的重要方向。

其次,雖然"內部置信度"方法在實驗中表現出色,但它的準確性還有進一步提升的空間。從實驗結果可以看出,即使是最好的情況,這種方法也不能100%準確地區分AI知道和不知道的問題。就像一個剛學會看天氣的人,雖然大部分時候能準確預測,但偶爾還是會有判斷失誤的時候。

研究團隊發現,"決策中心"的位置選擇對方法效果有重要影響。目前他們采用的是一種簡化的策略,將決策中心固定在最后一層和最后一個詞匯位置。雖然這種簡化能夠保證方法的通用性和易用性,但如果能夠針對特定的AI模型和任務類型優化決策中心的位置,可能會獲得更好的效果。這就像是為每個人定制專門的體檢方案,而不是使用標準化的檢查流程。

另一個需要改進的方面是權重分配策略。目前的"衰減編碼"方法雖然有理論支撐,但這種權重分配是否是最優的,還需要更多的研究驗證。不同類型的問題可能需要不同的權重分配策略,就像不同的菜肴需要不同的調料配比一樣。

研究團隊還注意到,方法在不同規模的AI模型上表現差異較大。在較大的模型(如Qwen-14B)上,"內部置信度"方法的優勢更加明顯,而在較小的模型上,優勢相對較小。這可能是因為較大的模型具有更豐富的內部表示,為"內部置信度"的計算提供了更多有用信息。這個發現提示我們,隨著AI模型規模的不斷增大,這種方法的效果可能會越來越好。

從實際應用的角度來看,目前的方法還需要用戶手動設置置信度閾值。雖然實驗提供了一些經驗性的指導,但在不同的應用場景中,最優的閾值設置可能會有所不同。如何自動化地選擇最佳閾值,或者開發自適應的閾值調整機制,是一個需要進一步研究的問題。

此外,目前的研究主要集中在英語環境下的AI模型,對于其他語言的適用性還需要驗證。不同語言的表達方式和思維模式可能會影響"內部置信度"的計算,這需要在更廣泛的語言環境中進行測試和優化。

盡管存在這些局限性,研究團隊對方法的發展前景充滿信心。他們指出,這項研究開辟了一個全新的研究方向,為AI的不確定性評估提供了新的思路。隨著更多研究者的參與和技術的不斷發展,這些局限性很可能在未來得到解決。

研究團隊特別強調,他們的目標不是提出一個完美無缺的解決方案,而是為這個重要問題提供一個有效的起點。就像所有偉大的發明一樣,第一版往往不是最完美的,但它為后續的改進和創新奠定了基礎。他們希望這項研究能夠激發更多學者投入到這個領域,共同推動AI不確定性評估技術的發展。

六、對AI發展的深遠意義

這項研究的意義遠遠超出了技術本身,它觸及了AI發展中一個根本性的問題:如何讓AI變得更加可信和可靠。在當前AI技術快速發展的時代,這個問題變得越來越重要。

首先,這種"提前體檢"的思路為AI的安全應用提供了重要保障。想象一下,在醫療診斷、法律咨詢、金融決策等高風險領域,如果AI能夠事先評估自己的知識邊界,就能有效避免因錯誤信息而導致的嚴重后果。這就像是給AI裝上了一個"安全閥",當壓力超過安全范圍時會自動啟動保護機制。

其次,這種方法為AI系統的經濟高效運行開辟了新的可能性。隨著AI服務的商業化程度越來越高,如何在保證質量的同時控制成本,成為了一個重要的商業問題。"內部置信度"方法提供了一種智能的資源分配策略,讓AI系統能夠根據問題的難易程度靈活調用不同的計算資源,這種"按需分配"的模式有望大大降低AI服務的運營成本。

從技術發展的角度來看,這項研究代表了AI不確定性評估領域的一個重要轉折點。傳統的方法主要關注"事后評估",而這項研究開創了"事前預判"的新范式。這種范式轉換不僅在技術上具有創新性,更重要的是它改變了我們思考AI認知能力的方式。

這種方法的通用性也值得特別關注。由于不需要額外的訓練,它可以很容易地應用到現有的各種AI系統中,就像是一個"即插即用"的智能模塊。這種特性使得該方法具有很強的實用價值和推廣潛力,可能會成為未來AI系統的標準配置。

更深層次地看,這項研究體現了一種新的AI設計哲學:不僅要讓AI變得聰明,更要讓AI變得"自知"。這種"自知之明"是真正智能系統應該具備的重要特質,也是建立人類對AI信任的關鍵基礎。當AI能夠誠實地表達自己的不確定性時,人類就能更好地理解AI的能力邊界,做出更明智的決策。

從社會影響的角度來看,這種技術有助于促進AI的負責任發展。在當前AI技術快速發展但監管相對滯后的背景下,能夠自我評估和自我約束的AI系統更容易獲得社會的接受和信任。這種技術為AI的可控發展提供了一種內在的機制,減少了對外部監管的依賴。

研究團隊開源代碼的決定也體現了學術界推動技術普及和發展的積極態度。通過開放源代碼,其他研究者可以在這個基礎上進行進一步的改進和創新,形成一個良性的技術發展生態。這種開放合作的模式有助于加速整個領域的發展進程。

展望未來,這種"內部置信度"技術可能會與其他AI技術結合,產生更加強大的應用效果。比如,它可以與強化學習結合,讓AI在學習過程中更好地識別自己的知識盲區;也可以與多模態AI結合,在處理文本、圖像、語音等不同類型信息時提供統一的不確定性評估框架。

這項研究還為AI的個性化發展提供了新的思路。不同的AI系統可能有不同的知識結構和能力特點,通過分析它們的"內部置信度"模式,可以更好地理解每個AI系統的獨特性,從而為不同的應用場景匹配最合適的AI系統。

最終,這項研究的真正價值在于它推動了AI從"單純的問答機器"向"具有自我認知能力的智能伙伴"的轉變。這種轉變不僅是技術上的進步,更是AI發展理念的升級,為構建更加智能、可信、有用的AI系統指明了方向。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
宮導,把李夢請回吧!球迷:李夢再差也比這兩人強啊

宮導,把李夢請回吧!球迷:李夢再差也比這兩人強啊

南海浪花
2025-06-19 11:05:50
合并后的胡志明市堪比上海

合并后的胡志明市堪比上海

李東海評論
2025-06-19 00:04:36
少婦天花板!

少婦天花板!

貴圈真亂
2025-06-10 12:03:31
乏善可陳!切爾基曼城首秀全場0次射門,27次傳球20次成功

乏善可陳!切爾基曼城首秀全場0次射門,27次傳球20次成功

雷速體育
2025-06-19 06:22:27
鄭中基再陷離婚:女性擇偶需擦亮雙眼

鄭中基再陷離婚:女性擇偶需擦亮雙眼

明星爆料客
2025-06-19 15:50:25
震驚!這5所大學對復讀生關上了大門!只招收普通高中應屆畢業生

震驚!這5所大學對復讀生關上了大門!只招收普通高中應屆畢業生

小人物看盡人間百態
2025-06-19 21:11:45
越南突然向中國提出要借錢修鐵路?這可不是小數目,整整83億美元

越南突然向中國提出要借錢修鐵路?這可不是小數目,整整83億美元

小企鵝侃世界
2025-06-19 21:02:25
蘇媒:南通隊主場緊急加裝9000個座位,完成后座位將增至2萬

蘇媒:南通隊主場緊急加裝9000個座位,完成后座位將增至2萬

懂球帝
2025-06-19 17:02:10
C羅離創造歷史紀錄只差1球!五種球衣進100球,足壇難有后繼者!

C羅離創造歷史紀錄只差1球!五種球衣進100球,足壇難有后繼者!

漫川舟船
2025-06-19 04:56:32
神藥滯銷,誰偷走了中年男人的“快樂”?

神藥滯銷,誰偷走了中年男人的“快樂”?

果殼
2025-06-17 20:49:07
也門向以色列發射導彈,以多地拉響警報

也門向以色列發射導彈,以多地拉響警報

澎湃新聞
2025-06-16 15:56:25
重磅!自閉癥的發生原因終于找到了?或終結“無藥可治”的窘境

重磅!自閉癥的發生原因終于找到了?或終結“無藥可治”的窘境

大米和小米
2025-06-19 19:14:50
陳冠希被曝飛機上與機組人員吵架,因其率先安排日籍乘客下機

陳冠希被曝飛機上與機組人員吵架,因其率先安排日籍乘客下機

魯中晨報
2025-06-18 14:38:06
烏軍清除別爾江斯克叛徒市長!擊斃俄軍摩托旅指揮官

烏軍清除別爾江斯克叛徒市長!擊斃俄軍摩托旅指揮官

項鵬飛
2025-06-19 21:50:42
謝逸楓:信貸暴跌,房貸不足10%,樓市陷入下行更大危機

謝逸楓:信貸暴跌,房貸不足10%,樓市陷入下行更大危機

謝逸楓看樓市
2025-06-18 15:47:19
都2025年了,每個月還有1萬多人買奔馳 GLC?

都2025年了,每個月還有1萬多人買奔馳 GLC?

駕仕派
2025-06-19 15:26:51
涉嫌嚴重違紀違法!廣東一副區長任上被查!

涉嫌嚴重違紀違法!廣東一副區長任上被查!

花young的生活
2025-06-18 23:02:12
莫言:一個家庭,如果老公掙不了大錢,妻子不要去和老公鬧,只要學會做這3件事,好日子都在后頭!

莫言:一個家庭,如果老公掙不了大錢,妻子不要去和老公鬧,只要學會做這3件事,好日子都在后頭!

LULU生活家
2025-06-15 18:01:01
驚呆!男子泰國旅行離奇"失憶",半年后肚子里竟發現15厘米的咖啡勺......

驚呆!男子泰國旅行離奇"失憶",半年后肚子里竟發現15厘米的咖啡勺......

大風新聞
2025-06-19 16:48:18
車禍3年后,多次整形的林志穎成了嫂子臉,郭德綱可以松口氣了

車禍3年后,多次整形的林志穎成了嫂子臉,郭德綱可以松口氣了

史行途
2025-04-16 18:21:29
2025-06-20 00:39:00
至頂頭條 incentive-icons
至頂頭條
記錄和推動數字化創新
12164文章數 49634關注度
往期回顧 全部

科技要聞

羅永浩數字人爆火,可怕的不是5500萬GMV

頭條要聞

美打擊伊核設施計劃披露 特朗普鼓勵以總理"繼續干"

頭條要聞

美打擊伊核設施計劃披露 特朗普鼓勵以總理"繼續干"

體育要聞

22年,云南足球走出了一條自己的路

娛樂要聞

章子怡“吃蛋糕”戲在全網爆火

財經要聞

Labubu黃牛價腰斬 誰會是最后的接盤俠

汽車要聞

5.99萬起/空間大續航長 純電小車凱翼拾月Mate上市

態度原創

藝術
教育
房產
時尚
軍事航空

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

教育要聞

2025年山東夏季合格考準考證打印操作詳細教程

房產要聞

預定爆款!江東CBD+海中,海口這一國企大盤,即將引爆市場!

中年女人夏季別再穿"t恤"了,安排這3款夏裝,時髦還顯瘦

軍事要聞

俄羅斯告誡美國不要攻擊伊朗

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 海门市| 界首市| 龙川县| 朝阳县| 托里县| 榆树市| 广西| 馆陶县| 莱州市| 吉隆县| 翁牛特旗| 修水县| 江门市| 南川市| 阳朔县| 宜州市| 平昌县| 麻江县| 福贡县| 开江县| 桃江县| 化州市| 茶陵县| 诏安县| 苍南县| 通河县| 三河市| 琼中| 泽普县| 万州区| 长葛市| 闽清县| 延庆县| 林甸县| 北辰区| 大悟县| 图们市| 江都市| 伽师县| 三门县| 富源县|