99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

2美元/小時出租H100:GPU泡沫破滅前夜?

0
分享至


紅杉資本的報告曾指出,AI產業的年產值超過6000億美元,才夠支付數據中心、加速GPU卡等AI基礎設施費用。而現在一種普遍說法認為,基礎模型訓練的資本支出是“歷史上貶值最快的資產”,但關于GPU基礎設施支出的判定仍未出爐,GPU土豪戰爭仍在進行。尤其是,以OpenAI為代表的大模型公司在訓練+推理上的支出超過了收入,最近他們在有史以來最大的風險投資輪中籌集了66億美元,同時預計2026年的虧損將達到140億美元。

近期,NVIDIA的新一代Blackwell系列芯片交付給了OpenAI,他們還表示接下來一年的產品已經售罄,NVIDIA CEO黃仁勛指出這可能是行業歷史上最成功的產品。與此同時,AMD CEO蘇姿豐推出了MI325X,而提交了IPO申請。

隨著數十億美元投入到AI基礎設施層,這會促進AI上層的 繁榮還是泡沫?現在,是時候深入探討GPU市場的時候了。

本文作者Eugene Cheah深入研究了H100市場,可能為即將到來的Blackwell芯片的未來走向提供一些參考。他指出,由于預留計算資源的轉售、開放模型的微調以及基礎模型公司的減少,市場上的H100算力已經供過于求,尤其是H100從去年以8美元/小時到現在多家算力轉售商以低于2美元/小時的價格出租。經過深度分析后,他建議用戶在需要時租用而不是購買算力。

(Eugene Cheah是AI推理服務供應商Featherless.AI的聯合創始人,也是 RWKV開源基礎模型項目的聯合負責人

。本文由OneFlow編譯發布,轉載請聯系授權。原文:https://www.latent.space/p/gpu-bubble )

作者 | Eugene Cheah

OneFlow編譯

題圖由平臺生成

1

AI競賽簡史

2022年11月30日,基于A100 GPU系列訓練的GPT3.5與 ChatGPT仿佛一夜之間吸引了全世界對 AI 的想象,并開啟了AI競賽。2023年3月21日,隨著驚人的AI勢頭,H100很快就來了。

如果OpenAI可以用“舊”的A100構建智能,那么使用新推出的性能高3倍、價格多2倍的H100,你也能夠構建一個更大、更好的模型,甚至可能超越OpenAI率先到達AGI——如果你的財力比OpenAI還雄厚。

第一個成功實現這一目標的AI公司,將獲得新AI經濟中的一大塊份額——每一個分析師的粗略計算都表明,取代通用的人類智能將意味著數萬億美元的市場。如果能夠成功,你將比地球上一半的國家或歷史上任何王國都要富有。懷著這樣的渴望,有100億到1000億美元的資金投入到AI公司和創始人身上,以推動新一輪科技革命,這導致H100的需求突然激增。

市場價飆升,H100的初始租賃價格約為4.70美元/小時,但實際價格超過了8美元/小時。所有急切的創始人紛紛涌入,急于訓練他們的模型,以說服投資者進行下一輪億級美元的融資。


在2023年的投資者會議上,英偉達向他們的投資者和數據中心客戶推介了以4美元/小時的價格出租H100的“市場機會”。

對于GPU農場來說,這感覺像是不勞而獲的錢——如果你能讓這些創始人以4.70美元/小時或更高的價格租用你的H100 SXM GPU,甚至讓他們提前支付,投資回報期將少于1.5年。從那以后,每個GPU每年將帶來超過10萬美元的現金流。

由于GPU需求似乎沒有盡頭,他們的投資者同意了,甚至進行了更大規模的投資……


《郁金香狂熱》——描繪了有記錄以來歷史上第一次投機泡沫,郁金香價格在1634年持續攀升,并于1637年2月崩盤。

2 六千億美元的投資之后

與數字商品不同,實物商品會受到延遲發貨的影響,尤其是在多次發貨延遲的情況下。2023年的大部分時間里,H100的價格感覺會永遠高于4.70美元/小時以上(除非你愿意支付一大筆預付款)。2024年初,H100的價格在多個供應商那里降至大約2.85美元/小時。

然而,隨著更多供應商的加入……我開始收到這樣的郵件:


雖然我未能以4美元/小時的價格獲得H100節點(8個H100),但我多次確認,你可以以8到16美元/小時的價格獲得。

2024年8月,如果你愿意競拍一小段時間的H100使用時間(幾天到幾周),你可以找到1-2美元/小時的H100。

尤其對于小型集群而言,我們正面臨著每年至少40%的價格下跌。NVIDIA預測的4美元/小時的GPU價格在4年內保持不變,但不到1.5年就煙消云散了。

這非常可怕,因為這意味著有人可能會被套牢——尤其是如果他們剛剛購買了新的GPU。那么,到底發生了什么?

3 一張H100 SXM GPU的投資回報率(ROI)是多少?

這里將重點關注經濟成本和租賃的ROI,對比不同的市場價格,不包括機會成本或業務價值。

在數據中心,平均一張H100 SXM GPU的設置、維護和運營成本(即大部分資本支出)為50000美元或更多,不包括電費和冷卻的運營成本。本文后面將提供更詳細的計算方法。

但對今天的單元經濟和投資意味著什么?特別是假設GPU的使用壽命為5年的情況下。

通常,H100的租賃業務模式有兩種,我們將會覆蓋這兩種模式。

  1. 短期按需租賃(按小時、周或月)

  2. 長期租賃(3-5年)

按需租賃的ROI


新的H100 ROI(2024年8月)

總結來說,對于按需工作負載:

  • 2.85美元/小時:超過股市的內部收益率(IRR)

  • 低于2.85美元/小時:低于股市的IRR

  • 低于1.65美元/小時:預期投資虧損

對于上述ROI和收入預測,我們引入了“混合價格(blended price)”,假設租賃價格在5年內逐步下降50%。

鑒于我們目前看到的每年價格下降>=40%,這可以被視為一個保守/樂觀的估計,但這是一種通過考慮一定比例的價格下降的同時來預測ROI的一種方法。

在4.50美元/小時的情況下,即使考慮混合價格,我們也能看到NVIDIA最初對數據中心提供商的承諾,即在2年后幾乎可以“印鈔”,內部收益率(IRR)超過20%。

然而,在2.85美元/小時的情況下,IRR剛剛超過10%。

這意味著,如果你今天購買新的H100服務器,并且市場價低于2.85美元/小時,你的投資回報率幾乎只能勉強與市場基本回報水平持平,并且假設使用率是100%(這是一個不合理的假設)。任何低于這個價格的情況,作為投資者,投資H100基礎設施公司不如投資股市。

如果價格降至1.65美元/小時以下,作為基礎設施提供商,在5年內使用H100注定會虧損 ,特別是如果你今年剛剛購買了節點和集群。


長期預訂租賃(3年+)

許多基礎設施提供商,尤其是那些較老的公司,并不是對此一無所知——因為他們曾經親身經歷過GPU租賃價格在加密貨幣時代大幅上漲后的急劇跳水,他們已經經歷過這種周期。

因此,在這一周期中,去年他們大力推動3-5年的前期承諾和/或支付,價格在4美元/小時以上(通常預付50%到100%) 。今天,他們推動的價格范圍在2.85美元/小時以上,以鎖定他們的利潤。

這種情況在2023年AI高峰期尤為明顯,尤其是在圖像生成領域,許多基礎模型公司被迫簽訂高價的3-5年合同,只是為了在新集群客戶中排在前面,成為第一個推出目標模型的公司,以促進完成下一輪融資。

這可能不是最經濟的舉措,但可以讓他們比競爭對手更快地行動。

然而,這導致了一些有趣的市場動態——如果你在未來3年內以3美元或4美元/小時的價格簽訂了合同,那么你將被合同綁定。當模型創建者完成模型訓練后,他們不再需要這個集群后會怎么做?——他們轉售并開始收回部分成本。

4

當前H100的價值鏈

從硬件到AI推理/微調,可以大致分為以下幾個方面:

  1. 硬件供應商與Nvidia合作 (一次性購買成本)

  2. 數據中心基礎設施提供商及合作伙伴 (出售長期租賃,包括設施空間和/或H100節點)

  3. 風險投資基金、大型公司和初創公司 :計劃構建基礎模型(或已經完成模型構建)

  4. 算力轉售商 :如Runpod、SFCompute、Together.ai、Vast.ai、GPUlist.ai

  5. 托管AI推理/微調提供商 :使用上述資源的組合

雖然堆棧中的任何一層都可能實現垂直整合(例如跳過基礎設施提供商),但關鍵驅動因素是“未使用算力資源的轉售商”和“足夠好”的開放權重模型(如Llama 3)的興起,這些因素都是當前H100經濟壓力的主要影響因素。


開放權重模型的興起,其性能與閉源模型相當,正在導致市場發生根本性的變化。

5

市場趨勢:開放權重模型的興起

對AI推理和微調的需求增加:由于許多“開放”模型缺乏適當的“開源”許可證,但仍然被免費分發和廣泛使用,甚至用于商業用途。在這里,我們將統稱它們為“開放權重”或“開放”模型。

總體而言,隨著各種大小的開放權重模型的不斷構建,對這些模型的推理和微調的需求也在增長。這主要由兩個重大事件推動:

1. GPT-4級別的開放模型的出現 (例如,4050億參數的LLaMA3,DeepSeek-v2)

2. 小型(約80億參數)和中型(約700億參數)微調模型的成熟和采用

如今,對于大多數企業可能需要的用例,已經有現成的開放權重模型。這些模型在某些基準測試中可能略遜于專有模型,但提供了以下優勢:

  • 靈活性 :特定領域/任務的微調。

  • 可靠性 :不再有小的模型更新導致用例失效(目前,社區對模型權重在沒有通知的情況下在公共API端點上悄悄更改導致不可解釋的效果退化缺乏信任度)。

  • 安全性和隱私 :確保他們的提示詞和客戶數據的安全。

所有這些因素都導致了當前開放模型的持續增長和采用,以及對推理和微調需求的增長。

但這確實帶來了另一個問題……

小型和中型模型創建者的崩潰

基礎模型創建市場萎縮(小型和中型):我們用“模型創建者”來統稱從零開始創建模型的組織。對于微調者,我們稱他們為“模型微調者”。

許多企業,以及多個小型和中型基礎模型創建初創公司——尤其是那些以“更小、更專業領域模型”為賣點的公司——都是沒有長期計劃或目標從零開始訓練大型基礎模型(>= 700億參數)的群體。

對于這兩個群體,他們都意識到,微調現有的開放權重模型比“自行訓練”更經濟和高效。

這最終導致了對H100需求的三重打擊!

1. 微調比從零開始訓練便宜得多

  • 微調的計算需求顯著較低 (通常需要4個節點或更少,通常是一個節點),而從零開始訓練則需要16個節點或更多(對于70億參數及以上的模型需要更多節點)。

  • 這一行業轉變基本上消滅了大量小型集群的需求。

2. 減少對基礎模型的投資(小型和中型)

  • 2023年,文本和圖像領域出現了大量小型和中型基礎模型。

  • 然而,如今,除非你非常有信心能夠超越LLaMA3,或者你帶來了新的東西(例如,新的架構、100倍更低的推理延遲、100多種語言支持等),否則幾乎沒有新的基礎模型公司從零開始構建模型。

  • 總體而言,大型玩家(如Facebook等)創建的小型和中型開放模型,使得小型玩家很難證明訓練基礎模型的合理性——除非他們有強大的差異化優勢(技術或數據)——或者有計劃擴展到更大的模型。

  • 這一點在投資者中也有所反映,因為新的基礎模型創建者的資金急劇減少。大多數小型團隊已經轉向微調。(這種情緒與最近多家公司不盡如人意的退出相吻合。)

  • 目前,據我估計,全球大約有:<20個大型模型創建團隊(即700億參數及以上模型,也可能創建小型模型);<30個小型/中型模型創建團隊(70億到700億參數模型)。

  • 總體而言,全球只有不到50個團隊在任何時間點會需要16個節點的H100(或更多)來進行基礎模型訓練。

  • 全球有超過50個H100集群,每個集群擁有超過16個節點。

3. 預留節點的過剩算力資源正在上線

  • 對于集群所有者,特別是那些在2023年初“搶購”中進行了長期租賃的各種基礎模型初創公司和風險投資公司。

  • 由于轉向微調,以及H100交付時需要非常長的等待時間(最高峰時達到6個月或更長),許多團隊可能在做出改變之前已經支付了預付款,這使得他們的預付硬件“到貨即過時”。

  • 另一方面,那些硬件按時到貨,用于訓練最初幾個模型的團隊,也意識到最好在下一次迭代中微調模型會更好,而不是自行構建新模型。

  • 在這兩種情況下,他們都會有未使用的算力資源,這些過剩資源通過“算力轉售商”進入市場供應。

6

導致算力供應增加和訓練需求減少的其他因素

1. 大型模型創建者離開公共云平臺

另一個主要因素是,所有主要的模型創建者,如Facebook、X.AI,以及OpenAI(如果你認為它們是微軟的一部分),都在從現有的公共云提供商轉向,通過構建自己的數十億美元規模的集群,從而減少了對現有集群的依賴。

這一轉變主要出于以下幾個原因:

  • 現有的約1000節點集群(建造成本超過5000萬美元)已經不足以訓練更大的模型。

  • 在數十億美元的規模上,購買資產(如服務器、土地等)對資產計算更有利,這些資產有賬面價值(是公司估值和資產的一部分),而不是純粹的租賃費用。

  • 如果你沒有相關的人才(他們有),你可以直接購買小型數據中心公司,這些公司有構建這些集群的專業知識。

隨著需求逐漸分階段減少,這些集群正在進入公共云市場。


Vast.ai 基本上實行的是自由市場系統,全球的供應商被迫相互競爭。

2. 未使用/延遲供應的算力上線

回憶一下2023年的H100大批量發貨延遲,或6個月或更長時間?這些延遲的算力供應現在正在上線,同時還有H200、B200等芯片。

這還伴隨著各種未使用的算力資源上線(來自現有的初創公司、企業或風險投資公司,如前所述)。

這些資源的大部分是通過算力轉售商上線的,例如:together.ai、sfcompute、runpod、vast.ai等。

在大多數情況下,集群所有者擁有的是一個小型或中型集群(通常為8-64個節點),這些集群的利用率較低。而購買這些集群的資金已經“花掉”了。

為了盡可能收回成本,他們更愿意以低于市場價的方式保證資源的分配,而不是與主要提供商競爭。

這通常通過固定費率、拍賣系統或自由市場列表等方式實現。后兩種方式通常會推動市場價格下降。

3. 更便宜的 GPU 替代品(特別是用于推理)

另一個主要因素是,一旦你離開訓練/微調領域,特別是如果你運行的是較小的模型,推理領域充滿了替代方案。

你不需要為H100的Infiniband和/或Nvidia的高端功能支付溢價。

a) Nvidia市場細分

H100的高端訓練性能已經反映在硬件價格中。例如,Nvidia自己推薦L40S,這是一個在推理方面更具價格競爭力的替代方案。


H100 Infiniband集群(2024年8月)

L40S的性能是H100的1/3,價格是H100的1/5,但不適合多節點訓練。這在一定程度上削弱了H100在這個細分市場的競爭力。


b) AMD和Intel的替代提供商

AMD和Intel的MX300和Gaudi 3雖然進入市場較晚,但已經經過測試和驗證。我們使用過這些系統,它們通常具有以下特點:

  • 價格低于H100

  • 內存和計算能力超過H100,并在單節點上表現更優

  • 總體上是很好的硬件

缺點?它們在訓練時存在一些驅動問題,且在大型多節點集群訓練中尚未得到驗證。

然而,正如我們前面所討論的,這在當前市場中并不重要。除了少數不到50個團隊外,H100市場已經轉向推理和單節點或小集群微調。

這些GPU已經證明在這些用例中表現良好,能滿足大多數市場的需求。

這兩個競爭對手是完全的即插即用替代方案,支持現成的推理代碼(如VLLM)或大多數常見模型架構(主要是LLaMA3,其次是其他模型)的微調代碼。

因此,如果你已經解決了兼容性問題,強烈建議你考慮這些方案。

c) 加密貨幣/Web3領域GPU使用量的下降

隨著以太坊轉向權益證明(Proof of Stake, PoS),ASIC在比特幣挖礦中占據主導地位,用于加密貨幣挖礦的GPU使用量呈下降趨勢,在許多情況下甚至無利可圖。這導致了大量的GPU涌入公共云市場。

雖然這些GPU中的大多數由于硬件限制(如低PCIe帶寬、網絡等)無法用于模型訓練,甚至不適合用于推理,但這些硬件已經涌入市場,并被重新用于AI推理工作負載。

在大多數情況下,如果你的模型參數少于100億,你可以以非常低的價格通過這些GPU獲得出色性能。

如果你進一步優化(通過各種技巧),甚至可以在這種硬件的小集群上運行4050億參數的大型模型,成本低于一個H100節點。

H100的價格正在變得像大宗商品一樣便宜。甚至有些時候是以低于成本的價格出租——如果是這樣,接下來該怎么辦?

7

可能意味著是什么?

中立觀點:H100集群價格的分層

從宏觀層面來看,預計大型集群仍然會收取溢價(>=2.90美元/小時),因為對于真正需要它們的客戶來說,沒有其他選擇。

我們已經開始看到這種趨勢,例如在Voltage Park,配備Infiniband的集群被收取更高的費用。而基于以太網的實例,對于推理任務來說已經足夠好,其價格則定得較低。根據不同的使用場景和可用性調整價格。


盡管基礎模型團隊的數量總體上有所減少,但很難預測隨著開放權重的增長和/或替代架構的出現,是否會迎來復蘇。

同時,預計未來我們將看到按集群規模進一步分層。例如,一個擁有512個節點且配備Infiniband的大型集群,其每塊GPU的收費可能會高于16個節點的集群。

消極觀點:新的公共云H100集群進入市場較晚,可能無利可圖——一些投資者可能會遭受損失。

如果你將價格定在2.25美元以下,根據你的運營成本(OPEX),你可能會面臨潛在的無利可圖的風險。 如果你將價格定得過高,比如3美元或以上,你可能無法吸引足夠的買家來最大化使用算力資源。 如果你進入市場較晚,可能無法在早期以 4美元/ 小時 的價格收回成本。

總體而言,這些集群投資對于關鍵利益相關者和投資者來說將非常艱難。

雖然我懷疑這種情況會發生,但如果新集群在AI投資組合中占據了很大一部分,我們可能會看到由于投資者遭受損失而對融資生態系統產生連鎖反應。

中立觀點:中型到大型模型構建者,已經通過長期租賃榨取了算力價值

不同于消極看法,一種中立看法是,一些未使用的算力資源的模型構建者實際上已經支付了費用。 資金市場已經將這些集群及其模型訓練的成本計算在內,并“榨取了其價值”,用于他們當前和下一輪融資的籌碼。

其中的大多數算力購買是在算力轉售商流行之前進行的,成本已經計包含在內。如果有什么影響的話,他們是從多余的H100算力資源中獲得的當前收入,而我們獲得的是降價的算力資源,這對雙方都是有利的。

如果情況確實如此,市場負面影響將是最小的,整體上對生態系統來說是一個凈正收益。

正面觀點:便宜的H100可能加速開放權重AI的采用浪潮

鑒于開放權重模型已經進入GPT-4級別的領域,H100價格的下跌將成為開放權重AI采用的倍增器。

對于業余愛好者、AI開發者和工程師來說,運行、微調和探索這些開放模型將變得更加實惠。 特別是如果沒有GPT-5++這樣的重大飛躍,這意味著開放權重模型與閉源模型之間的差距將變得模糊。

這是非常必要的,因為目前市場是不可持續的。應用層缺乏為付費用戶創造價值的能力(這會影響到平臺、模型和基礎設施層)。

在某種程度上,如果大家都在造鏟子,而沒有構建能夠吸引付費用戶的AI應用(并且沒有產生收入和價值)。 但當AI推理和微調變得比以往任何時候都便宜時,這可能會激發AI應用的浪潮——如果這一趨勢還沒有緩慢開始的話。

8 結論:不要購買全新的H100

在新H100硬件上的支出很可能是虧損的。 除非你有以下某種組合: 折扣的H100、折扣的電力,或者有一個主權AI的需求(即你的GPU所在地對客戶來說至關重要)。 或者你有數十億美元,需要一個超大型集群。

如果你在投資,建議考慮投資其他領域。或者投資股票市場指數以獲得更好的回報率。

參考來源:

  • GPU數據:Tech Power Up數據庫。A100 SXM的bf16 TFlops 為624,H100 SXM的bf16 TFlops為1979。https://www.techpowerup.com/gpu-specs/h100-sxm5-80-gb.c3900

  • 微軟和AWS在AI基礎設施上投入了超過400億美元(華爾街日報,https://www.wsj.com/tech/ai/big-tech-moves-more-ai-spending-abroad-088988de)

  • 英偉達投資者PPT,2014年10月,第14頁的“數據中心”內容

  • https://s201.q4cdn.com/141608511/files/doc_presentations/2023/Oct/01/ndr_presentation_oct_2023_final.pdf

  • Semi Analysis:對H100集群的深入研究,組件的生命周期大約為 5 年(https://www.semianalysis.com/p/100000-h100-clusters-power-network)

  • 新H100 ROI(2024 年 8 月,https://docs.google.com/spreadsheets/d/1kZosZmvaecG6P4-yCPzMN7Ha3ubMcTmF9AeJNDKeo98/edit?usp=sharing)

  • H100 Infiniband集群(2024年8月,https://docs.google.com/spreadsheets/d/1Ft3RbeZ-w43kYSiLfYc1vxO41mK5lmJpcPC9GOYHAWc/edit?usp=sharing)

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
《人民日報》點名新能源車惡性降價!堅決支持!惡性降價后患無窮

《人民日報》點名新能源車惡性降價!堅決支持!惡性降價后患無窮

正經說個事兒
2025-05-29 06:01:55
奇葩?美女因化妝太濃無法過安檢,機場被強制卸妝引發爭議!

奇葩?美女因化妝太濃無法過安檢,機場被強制卸妝引發爭議!

最英國
2025-05-31 07:38:45
廣東男子買彩票中800萬,6天后興沖沖去兌獎,卻被工作人員當場轟走

廣東男子買彩票中800萬,6天后興沖沖去兌獎,卻被工作人員當場轟走

故事秘棧
2025-05-30 19:41:04
隨著中國國少2-2戰平越南,澳大利亞2-1沙特,四國賽最新排行出爐

隨著中國國少2-2戰平越南,澳大利亞2-1沙特,四國賽最新排行出爐

球場沒跑道
2025-05-30 21:33:45
媒體人:楊瀚森第二站試訓反饋非常不錯;試訓球隊多次強調保密

媒體人:楊瀚森第二站試訓反饋非常不錯;試訓球隊多次強調保密

懂球帝
2025-05-31 12:03:12
陳羽凡現狀:低調生活,50歲胖到認不出,17歲兒子1米8長得像媽

陳羽凡現狀:低調生活,50歲胖到認不出,17歲兒子1米8長得像媽

果娛
2025-05-14 12:19:32
霉霉出街造型翻車!盡顯大媽感

霉霉出街造型翻車!盡顯大媽感

述家娛記
2025-05-31 08:21:59
寧波這個片區,最新規劃出爐!涉及地鐵8號線、11號線

寧波這個片區,最新規劃出爐!涉及地鐵8號線、11號線

魯中晨報
2025-05-31 20:53:11
究竟誰是“女安倍”?她見完特朗普又見普京!

究竟誰是“女安倍”?她見完特朗普又見普京!

新民周刊
2025-05-31 09:00:22
蔚來李斌:樂道一線人員減少 40% 情況下,5 月交付至少增長 40%

蔚來李斌:樂道一線人員減少 40% 情況下,5 月交付至少增長 40%

IT之家
2025-05-31 17:16:15
女子4×100米接力:陳妤頡、李玉婷、朱俊穎、梁小靜43.28秒,摘得金牌

女子4×100米接力:陳妤頡、李玉婷、朱俊穎、梁小靜43.28秒,摘得金牌

懂球帝
2025-05-31 21:55:15
突發!端午佳節之際,解放軍兵發黃巖島,美軍核航母就在南海

突發!端午佳節之際,解放軍兵發黃巖島,美軍核航母就在南海

嘆知
2025-05-31 15:18:42
一教育局局長在校服采購中吃回扣,被“雙開”

一教育局局長在校服采購中吃回扣,被“雙開”

齊魯壹點
2025-05-31 16:23:07
女生的梨形身材有多爽??

女生的梨形身材有多爽??

健身S叔
2025-05-30 16:20:36
打鼓擾民最新后續:警方回應,綠衣大媽日常被扒,知情人透露更多

打鼓擾民最新后續:警方回應,綠衣大媽日常被扒,知情人透露更多

鋭娛之樂
2025-05-30 17:14:29
55年授銜,陳奇涵申報自己為中將,毛主席大怒道:不把我放眼里

55年授銜,陳奇涵申報自己為中將,毛主席大怒道:不把我放眼里

近史談
2025-05-30 16:35:52
吳宗憲展開瘋狂報復,下手比黃子佼還狠,小S三女兒慘遭“連坐”

吳宗憲展開瘋狂報復,下手比黃子佼還狠,小S三女兒慘遭“連坐”

火之文
2025-05-31 17:40:09
不到48小時,俄迎來4個噩耗?日本在俄邊境開火;俄大使館被襲擊

不到48小時,俄迎來4個噩耗?日本在俄邊境開火;俄大使館被襲擊

掌青說歷史
2025-05-30 17:21:09
6月,貴人加持,好運連連的三個星座,福氣擋不住

6月,貴人加持,好運連連的三個星座,福氣擋不住

小晴星座說
2025-05-31 19:12:22
WNBA歷史首人!阿德巴約女友18中12爆砍35分13板6助4斷3帽!

WNBA歷史首人!阿德巴約女友18中12爆砍35分13板6助4斷3帽!

直播吧
2025-05-31 12:13:11
2025-05-31 22:28:49
略懂的小咖 incentive-icons
略懂的小咖
略懂生活,略懂IT,略懂財經
246文章數 15關注度
往期回顧 全部

科技要聞

1小時大定破千,余承東:尊界S800是個開端

頭條要聞

佛山"水上F1"龍船賽火了 有龍船飯店主稱當月能賺10萬

頭條要聞

佛山"水上F1"龍船賽火了 有龍船飯店主稱當月能賺10萬

體育要聞

亞錦賽女子200米:16歲陳妤頡22秒97奪金

娛樂要聞

54歲的于和偉再度提名白玉蘭獎視帝

財經要聞

中汽協倡議:反對“內卷式”惡性競爭

汽車要聞

續航超1000km/增程動力 上汽大眾ID.ERA深圳車展亮相

態度原創

藝術
房產
旅游
手機
公開課

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

房產要聞

金地華南落子海南自貿港22萬㎡標桿項目,夯實代建行業領軍者地位

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

手機要聞

OPPO Find X8 Ultra更新ColorOS15.0.1.502體驗:說說真實感受

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 松桃| 会同县| 南宁市| 肇州县| 台南县| 永丰县| 景洪市| 永吉县| 施甸县| 兴城市| 辽源市| 武川县| 江油市| 凤冈县| 崇州市| 望城县| 清远市| 阳高县| 扎赉特旗| 高陵县| 西盟| 津南区| 七台河市| 繁昌县| 抚州市| 当雄县| 呼图壁县| 鸡西市| 沂源县| 高安市| 巴马| 特克斯县| 青川县| 肥东县| 绥棱县| 平凉市| 文山县| 大新县| 武汉市| 鸡西市| 吴旗县|