99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

“百模大戰(zhàn)”,夯實(shí)基礎(chǔ)模型,方是大模型發(fā)展之路

0
分享至

今年以來(lái),ChatGPT引領(lǐng)了全球人工智能的新一輪創(chuàng)新浪潮。以中國(guó)為例,據(jù)《2023—2024年中國(guó)人工智能計(jì)算力發(fā)展評(píng)估報(bào)告》顯示,截至2023年10月,中國(guó)累計(jì)發(fā)布兩百余個(gè)大模型(包括基礎(chǔ)和行業(yè)類),已進(jìn)入“百模大戰(zhàn)”的新時(shí)代,在彰顯我國(guó)人工智能領(lǐng)域創(chuàng)新實(shí)力和發(fā)展?jié)摿Φ耐瑫r(shí),對(duì)如何選擇和走出具有中國(guó)特色的大模型發(fā)展之路也提出了挑戰(zhàn)。



心急吃不了熱豆腐,“全能”基礎(chǔ)大模型才是基石

提及國(guó)內(nèi)的“百模大戰(zhàn)”,可謂是百花齊放,但從屬性上分,基本為基礎(chǔ)和行業(yè)模型兩大類,出于盡早進(jìn)入市場(chǎng),嘗試盡快實(shí)現(xiàn)商業(yè)變現(xiàn)的需求,國(guó)內(nèi)大模型的發(fā)展有向行業(yè)模型傾斜的趨勢(shì),甚至出現(xiàn)了針對(duì)基礎(chǔ)模型不要“重復(fù)造輪子”的論調(diào)。事實(shí)真的如此嗎?

2021年8月,李飛飛和100多位學(xué)者聯(lián)名發(fā)表一份200多頁(yè)的研究報(bào)告《On the Opportunities andRisk of Foundation Models》中提出了基礎(chǔ)模型(Foundation Model)(《On the Opportunities and Risk of Foundation Models》,國(guó)際上稱為預(yù)訓(xùn)練模型,即通過(guò)在大規(guī)模寬泛的數(shù)據(jù)上進(jìn)行訓(xùn)練后能適應(yīng)一系列下游任務(wù)的模型。

相較于小模型或者所謂行業(yè)模型(針對(duì)特定場(chǎng)景需求、使用行業(yè)數(shù)據(jù)訓(xùn)練出來(lái)的模型),基礎(chǔ)模型優(yōu)勢(shì)主要體現(xiàn)在以下幾個(gè)方面。

首先是涌現(xiàn)能力,它指的是模型規(guī)模超過(guò)某個(gè)參數(shù)閾值后,AI效果將不再是隨機(jī)概率事件。在通用領(lǐng)域,參數(shù)量越大,智能通常涌現(xiàn)的可能性就越大,AI準(zhǔn)確率也會(huì)更高。在專用垂直領(lǐng)域,基礎(chǔ)模型裁剪優(yōu)化后更容易獲得精確的效果;

其次是適用場(chǎng)景廣泛。人工智能大模型通過(guò)在海量、多類型的場(chǎng)景數(shù)據(jù)中學(xué)習(xí),能夠總結(jié)不同場(chǎng)景、不同業(yè)務(wù)下的通用能力,擺脫了小模型場(chǎng)景碎片化、難以復(fù)用的局限性,為大規(guī)模落地人工智能應(yīng)用提供可能;

最后是研發(fā)效率提高。傳統(tǒng)小模型研發(fā)普遍為手工作坊式,高度依賴人工標(biāo)注數(shù)據(jù)和人工調(diào)優(yōu)調(diào)參,研發(fā)成本高、周期長(zhǎng)、效率低。大模型則將研發(fā)模式升級(jí)為大規(guī)模工廠式,采用自監(jiān)督學(xué)習(xí)方法,減少對(duì)特定數(shù)據(jù)的依賴,顯著降低人力成本、提升研發(fā)效率。

此外,基礎(chǔ)大模型還具有同質(zhì)化特性,即基礎(chǔ)模型的能力是智能的中心與核心,它的任何一點(diǎn)改進(jìn)會(huì)迅速覆蓋整個(gè)社區(qū),反之隱患在于大模型的缺陷也會(huì)被所有下游模型所繼承。而這又從反面證明了基礎(chǔ)大模型作為小模型基礎(chǔ)的重要性。

以當(dāng)下流行的GPT-4為例,其實(shí)它就是一個(gè)能力強(qiáng)大的基礎(chǔ)大模型,沒有行業(yè)屬性,通用智能是其最核心的部分,對(duì)于所謂的小模型或者面向行業(yè)場(chǎng)景的行業(yè)模型來(lái)說(shuō),基礎(chǔ)大模型結(jié)合行業(yè)數(shù)據(jù)和行業(yè)知識(shí)庫(kù),就可以在行業(yè)中實(shí)現(xiàn)更高效的落地,這里最典型的例子就是微軟推出的基于GPT-4平臺(tái)的新Bing和Copilot應(yīng)用。而其背后揭示的則是通過(guò)發(fā)展基礎(chǔ)大模型,構(gòu)建技能模型,進(jìn)而落地行業(yè)模型,符合大模型自身技術(shù)發(fā)展規(guī)律的必由之路。

所謂心急吃不了熱豆腐。當(dāng)我們?cè)诨A(chǔ)大模型這塊基石尚不牢固,盲目追求所謂落地的技能和行業(yè)模型的速度,很可能是重復(fù)造輪子,同時(shí),鑒于目前以GPT為代表的基礎(chǔ)模型迭代很快,性能提升明顯,屆時(shí),我們的技能和行業(yè)模型還面臨技術(shù)過(guò)時(shí)(行業(yè)和技能模型還不如基礎(chǔ)模型)的風(fēng)險(xiǎn)而事倍功半。

夯實(shí)基礎(chǔ)模型,面臨高質(zhì)量數(shù)據(jù)與算法創(chuàng)新挑戰(zhàn)

既然我們理解了基礎(chǔ)模型基石的技術(shù)邏輯和作用,夯實(shí)基礎(chǔ)模型自然是重中之重。但對(duì)于國(guó)內(nèi)來(lái)說(shuō),夯實(shí)基礎(chǔ)大模型卻面臨不小的新挑戰(zhàn)。

首先是缺少多樣化、高質(zhì)量的訓(xùn)練數(shù)據(jù)。

以GPT為例,在數(shù)據(jù)多樣化方面,GPT-1使用的訓(xùn)練語(yǔ)料以書籍為主、如BookCorpus等;GPT-2則使用了如Reddit links等新聞?lì)悢?shù)據(jù),文本規(guī)范質(zhì)量高,同時(shí)又包含了部分人們?nèi)粘=涣鞯纳缃粩?shù)據(jù);進(jìn)入GPT-3,模型的數(shù)據(jù)規(guī)模呈數(shù)十倍增長(zhǎng),Reddit links、Common Crawl、WebText2、Wikipedia等數(shù)據(jù)集的加入,大大提高了數(shù)據(jù)的多樣性;GPT-4階段更引入了GitHub代碼、對(duì)話數(shù)據(jù)以及一些數(shù)學(xué)應(yīng)用題,甚至增加了多模態(tài)數(shù)據(jù)。

在數(shù)據(jù)質(zhì)量方面,以GPT-3模型為例,其訓(xùn)練需要的語(yǔ)料75%是英文,3%是中文,還有一些西班牙文、法文、德文等語(yǔ)料集,這些學(xué)習(xí)語(yǔ)料可通過(guò)公開數(shù)據(jù)(如維基百科、百度百科、微博、知乎等)、開源數(shù)據(jù)集、網(wǎng)頁(yè)爬取(訓(xùn)練GPT-3爬取了31億個(gè)網(wǎng)頁(yè),約3000億詞)、私有數(shù)據(jù)集(如OpenAI的WebText數(shù)據(jù)集,收集了Reddit平臺(tái)上的800萬(wàn)篇高贊文章,約150億詞)等方式獲取。這些語(yǔ)料中,英文語(yǔ)料公開數(shù)據(jù)更多、質(zhì)量更高。

需要說(shuō)明的是,盡管上述已是高質(zhì)量的數(shù)據(jù),但其來(lái)源于維基百科、書籍及學(xué)術(shù)期刊等的高質(zhì)量數(shù)據(jù)也僅占其數(shù)據(jù)集的17.8%,但其在模型訓(xùn)練中的權(quán)重卻占到了40%,數(shù)據(jù)質(zhì)量精益求精和重要性可見一斑。



對(duì)此,有業(yè)內(nèi)分析認(rèn)為,當(dāng)高質(zhì)量數(shù)據(jù)量到達(dá)一定臨界值的時(shí)候,將會(huì)無(wú)限拉近不同算法帶來(lái)的準(zhǔn)確率差距,某種程度上會(huì)決定模型訓(xùn)練的質(zhì)量,不僅讓訓(xùn)練變得更加高效,同時(shí)可以大幅削減訓(xùn)練成本。

相比之下,中文開源高質(zhì)量數(shù)據(jù)少,特別是構(gòu)建基礎(chǔ)大模型的百科類、問(wèn)答類、圖書文獻(xiàn)、學(xué)術(shù)論文、報(bào)紙雜志等高質(zhì)量中文內(nèi)容。同時(shí),國(guó)內(nèi)專業(yè)數(shù)據(jù)服務(wù)還處于起步階段,可用于人工智能模型訓(xùn)練的經(jīng)過(guò)加工、清洗、標(biāo)注的高質(zhì)量數(shù)據(jù)集還相對(duì)匱乏。

由此可見,缺少高質(zhì)量、多樣化的訓(xùn)練數(shù)據(jù)已成為國(guó)內(nèi)基礎(chǔ)模型訓(xùn)練的核心痛點(diǎn)之一,也是最大的挑戰(zhàn)。

除了高質(zhì)量的數(shù)據(jù)之外,縱觀當(dāng)前國(guó)內(nèi)的大模型,基本都是基于Transformer架構(gòu),技術(shù)原理業(yè)內(nèi)都相當(dāng)清楚,但為什么ChatGPT就是比其他大模型表現(xiàn)得更好?由于GPT-3之后,OpenAI的所有模型沒有再開源,GPT-4的運(yùn)行機(jī)制是什么,國(guó)內(nèi)企業(yè)仍無(wú)從得知,但在業(yè)內(nèi)看來(lái),其核心理應(yīng)是算法的創(chuàng)新和優(yōu)化。

這里以Transformer架構(gòu)為例,如上述,目前學(xué)術(shù)界大部分的工作都是圍繞如何提升Transformer的效率展開,硬件結(jié)構(gòu)也都是圍繞如何優(yōu)化Transformer的方式而設(shè)計(jì),雖然其為業(yè)內(nèi)帶來(lái)了創(chuàng)新突破,但仍然存在某些局限性。例如,對(duì)于長(zhǎng)序列的處理和對(duì)序列中的順序信息的處理算法,會(huì)增加算力消耗和成本,而這為改進(jìn)注意力機(jī)制、剪枝和量化等這些當(dāng)前未曾突破的瓶頸與值得創(chuàng)新的發(fā)展方向提出了挑戰(zhàn),即想從架構(gòu)上對(duì)Transformer進(jìn)行創(chuàng)新,需要的是勇氣與探索能力。

對(duì)癥下藥,開源、開放的源2.0帶來(lái)了什么?

俗話說(shuō):挑戰(zhàn)與機(jī)遇并存,而將挑戰(zhàn)化為機(jī)遇的方法就是對(duì)癥下藥。而在這方面,浪潮信息日前發(fā)布的源2.0基礎(chǔ)大模型頗值得我們拿來(lái)探究。

例如在應(yīng)對(duì)我們前述的缺少多樣化、高質(zhì)量的訓(xùn)練數(shù)據(jù)挑戰(zhàn)方面,源2.0的數(shù)據(jù)來(lái)源包含三個(gè)部分,分別是業(yè)界的開源數(shù)據(jù)、從互聯(lián)網(wǎng)上清洗的數(shù)據(jù)和模型合成的數(shù)據(jù)。浪潮信息的模型團(tuán)隊(duì)不僅對(duì)2018年至2023年的互聯(lián)網(wǎng)數(shù)據(jù)進(jìn)行了清洗,從總量12PB左右的數(shù)據(jù)中僅獲取到約10GB的中文數(shù)學(xué)數(shù)據(jù),而為進(jìn)一步彌補(bǔ)高質(zhì)量數(shù)據(jù)集的匱乏,還基于大模型構(gòu)建了一批多樣性的高質(zhì)量數(shù)據(jù),為此,浪潮信息提出了基于主題詞或Q&A問(wèn)答對(duì)自動(dòng)生成編程題目和答案的數(shù)據(jù)集生成流程,大幅提高了數(shù)據(jù)集問(wèn)題的多樣性。同時(shí),輔以基于單元測(cè)試的數(shù)據(jù)清洗方法,讓高質(zhì)量數(shù)據(jù)集的獲取更加高效,進(jìn)一步提高訓(xùn)練效率。



具體來(lái)說(shuō),在構(gòu)建高質(zhì)量的數(shù)學(xué)和代碼數(shù)據(jù)時(shí),團(tuán)隊(duì)會(huì)隨機(jī)選取一批種子數(shù)據(jù),然后對(duì)其進(jìn)行擴(kuò)充,讓大模型生成一批合適的問(wèn)題,再把它們送到模型里,從而產(chǎn)生合適的答案。并將其補(bǔ)充到訓(xùn)練數(shù)據(jù)集當(dāng)中。

不僅如此,即便是基于大模型構(gòu)建的高質(zhì)量數(shù)據(jù),浪潮信息還會(huì)通過(guò)額外構(gòu)建的數(shù)據(jù)清洗流程,力求將更高質(zhì)量的社群、代碼數(shù)據(jù)應(yīng)用到模型的預(yù)訓(xùn)練過(guò)程中。可見源2.0對(duì)于數(shù)據(jù)的質(zhì)量也是精益求精。而未來(lái),浪潮信息的模型團(tuán)隊(duì)還會(huì)利用自己的模型生成更高質(zhì)量的數(shù)據(jù),形成數(shù)據(jù)循環(huán),持續(xù)迭代并提升大模型的能力。

同樣在應(yīng)對(duì)算法挑戰(zhàn)方面,源2.0也進(jìn)行了重大創(chuàng)新,在我們上述的Transformer結(jié)構(gòu)中完全替換了自注意力層,創(chuàng)新性地提出新型Attention結(jié)構(gòu),即局部注意力過(guò)濾增強(qiáng)機(jī)制LFA(LocalizedFiltering-based Attention),通過(guò)先強(qiáng)化相鄰詞之間的關(guān)聯(lián)性,然后再計(jì)算全局關(guān)聯(lián)性的方法,模型能夠更好地處理自然語(yǔ)言的語(yǔ)序排列問(wèn)題,對(duì)于中文語(yǔ)境的關(guān)聯(lián)語(yǔ)義理解更準(zhǔn)確、更人性,提升了模型的自然語(yǔ)言表達(dá)能力,進(jìn)而提升了模型精度。



而消融實(shí)驗(yàn)的結(jié)果顯示,相比傳統(tǒng)注意力結(jié)構(gòu),LFA模型精度提高了3.53%;在最終的模型訓(xùn)練上,基于LFA算法的源2.0-102B模型,訓(xùn)練288B token的train loss為1.18,相比之下,源1.0 245B模型訓(xùn)練180B token的train loss為1.64。也就是說(shuō),從源1.0到源2.0,train loss降低了28%。

除上述之外,在算力上,源2.0采用了非均勻流水并行的方法,綜合運(yùn)用流水線并行+優(yōu)化器參數(shù)并行+數(shù)據(jù)并行的策略,讓模型在流水并行各階段的顯存占用量分布更均衡,避免出現(xiàn)顯存瓶頸導(dǎo)致的訓(xùn)練效率降低的問(wèn)題,該方法顯著降低了大模型對(duì)芯片間P2P帶寬的需求,為硬件差異較大訓(xùn)練環(huán)境提供了一種高性能的訓(xùn)練方法。

值一提的是,從當(dāng)前大模型算力建設(shè)、模型開發(fā)和應(yīng)用落地的實(shí)際需求出發(fā),浪潮信息還開發(fā)出了全棧全流程的智算軟件棧OGAI,以提供完善的工程化、自動(dòng)化工具軟件堆棧,幫助更多企業(yè)順利跨越大模型研發(fā)應(yīng)用門檻,充分釋放大模型創(chuàng)新生產(chǎn)力。

所謂眾人拾柴火焰高,這很好地詮釋了開源、開放的理念。

具體基礎(chǔ)大模型,不可否認(rèn)的事實(shí)是,當(dāng)前中國(guó)做大模型的公司與OpenAI仍存在較大差距,而開源能夠釋放整個(gè)社區(qū)的智慧,一起進(jìn)行生態(tài)和能力的建設(shè),這也是我們除了上述數(shù)據(jù)和算法的創(chuàng)新外,盡快追趕國(guó)外領(lǐng)先公司基礎(chǔ)大模型的可行路徑。

以浪潮信息近期公布的源大模型共訓(xùn)計(jì)劃為例,其針對(duì)開發(fā)者自己的應(yīng)用或場(chǎng)景需求,通過(guò)自研數(shù)據(jù)平臺(tái)生成訓(xùn)練數(shù)據(jù)并對(duì)源大模型進(jìn)行增強(qiáng)訓(xùn)練,訓(xùn)練后的模型依然在社區(qū)開源。開發(fā)者只需要提出需求,說(shuō)清楚具體的應(yīng)用場(chǎng)景、對(duì)大模型的能力需求以及1~2條示例,由源團(tuán)隊(duì)來(lái)進(jìn)行數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練并開源。

由此可見,這種共享底層數(shù)據(jù)、算法和代碼的共訓(xùn)計(jì)劃,有利于打破大模型孤島,促進(jìn)模型之間協(xié)作和更新迭代,并推動(dòng)AI開發(fā)變得更加靈活和高效。同時(shí),開源開放有利于推進(jìn)“技術(shù)+行業(yè)”的閉環(huán),以更豐富的高質(zhì)量行業(yè)數(shù)據(jù)反哺模型,克服數(shù)據(jù)分布偏移可能造成的基礎(chǔ)大模型性能下降,打造更強(qiáng)的技術(shù)產(chǎn)品,加速商業(yè)化進(jìn)程。

寫在最后:綜上,我們認(rèn)為,“百模大戰(zhàn)”,基礎(chǔ)大模型為基,構(gòu)建技能模型,進(jìn)而落地行業(yè)模型,理應(yīng)成為國(guó)內(nèi)大模型現(xiàn)在和未來(lái)發(fā)展的共識(shí),更是具有中國(guó)特色的大模型發(fā)展之路,而開源、開放的源2.0基礎(chǔ)大模型的探索與實(shí)踐只是開始!

聲明:個(gè)人原創(chuàng),僅供參考

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
無(wú)父母托舉和貴人指導(dǎo),很多人三四十歲才開竅,但已無(wú)力改變命運(yùn)

無(wú)父母托舉和貴人指導(dǎo),很多人三四十歲才開竅,但已無(wú)力改變命運(yùn)

李舟
2025-07-21 18:48:18
Model Y高速遭嚴(yán)重側(cè)撞救下車主,現(xiàn)場(chǎng)急救人員:多虧有特斯拉!

Model Y高速遭嚴(yán)重側(cè)撞救下車主,現(xiàn)場(chǎng)急救人員:多虧有特斯拉!

特空間
2025-07-23 14:16:04
坎爺和嬌妻又去德國(guó)雷人了!妻子穿“絲襪裝”吃烤肉,真不尷尬?

坎爺和嬌妻又去德國(guó)雷人了!妻子穿“絲襪裝”吃烤肉,真不尷尬?

泠泠說(shuō)史
2025-07-22 10:53:51
深度科普:太陽(yáng)留給人類的時(shí)間不多了,最多只有5億年!

深度科普:太陽(yáng)留給人類的時(shí)間不多了,最多只有5億年!

宇宙時(shí)空
2025-07-22 18:31:03
中年女人答應(yīng)發(fā)生關(guān)系,會(huì)有以下的行為,基本上藏不住

中年女人答應(yīng)發(fā)生關(guān)系,會(huì)有以下的行為,基本上藏不住

四象八卦
2025-07-23 18:24:22
月銷1.5萬(wàn)+,全新RAV4亮相,豐田RAV4還值得關(guān)注嗎?

月銷1.5萬(wàn)+,全新RAV4亮相,豐田RAV4還值得關(guān)注嗎?

沙雕小琳琳
2025-07-23 01:02:36
特朗普殺招立竿見影?李在明掏不出4000億美元,立馬反轉(zhuǎn)對(duì)華態(tài)度

特朗普殺招立竿見影?李在明掏不出4000億美元,立馬反轉(zhuǎn)對(duì)華態(tài)度

歷史有些冷
2025-07-22 19:10:03
朱小杰任同濟(jì)大學(xué)黨委常務(wù)副書記,曾在教育部任職

朱小杰任同濟(jì)大學(xué)黨委常務(wù)副書記,曾在教育部任職

澎湃新聞
2025-07-23 16:52:27
證監(jiān)會(huì)怒了!上市當(dāng)年就虛增業(yè)績(jī),多肽原料藥龍頭被罰4740萬(wàn)

證監(jiān)會(huì)怒了!上市當(dāng)年就虛增業(yè)績(jī),多肽原料藥龍頭被罰4740萬(wàn)

金色光
2025-07-23 17:10:40
以色列人與德魯茲人:兄弟相愛撼山河

以色列人與德魯茲人:兄弟相愛撼山河

通往遠(yuǎn)方的路
2025-07-23 09:06:41
美國(guó)宣布將于2026年12月31日正式退出聯(lián)合國(guó)教科文組織

美國(guó)宣布將于2026年12月31日正式退出聯(lián)合國(guó)教科文組織

半島官網(wǎng)
2025-07-23 10:37:43
有一說(shuō)一,中國(guó)女籃未來(lái)主防田中心的就這3人,李緣不是第1人選

有一說(shuō)一,中國(guó)女籃未來(lái)主防田中心的就這3人,李緣不是第1人選

郝小小看體育
2025-07-23 13:57:53
307.8分!中國(guó)花樣游泳世錦賽歷史性擊敗俄羅斯隊(duì),網(wǎng)友一片沸騰

307.8分!中國(guó)花樣游泳世錦賽歷史性擊敗俄羅斯隊(duì),網(wǎng)友一片沸騰

羅掌柜體育
2025-07-23 10:51:25
重磅官宣!香港大學(xué)落地上海!

重磅官宣!香港大學(xué)落地上海!

王曉愛體彩
2025-07-23 08:13:33
90分鐘戰(zhàn)報(bào):申花2-2河南,馬納法世界波扳平,卡多索進(jìn)球被吹

90分鐘戰(zhàn)報(bào):申花2-2河南,馬納法世界波扳平,卡多索進(jìn)球被吹

懂球帝
2025-07-23 21:04:54
形勢(shì)嚴(yán)峻:我們進(jìn)口芯片均價(jià)4.9元,出口芯片均價(jià)3.9元

形勢(shì)嚴(yán)峻:我們進(jìn)口芯片均價(jià)4.9元,出口芯片均價(jià)3.9元

互聯(lián)網(wǎng).亂侃秀
2025-07-22 14:32:54
陳佩斯哭了,《戲臺(tái)》從血本無(wú)歸的預(yù)期,僅幾天就精彩逆轉(zhuǎn)

陳佩斯哭了,《戲臺(tái)》從血本無(wú)歸的預(yù)期,僅幾天就精彩逆轉(zhuǎn)

通鑒史智
2025-07-22 07:22:33
女籃眾將發(fā)文告別!多名主力有意宣退,惡心的一幕出現(xiàn)了

女籃眾將發(fā)文告別!多名主力有意宣退,惡心的一幕出現(xiàn)了

深析古今
2025-07-23 18:09:21
國(guó)務(wù)院出臺(tái)租房新規(guī),影響最大的是誰(shuí)?房東還是租客?

國(guó)務(wù)院出臺(tái)租房新規(guī),影響最大的是誰(shuí)?房東還是租客?

恪守原則和底線
2025-07-22 18:56:28
宗慶后警惕遺產(chǎn)爭(zhēng)奪戰(zhàn),生前曾做三件事

宗慶后警惕遺產(chǎn)爭(zhēng)奪戰(zhàn),生前曾做三件事

今綸財(cái)經(jīng)
2025-07-21 19:21:22
2025-07-23 22:23:00
孫永杰的ICT評(píng)論 incentive-icons
孫永杰的ICT評(píng)論
專注獨(dú)家、獨(dú)立的觀點(diǎn)
392文章數(shù) 6229關(guān)注度
往期回顧 全部

科技要聞

別自嗨了!XREAL徐馳:AI眼鏡只有5歲智商

頭條要聞

中國(guó)女子在馬爾代夫遭酒店管家性侵 最新調(diào)查結(jié)論公布

頭條要聞

中國(guó)女子在馬爾代夫遭酒店管家性侵 最新調(diào)查結(jié)論公布

體育要聞

英格蘭最紅球星 也是加勒比島國(guó)驕傲

娛樂(lè)要聞

汪峰森林北同游日本 各帶各娃互不耽誤

財(cái)經(jīng)要聞

律師解析娃哈哈遺產(chǎn)案:遺囑是最大變數(shù)

汽車要聞

德系大招放盡 場(chǎng)地極限測(cè)試全新奧迪A5L

態(tài)度原創(chuàng)

家居
本地
游戲
旅游
軍事航空

家居要聞

晨曦生活 明媚而放松

本地新聞

這雙丑鞋“泰”辣眼,跪求內(nèi)娛不要抄作業(yè)

《無(wú)主之地4》制作團(tuán)隊(duì)專訪:腳踏實(shí)地"/> 主站 商城 論壇 自運(yùn)營(yíng) 登錄 注冊(cè) 《無(wú)主之地4》制作團(tuán)隊(duì)專訪:腳踏實(shí)地 廉頗 2025-07-23 返回...

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

軍事要聞

美國(guó)核彈頭重回英國(guó)牽動(dòng)全球神經(jīng)

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 溧阳市| 屏东市| 文水县| 松潘县| 乐平市| 封开县| 兴宁市| 定南县| 滨州市| 泸西县| 三都| 泊头市| 象山县| 磐安县| 盐城市| 武夷山市| 德兴市| 铜陵市| 徐水县| 榆社县| 德令哈市| 康乐县| 邛崃市| 玉林市| 张家界市| 炎陵县| 镇巴县| 武夷山市| 南昌市| 揭东县| 江口县| 汝城县| 通城县| 方城县| 青州市| 霍邱县| 五常市| 晋城| 娱乐| 共和县| 六枝特区|