這項(xiàng)由賓夕法尼亞州立大學(xué)和Adobe Research聯(lián)合完成的研究發(fā)表于2025年6月,論文編號(hào)為arXiv:2506.06561v1。想要深入了解這項(xiàng)研究的讀者可以通過GitHub鏈接https://github.com/Crowd-AI-Lab/lamp-cap獲取完整的數(shù)據(jù)集和代碼,或者訪問arXiv數(shù)據(jù)庫(kù)查看完整論文。
想象一下,你正在寫一篇學(xué)術(shù)論文,辛苦制作了很多圖表來展示研究成果,但是給每個(gè)圖表寫說明文字卻讓你頭疼不已。雖然現(xiàn)在有不少AI工具能幫你自動(dòng)生成圖表說明,但這些說明總是顯得很"機(jī)械",完全不符合你的寫作風(fēng)格,也不符合你這個(gè)研究領(lǐng)域的表達(dá)習(xí)慣。就像請(qǐng)了一個(gè)完全不了解你的代筆作家,寫出來的東西雖然意思對(duì),但總感覺不是你的"味道"。
這正是研究團(tuán)隊(duì)想要解決的問題。他們發(fā)現(xiàn),盡管AI生成圖表說明的技術(shù)已經(jīng)相當(dāng)成熟,但幾乎所有作者都需要大幅修改這些AI生成的說明,有的學(xué)者甚至抱怨說"我需要重新寫,因?yàn)檫@根本不是我們領(lǐng)域表達(dá)這個(gè)概念的正確方式"。
為了讓AI能夠真正理解并模仿不同學(xué)者的寫作風(fēng)格,研究團(tuán)隊(duì)開發(fā)了一個(gè)叫做LAMP-CAP的全新數(shù)據(jù)集。這就像是給AI創(chuàng)建了一個(gè)"寫作風(fēng)格學(xué)習(xí)班",讓它能夠通過觀察同一篇論文中其他圖表的說明文字,學(xué)會(huì)該論文作者的獨(dú)特表達(dá)方式,然后用這種風(fēng)格為新的圖表寫說明。
這項(xiàng)研究的突破性在于,它是首次將"個(gè)性化"概念引入到多模態(tài)的圖表說明生成中。以前的個(gè)性化研究主要集中在純文本場(chǎng)景中,比如個(gè)性化的郵件標(biāo)題或新聞標(biāo)題生成,但從來沒有人嘗試過在需要同時(shí)處理圖像和文字的復(fù)雜場(chǎng)景中實(shí)現(xiàn)個(gè)性化。這就像是從教AI寫普通作文,升級(jí)到教AI寫需要配圖的圖文并茂的報(bào)告一樣,難度成倍增加。
研究團(tuán)隊(duì)收集了來自110,828篇不同科學(xué)論文的圖表數(shù)據(jù),每篇論文都提供了一個(gè)"目標(biāo)圖表"需要AI生成說明,同時(shí)還提供了來自同一篇論文的最多三個(gè)"參考圖表",每個(gè)參考圖表都包含原始圖像、人工撰寫的說明文字,以及論文中提到這個(gè)圖表的段落文字。這樣設(shè)計(jì)的巧妙之處在于,AI不僅能看到目標(biāo)圖表長(zhǎng)什么樣子,還能通過參考同一作者寫的其他圖表說明,學(xué)會(huì)這個(gè)作者的表達(dá)習(xí)慣和寫作風(fēng)格。
一、數(shù)據(jù)寶庫(kù)的精心構(gòu)建:從47萬張圖表中篩選出的學(xué)習(xí)樣本
研究團(tuán)隊(duì)面臨的第一個(gè)挑戰(zhàn)就像是從一個(gè)巨大的圖書館中挑選合適的學(xué)習(xí)材料。他們從SCICAP挑戰(zhàn)賽數(shù)據(jù)集開始,這個(gè)數(shù)據(jù)集包含了476,389張來自231,675篇arXiv論文的科學(xué)圖表。但并不是所有論文都適合用來訓(xùn)練個(gè)性化模型,就像不是所有作家的作品都適合用來學(xué)習(xí)寫作風(fēng)格一樣。
團(tuán)隊(duì)制定了一個(gè)簡(jiǎn)單但關(guān)鍵的篩選標(biāo)準(zhǔn):只選擇那些至少包含兩張圖表的論文。這個(gè)要求看似簡(jiǎn)單,背后卻有深刻的道理。想象你要學(xué)習(xí)一個(gè)廚師的烹飪風(fēng)格,如果這個(gè)廚師只做過一道菜,你根本無法從中總結(jié)出他的風(fēng)格特點(diǎn)。同樣,如果一篇論文只有一張圖表,AI就無法從中學(xué)習(xí)到作者的寫作模式和表達(dá)習(xí)慣。
在每篇符合條件的論文中,研究人員隨機(jī)選擇一張圖表作為"目標(biāo)圖表",這就像是考試中的題目,AI需要為它生成說明文字。其余的圖表則成為"參考資料",提供該作者的寫作風(fēng)格信息。由于原始數(shù)據(jù)集為了控制規(guī)模,每篇論文最多只包含四張圖表,所以每個(gè)目標(biāo)圖表最多能有三張參考圖表作為學(xué)習(xí)材料。
最終構(gòu)建的LAMP-CAP數(shù)據(jù)集包含110,828個(gè)目標(biāo)圖表,按照經(jīng)典的8:1:1比例分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。在這些目標(biāo)圖表中,約49.3%的圖表有一張參考圖表,23.6%有兩張參考圖表,27.1%有三張參考圖表。這種分布很好地反映了真實(shí)學(xué)術(shù)寫作的情況,有些論文圖表較少,有些則圖表豐富。
數(shù)據(jù)集的構(gòu)建過程就像是為AI創(chuàng)建了一個(gè)多樣化的"實(shí)習(xí)環(huán)境"。每個(gè)學(xué)習(xí)樣本不僅包含目標(biāo)圖表的圖像,還包含論文中提及該圖表的段落文字,這些文字通常以"圖3顯示了..."這樣的形式出現(xiàn)。同時(shí),每個(gè)參考圖表也提供完整的信息:圖像、人工撰寫的說明文字,以及相關(guān)的提及段落。這種豐富的信息組合讓AI能夠從多個(gè)角度理解圖表內(nèi)容和作者的表達(dá)習(xí)慣。
二、四大AI模型的實(shí)力較量:誰更善于模仿學(xué)者的寫作風(fēng)格
為了驗(yàn)證LAMP-CAP數(shù)據(jù)集的有效性,研究團(tuán)隊(duì)邀請(qǐng)了四位"AI選手"參加這場(chǎng)寫作風(fēng)格模仿大賽。這四位選手分別是GPT-4o、Llama 4 Scout、Gemini 2.5 Flash Preview和GPT-4.1 Mini。前三位是重量級(jí)選手,擁有強(qiáng)大的處理能力,而GPT-4.1 Mini則是輕量級(jí)選手,代表了資源相對(duì)有限的應(yīng)用場(chǎng)景。
研究團(tuán)隊(duì)設(shè)計(jì)了三種不同的"比賽規(guī)則"來測(cè)試這些AI模型的表現(xiàn)。第一種是"裸考"模式,AI只能看到目標(biāo)圖表的圖像和相關(guān)段落,不提供任何參考資料,就像讓學(xué)生在完全不了解老師風(fēng)格的情況下寫作文。第二種是"單樣本學(xué)習(xí)"模式,AI可以參考同一論文中的一張圖表及其說明,這就像給學(xué)生看一篇老師的范文再讓他模仿寫作。第三種是"全資料"模式,AI可以使用所有可用的參考圖表,相當(dāng)于給學(xué)生提供了該老師的所有作品集作為參考。
比賽結(jié)果令人振奮。所有四個(gè)AI模型在有參考資料的情況下都表現(xiàn)得明顯更好,就像學(xué)生看了范文后寫作水平明顯提升一樣。使用BLEU和ROUGE這兩個(gè)專門測(cè)量文本相似度的評(píng)分標(biāo)準(zhǔn),研究人員發(fā)現(xiàn)提供參考資料后,AI生成的說明文字與原作者撰寫的說明在表達(dá)方式上更加接近。
更有趣的是,參考資料越多,效果越好。這就像是給學(xué)生的范文越多,他們?cè)侥軠?zhǔn)確把握老師的寫作風(fēng)格。在"全資料"模式下,所有模型的表現(xiàn)都比"單樣本學(xué)習(xí)"模式更優(yōu)秀。其中,Llama 4 Scout和Gemini 2.5表現(xiàn)最為突出,在多項(xiàng)指標(biāo)上都取得了最高分,證明了它們?cè)诶斫夂湍7聦懽黠L(fēng)格方面的卓越能力。
研究團(tuán)隊(duì)還發(fā)現(xiàn)了一個(gè)有趣的規(guī)律:當(dāng)參考圖表與目標(biāo)圖表屬于同一類型時(shí),個(gè)性化效果更加明顯。比如,如果目標(biāo)圖表是柱狀圖,而參考圖表也是柱狀圖,那么AI就能更好地學(xué)習(xí)到作者描述這類圖表的特定表達(dá)方式,就像專門學(xué)習(xí)某種特定文體的寫作技巧一樣。
三、解密個(gè)性化的關(guān)鍵要素:什么信息最能體現(xiàn)作者風(fēng)格
為了深入理解什么信息對(duì)個(gè)性化效果貢獻(xiàn)最大,研究團(tuán)隊(duì)進(jìn)行了一系列"拆解實(shí)驗(yàn)",就像拆解一臺(tái)精密機(jī)器來了解每個(gè)零件的作用一樣。他們分別移除參考資料中的不同組成部分,觀察AI表現(xiàn)的變化。
這個(gè)實(shí)驗(yàn)就像是在烹飪中逐一移除不同調(diào)料,看看哪種調(diào)料對(duì)最終味道影響最大。研究團(tuán)隊(duì)測(cè)試了三種情況:移除參考圖表的說明文字、移除參考圖表的圖像,以及移除論文中提及參考圖表的段落文字。
結(jié)果顯示,說明文字是最關(guān)鍵的要素。當(dāng)移除了參考圖表的說明文字后,AI的表現(xiàn)出現(xiàn)了最大幅度的下降,這并不令人意外,因?yàn)檎f明文字直接展示了作者的表達(dá)習(xí)慣和寫作風(fēng)格。這就像是學(xué)習(xí)書法時(shí),字帖是最重要的參考資料,沒有了字帖,學(xué)習(xí)效果會(huì)大打折扣。
令人驚訝的是,圖像信息的重要性超過了文字段落。當(dāng)移除參考圖表的圖像時(shí),AI表現(xiàn)的下降程度比移除相關(guān)段落文字更明顯。這個(gè)發(fā)現(xiàn)具有重要意義,它表明視覺信息在個(gè)性化圖表說明生成中發(fā)揮著關(guān)鍵作用,這正是多模態(tài)個(gè)性化相比純文本個(gè)性化的獨(dú)特優(yōu)勢(shì)。
這就像是在學(xué)習(xí)繪畫技巧時(shí),看到畫家的實(shí)際作品比僅僅閱讀畫家的創(chuàng)作理念更有幫助。圖像提供了直觀的視覺信息,幫助AI理解作者如何處理不同類型的視覺元素,以及如何將視覺內(nèi)容轉(zhuǎn)化為文字描述。
段落文字雖然重要性相對(duì)較低,但仍然對(duì)個(gè)性化效果有積極貢獻(xiàn)。這些段落通常包含作者引用圖表時(shí)的表達(dá)方式,比如"如圖所示"、"從圖中可以看出"等,這些表達(dá)習(xí)慣也是作者寫作風(fēng)格的一部分。
四、深度分析:當(dāng)AI遇到"志同道合"的參考資料
研究團(tuán)隊(duì)進(jìn)一步探索了一個(gè)有趣的問題:是否參考資料與目標(biāo)內(nèi)容越相似,個(gè)性化效果就越好?這就像是在學(xué)習(xí)模仿某位作家時(shí),是否應(yīng)該選擇與目標(biāo)作品最相似的范文作為參考。
為了回答這個(gè)問題,他們使用了兩種不同的相似度測(cè)量方法。第一種是BERTScore,它能夠測(cè)量?jī)蓚€(gè)文本在語義上的相似程度,就像是判斷兩個(gè)句子是否表達(dá)了相同的意思。第二種是ROUGE-L,它主要關(guān)注詞匯層面的重疊,就像是看兩個(gè)句子有多少相同的詞語。
通過計(jì)算每個(gè)目標(biāo)圖表與其參考圖表說明之間的相似度,研究人員將測(cè)試數(shù)據(jù)分為兩組:"風(fēng)格一致組"包含了那些參考資料與目標(biāo)高度相似的樣本,占總數(shù)的25%;"風(fēng)格分散組"則包含了其余75%的樣本,這些樣本的參考資料與目標(biāo)相似度較低。
實(shí)驗(yàn)結(jié)果證實(shí)了研究人員的假設(shè):當(dāng)參考資料與目標(biāo)內(nèi)容高度相似時(shí),個(gè)性化效果確實(shí)更加顯著。在"風(fēng)格一致組"中,使用參考資料后AI表現(xiàn)的提升幅度遠(yuǎn)大于"風(fēng)格分散組"。這就像是學(xué)習(xí)模仿莎士比亞寫十四行詩(shī)時(shí),如果參考的范文也是十四行詩(shī),效果會(huì)比參考其他體裁的作品更好。
但即使在"風(fēng)格分散組"中,參考資料仍然能夠帶來性能提升,只是提升幅度相對(duì)較小。這說明即便是風(fēng)格差異較大的參考資料,也能為AI提供有用的寫作風(fēng)格信息,只是效果沒有那么明顯。
這個(gè)發(fā)現(xiàn)對(duì)實(shí)際應(yīng)用具有重要指導(dǎo)意義。在構(gòu)建個(gè)性化系統(tǒng)時(shí),如果能夠智能地選擇與目標(biāo)內(nèi)容最相似的參考資料,就能獲得最佳的個(gè)性化效果。但即使無法做到精確匹配,任何來自同一作者的參考資料都比完全沒有參考要好得多。
五、技術(shù)細(xì)節(jié)揭秘:如何讓AI"讀懂"作者的表達(dá)習(xí)慣
整個(gè)研究的技術(shù)實(shí)現(xiàn)過程就像是精心編排的一場(chǎng)教學(xué)活動(dòng)。研究團(tuán)隊(duì)為每個(gè)AI模型設(shè)計(jì)了詳細(xì)的"學(xué)習(xí)指南",告訴它們?nèi)绾螐膮⒖假Y料中學(xué)習(xí)寫作風(fēng)格,然后應(yīng)用到新的圖表說明生成任務(wù)中。
在"裸考"模式下,AI收到的指令相對(duì)簡(jiǎn)單:"請(qǐng)為這張圖表生成說明文字,你可以參考圖表圖像和相關(guān)段落。"這就像是給學(xué)生一道作文題,讓他們自由發(fā)揮。
而在有參考資料的模式下,指令變得更加復(fù)雜和具體:"我們將為你提供來自同一篇論文的其他圖表的說明文字、圖像和相關(guān)段落。請(qǐng)仔細(xì)分析這些材料的內(nèi)容、語調(diào)、結(jié)構(gòu)和文體特征,然后基于這種分析,為目標(biāo)圖表生成一個(gè)保持相同寫作風(fēng)格的說明。"這就像是給學(xué)生提供了詳細(xì)的寫作要求和范文分析指導(dǎo)。
為了確保實(shí)驗(yàn)結(jié)果的準(zhǔn)確性,研究團(tuán)隊(duì)還開發(fā)了一套嚴(yán)格的"答案清理"流程。AI模型有時(shí)會(huì)生成包含推理過程或解釋文字的冗長(zhǎng)回復(fù),就像學(xué)生在答案中夾雜了大量的思考過程。研究人員使用GPT-4o-mini作為"助教",專門負(fù)責(zé)從這些回復(fù)中提取出純粹的圖表說明文字,去除所有不相關(guān)的內(nèi)容。
這個(gè)清理過程極其重要,因?yàn)樵u(píng)估標(biāo)準(zhǔn)需要的是最終的說明文字,而不是AI的思考過程。研究團(tuán)隊(duì)對(duì)100個(gè)隨機(jī)樣本進(jìn)行了人工檢查,確認(rèn)清理程序的準(zhǔn)確率達(dá)到100%,保證了實(shí)驗(yàn)結(jié)果的可靠性。
在少數(shù)情況下(總共56個(gè)案例,占總數(shù)的不到0.5%),AI模型完全無法生成有效的回復(fù),比如輸出空白內(nèi)容或明確表示"無法生成說明"。這些案例被排除在最終分析之外,就像考試中的無效答卷不參與成績(jī)統(tǒng)計(jì)一樣。
六、實(shí)驗(yàn)結(jié)果的深層含義:多模態(tài)個(gè)性化的價(jià)值所在
研究結(jié)果不僅驗(yàn)證了LAMP-CAP數(shù)據(jù)集的有效性,更重要的是揭示了多模態(tài)個(gè)性化在圖表說明生成中的巨大潛力。這就像是發(fā)現(xiàn)了一個(gè)全新的教學(xué)方法,不僅效果顯著,而且具有廣泛的應(yīng)用前景。
最引人注目的發(fā)現(xiàn)是,視覺信息在個(gè)性化過程中發(fā)揮的重要作用。傳統(tǒng)的個(gè)性化研究主要關(guān)注文本信息,就像是只關(guān)注作家的文字技巧而忽略了他們的視覺表達(dá)能力。但在圖表說明生成這個(gè)場(chǎng)景中,圖像信息的重要性僅次于說明文字本身,遠(yuǎn)超過了純文本的段落信息。
這個(gè)發(fā)現(xiàn)具有深遠(yuǎn)的理論意義。它表明在多模態(tài)場(chǎng)景中,不同類型的信息對(duì)個(gè)性化效果的貢獻(xiàn)是不平等的,我們需要重新思考如何設(shè)計(jì)個(gè)性化系統(tǒng)。單純依賴文本信息的傳統(tǒng)方法在多模態(tài)場(chǎng)景中可能無法發(fā)揮最佳效果,必須充分利用視覺信息的獨(dú)特價(jià)值。
從實(shí)際應(yīng)用角度來看,這些發(fā)現(xiàn)為開發(fā)更智能的學(xué)術(shù)寫作助手提供了重要指導(dǎo)。未來的系統(tǒng)可以通過分析用戶以往撰寫的圖表說明,學(xué)習(xí)他們的表達(dá)習(xí)慣和風(fēng)格偏好,然后為新的圖表生成符合用戶風(fēng)格的說明文字。這就像是擁有了一個(gè)真正了解你的寫作助手,能夠幫你保持文章的一致性和個(gè)人特色。
研究還揭示了個(gè)性化效果與參考資料質(zhì)量之間的密切關(guān)系。當(dāng)參考資料與目標(biāo)內(nèi)容越相似時(shí),個(gè)性化效果越明顯。這為實(shí)際系統(tǒng)的設(shè)計(jì)提供了重要啟示:應(yīng)該開發(fā)智能的參考資料選擇機(jī)制,優(yōu)先選擇與目標(biāo)圖表最相關(guān)的歷史樣本作為風(fēng)格學(xué)習(xí)的基礎(chǔ)。
七、研究局限與未來展望:完美系統(tǒng)路上的挑戰(zhàn)
就像任何開創(chuàng)性研究一樣,這項(xiàng)工作也面臨一些挑戰(zhàn)和局限,但這些局限反而為未來的研究指明了方向。研究團(tuán)隊(duì)以非常誠(chéng)實(shí)和開放的態(tài)度討論了這些問題,就像一個(gè)負(fù)責(zé)任的探險(xiǎn)家會(huì)詳細(xì)記錄旅途中遇到的困難和未探索的區(qū)域。
首先是數(shù)據(jù)來源的局限性。當(dāng)前的方法假設(shè)每個(gè)目標(biāo)圖表都能在同一篇論文中找到參考資料,但現(xiàn)實(shí)中有些論文只包含一張圖表,這就像是試圖從一個(gè)只有一道菜的菜單中學(xué)習(xí)廚師的烹飪風(fēng)格一樣困難。這種局限性在學(xué)術(shù)寫作的早期階段尤為突出,當(dāng)作者剛開始撰寫論文時(shí),可能還沒有足夠的內(nèi)容來提供個(gè)性化的參考信息。
其次是作者身份的復(fù)雜性問題。大多數(shù)學(xué)術(shù)論文都是多作者合作完成的,不同的圖表和說明可能由不同的作者撰寫,每個(gè)人都有自己獨(dú)特的表達(dá)習(xí)慣。這就像是試圖從一道由多個(gè)廚師共同完成的菜肴中學(xué)習(xí)單一的烹飪風(fēng)格,任務(wù)變得相當(dāng)復(fù)雜。雖然可以考慮使用作者的歷史作品來構(gòu)建個(gè)性化檔案,但學(xué)術(shù)寫作的合作性質(zhì)使這種方法的實(shí)施變得困難。
第三個(gè)挑戰(zhàn)是數(shù)據(jù)污染的風(fēng)險(xiǎn)。盡管研究團(tuán)隊(duì)使用了相對(duì)較小的GPT-4.1 Mini模型來降低風(fēng)險(xiǎn),但由于使用的是已發(fā)表的公開數(shù)據(jù),仍然存在AI模型在訓(xùn)練過程中可能已經(jīng)接觸過這些數(shù)據(jù)的可能性。這就像是讓學(xué)生參加考試,但考題可能在復(fù)習(xí)資料中出現(xiàn)過,影響了成績(jī)的客觀性。
最后是評(píng)估方法的局限性。當(dāng)前的評(píng)估主要關(guān)注生成說明與原始說明的相似程度,但高相似度并不一定意味著說明的質(zhì)量高或?qū)ψx者有用。這就像是評(píng)判一篇模仿作品時(shí),只看它與原作的相似程度,而不考慮它本身的藝術(shù)價(jià)值。未來的研究應(yīng)該包含人工評(píng)估,從實(shí)用性和可讀性角度評(píng)判生成說明的質(zhì)量。
盡管存在這些挑戰(zhàn),研究團(tuán)隊(duì)對(duì)未來充滿信心。他們計(jì)劃擴(kuò)展個(gè)性化檔案的組成部分,探索跨領(lǐng)域的泛化能力,并開展全面的人工評(píng)估研究。更令人興奮的是,他們正在開發(fā)一個(gè)實(shí)際的圖表說明寫作助手,通過分析用戶自己的文檔上下文來生成個(gè)性化的說明文字。
這項(xiàng)研究的價(jià)值不僅限于圖表說明生成領(lǐng)域。研究團(tuán)隊(duì)指出,多模態(tài)個(gè)性化的概念可能對(duì)更廣泛的應(yīng)用產(chǎn)生影響,包括多模態(tài)推薦系統(tǒng)等。這就像是發(fā)現(xiàn)了一個(gè)新的科學(xué)原理,它的應(yīng)用潛力遠(yuǎn)超出最初的研究范圍。
說到底,這項(xiàng)研究為我們展示了AI個(gè)性化技術(shù)發(fā)展的一個(gè)重要里程碑。從純文本的個(gè)性化到多模態(tài)的個(gè)性化,從簡(jiǎn)單的內(nèi)容生成到風(fēng)格敏感的創(chuàng)作,AI正在變得越來越善解人意,越來越能夠理解和適應(yīng)人類的個(gè)性化需求。
雖然距離完美的個(gè)性化圖表說明生成系統(tǒng)還有一段路要走,但LAMP-CAP為這個(gè)領(lǐng)域建立了堅(jiān)實(shí)的基礎(chǔ)。就像建造一座橋梁,第一根鋼梁的架設(shè)總是最關(guān)鍵的一步。這項(xiàng)研究不僅提供了寶貴的數(shù)據(jù)資源,更重要的是驗(yàn)證了多模態(tài)個(gè)性化的可行性和價(jià)值,為后續(xù)研究者指明了前進(jìn)的方向。
對(duì)于普通讀者來說,這項(xiàng)研究預(yù)示著未來學(xué)術(shù)寫作工具的巨大進(jìn)步。想象一下,不久的將來,當(dāng)你撰寫包含大量圖表的報(bào)告或論文時(shí),AI助手不僅能幫你生成準(zhǔn)確的說明文字,還能完美地匹配你的寫作風(fēng)格和表達(dá)習(xí)慣,讓整篇文章保持一致的個(gè)人特色。這種技術(shù)的成熟將大大提高學(xué)術(shù)寫作的效率和質(zhì)量,讓研究者能夠?qū)⒏嗑ν度氲胶诵牡难芯抗ぷ髦腥ァ?/p>
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.