6月27日,“正和島2025案例共學(xué)年會暨AI+先行者創(chuàng)新大集”在合肥繼續(xù)進行,本次大會以“向新力”為主題,千余位企業(yè)家共同探討AI時代下的組織變革與商業(yè)格局。
在大會上,科大訊飛董事長劉慶峰以《解放生產(chǎn)力 釋放想象力——通用人工智能技術(shù)進展及典型應(yīng)用》為題,做了一場精彩的演講。
在分享中,劉慶峰預(yù)判今年是全民AI和全行業(yè)AI的元年。面對美國對中國高端算力芯片的限制,中美在本輪大模型競爭中差距縮短至3到6個月,不會再形成代差。他認為國產(chǎn)自主可控比以往任何時候都更加迫切,我們必須堅定地在國產(chǎn)化平臺上發(fā)展通用人工智能。
以下是劉慶峰在正和島案例共學(xué)年會上的演講全文,以饗讀者,內(nèi)容有刪減。
口 述:劉慶峰 科大訊飛董事長
編 輯:明瑞
來 源:正和島(ID:zhenghedao)
一、大模型在高考中的表現(xiàn)
我想跟大家聊一下關(guān)于人工智能,尤其是以大模型為代表的通用人工智能技術(shù)的最新發(fā)展和應(yīng)用。
現(xiàn)在,人工智能的應(yīng)用正在深刻地解放著千行百業(yè)的生產(chǎn)力,讓人們更有時間去做更有想象力、更有意思的事情。
今天,大家都太忙、太辛苦了,各行各業(yè)如何借助人工智能技術(shù),從這種無比緊張、過度飽滿的工作中,釋放出來,去做更有意義的事情,暢想更好的未來,這正是我們在2023年5月6日發(fā)布科大訊飛星火1.0時所秉持的基本理念。
如今,大家用人工智能各展所長,做自己最擅長的事情,而科大訊飛的理念始終如一,那就是希望通過人工智能技術(shù)的發(fā)展,真正解放生產(chǎn)力,釋放想象力。
這個技術(shù)進步的怎么樣?人工智能大模型在高考中的表現(xiàn)備受關(guān)注。這兩日,高考成績公布,這是莘莘學(xué)子歷經(jīng)十年寒窗苦讀,第一次迎來人生最大時刻。語文考試一結(jié)束、作文揭秘時,上海報業(yè)集團旗下的界面新聞馬上邀請了兩位有高考經(jīng)驗的資深特級教師,對國內(nèi)六家主流大模型進行高考作文評比,包括DeepSeek、豆包、文心一言、通義千問、騰訊元寶。
其中訊飛星火有幸得了第一名,作文滿分60分,我們拿下了53分。在高考英語方面,6月9日作文題目公布后,新京報率先組織了評測,滿分20分的情況下,訊飛星火得了19.5分。
首屆供應(yīng)鏈博覽會,李強總理見到我時,第一句話就是:我們中國人做大模型,不能只在寫詩作畫等傳統(tǒng)文化上還不錯,自然科學(xué)領(lǐng)域到底怎么樣?這才是國家真正需要的。
訊飛星火在數(shù)學(xué)的表現(xiàn)如何呢?6月8日高考數(shù)學(xué)卷一揭曉,IT之家便組織了6家主流大模型以及美國最新推出的OpenAI-O3進行測試。
OpenAI-O3的核心優(yōu)勢是在數(shù)學(xué)、科學(xué)、代碼等方面有很大突破。而在今年高考數(shù)學(xué)一卷滿分150分的測試中,7家模型里,訊飛星火和DeepSeek分別突破140分。
訊飛星火是4月20日的版本,DeepSeek是5月28日發(fā)布的,再加上DeepSeek沒有多模態(tài),而訊飛星火具備多模態(tài)能力,能通過OCR直接做數(shù)學(xué)題目,這很棒。
這次評測中,我們可以看到當前大模型做理科的能力水平,而且高考數(shù)學(xué)題目一定要專門封閉命題,不可能提前做訓(xùn)練,因此它完全展示了大模型對數(shù)理邏輯推理的表現(xiàn)。不僅在高考數(shù)學(xué),在國外奧數(shù)、美國各類競賽以及英語、數(shù)學(xué)、物理等科目上,國內(nèi)大模型的表現(xiàn)都非常優(yōu)秀。
今天,我們對大模型的期望不僅僅是高考考得好,訊飛做教育,希望通過大模型技術(shù)讓試卷批改得更精準,為孩子提供更精準的學(xué)習(xí)資源推薦,讓孩子們學(xué)得更愉快,心理更健康,它要做的是能夠幫助我們構(gòu)建更美好的未來。
過去同時期,它的數(shù)學(xué)最高分不到110分,一年之內(nèi)進步明顯,估計明年能接近滿分。按照目前進度,預(yù)計兩年內(nèi)大模型的水平將超過諾貝爾獎級別。實際上,去年諾貝爾物理學(xué)獎、化學(xué)獎都給了AI4S(從事人工智能與科學(xué)交叉研究)的科學(xué)家們。
二、今年是全民AI元年
今天,AI到底發(fā)展到了什么階段?
先來看一組數(shù)據(jù)。去年,人工智能領(lǐng)域的創(chuàng)業(yè)投資總額超過了1000億美元,這還不包括英偉達、微軟、谷歌等巨頭的大規(guī)模投資布局,同比增長了80%。在全球經(jīng)濟發(fā)展不確定性的背景下,這個增長速度很快。
在中國,算力規(guī)模已經(jīng)達到72.53萬匹,增長了74%。大模型的公開招投標增長了十幾倍。去年春節(jié)前,我國生成式人工智能的規(guī)模已經(jīng)達到了2.49億,占總?cè)丝诘?7.7%。
從技術(shù)發(fā)展的角度來看,大模型的應(yīng)用已經(jīng)到達了一個關(guān)鍵階段。杰弗里·摩爾的《跨越鴻溝》,每次重讀都會非常有啟發(fā),這本書直到現(xiàn)在還被硅谷奉為創(chuàng)業(yè)的經(jīng)典教材。一個新技術(shù)出來,早期創(chuàng)新者占總?cè)藬?shù)2.5%,而有遠見的長線者、極客主義者占13.5%。當這兩波人跨越之后,就進入了實用主義用戶階段。
這種跨越鴻溝為什么一定是16%的統(tǒng)計概率?16%代表在人群中相互影響到了一定的濃度,每一桌吃飯8~10人中,總有一個人在用新技術(shù),他會感染周圍的人。無論從語音識別技術(shù),手寫識別等新技術(shù)的發(fā)展過程中,都經(jīng)歷了這樣的階段。如今,大模型的應(yīng)用也基本達到了這一狀態(tài)。
2025年將是全民AI和全行業(yè)AI的元年,大家或多或少都下載過大模型的各種應(yīng)用,知道它能做什么,理解它對生活和生產(chǎn)帶來的變革。
大模型是人工智能在通用人工智能發(fā)展的一個非常標志性的成果,大致可以分成幾個維度:
一是運算智能。機器能存會算,這是支撐認知智能發(fā)展的基礎(chǔ);
二是感知智能。機器能聽會說、能看會認。語音識別技術(shù)已經(jīng)超過專業(yè)速記員;語音合成技術(shù)可以給中央電視臺配音;機器翻譯超過了99%的大學(xué)六級考生,已經(jīng)通過國家翻譯師資格考試。人類看不見的紅外、紫外,聽不見的超聲、次聲波,機器全都能感知到。
三是認知智能。科大訊飛在2017年新一代人工智能規(guī)劃出臺之后,承建了中國唯一的認知智能國家重點實驗室。隨著認知智能在多模態(tài)、具身智能等領(lǐng)域的進步,運動智能也相互呼應(yīng),推動了機器人行業(yè)的快速發(fā)展。未來,懂知識、能進化、能陪伴、善學(xué)習(xí)的機器人將進入到億萬家庭,進一步推動認知智能的極大進步。
從技術(shù)角度看,大模型的發(fā)展經(jīng)歷了幾個階段:2017年,生成式預(yù)訓(xùn)練方法推出;2018年就有了GPT1.0,這種預(yù)訓(xùn)練的方法,強化學(xué)習(xí)的出現(xiàn)使得機器在數(shù)學(xué)考試中的得分從100分左右提高到140分;之后,技術(shù)從強化學(xué)習(xí)、慢思考進入到世界模型發(fā)展,更真實地理解客觀世界,所以技術(shù)在不斷快速發(fā)展。
在發(fā)展過程中,訊飛的語音合成技術(shù)不僅為中央電視臺配音,還支持80多種語言翻譯,覆蓋200多個國家和地區(qū),這些系統(tǒng)參數(shù)在幾百萬到2000萬之間。
大模型是什么概念?GPT剛推出來時,是1750億的浮點參數(shù),這種超大規(guī)模的深度神經(jīng)網(wǎng)絡(luò),一般都是千億以上參數(shù),再用海量多元多模態(tài)的文本、視頻、語音等各種數(shù)據(jù)送進去訓(xùn)練,在一定程度上,讓機器具備跨領(lǐng)域的智慧涌現(xiàn)。其核心能力包括文本生成、語言理解、知識問答、邏輯推理、數(shù)學(xué)能力、代碼能力以及多模態(tài)能力等七個維度。
2023年,長三角人工智能產(chǎn)業(yè)鏈聯(lián)盟和中科院人工智能產(chǎn)學(xué)研聯(lián)盟聯(lián)合設(shè)計通用人工智能的評測體系和技術(shù)維度,對七大維度給出400多項細分任務(wù)類型,今天已擴展至1000余項細分任務(wù)。
而這些能力就會帶來專家級的虛擬助手,顛覆傳統(tǒng)的編程方式,成為科研加速器,顛覆整個科研范式以及改變信息分發(fā)、獲取、內(nèi)容生產(chǎn)和人機交互的模式。
三、中美AI大模型差距,縮短至3到6個月
中國的高考只是觀察人工智能發(fā)展的一個切面。在國際上,如國外的奧數(shù)等賽事中,人工智能的應(yīng)用也十分廣泛。不過,從整體技術(shù)發(fā)展情況來看,在本輪以GPT框架預(yù)訓(xùn)練到強化學(xué)習(xí)為代表的大模型競爭中,中美之間的差距正在不斷縮短。
美國如OpenAI、Anthropic等頭部公司慢慢聚焦,把那些數(shù)學(xué)、物理等領(lǐng)域的天才們,培養(yǎng)成人工智能研究專家,所以在科學(xué)模型的構(gòu)建上,美國獨樹一幟。
中國也挺卷,“百模大戰(zhàn)”卷到頭部企業(yè)最多只剩下5~10家。去年9月13日,OpenAI推出深度思考模型,在做數(shù)學(xué)、深度推理上大幅度提升。今年1月,我們推出非常小的13B深度推理模型,由于算力限制,我們必須研發(fā)很小的模型,國產(chǎn)算力才能支撐得住。
此后,DeepSeek、豆包、阿里等企業(yè)一路你追我趕,在通用大模型這一波競爭中,中美兩國的實力已經(jīng)非常接近,差距僅在3到6個月之間,絕對不會再形成代差。
在此背景下,美國對我們限制了什么?當DeepSeek一出來,美國非常震驚。因為此前他們集體對中國大模型和科技創(chuàng)新能力有誤判,突然看到,中國發(fā)展速度離美國這么近,所以美國進一步加大對算力的限制。
2022年10月7日起,美國對支撐我們大模型和人工智能芯片限高限寬。限高是指單芯片算力不能超過312T;限寬是指大模型數(shù)據(jù)交換帶寬不能超過400G。后來,美國又進一步宣布全面禁售,連閹割版的芯片都不給了。
今年美國的新規(guī)定是,所有出口管制擴展到了三星、臺積電等芯片代工廠十幾納米芯片的出口管控,之前我們可以用堆疊工藝變成7納米,現(xiàn)在這些路徑全部被堵死了。
在這樣的限制下,中國大模型和人工智能基礎(chǔ)設(shè)施上,與美國差距僅在3到6個月之間,但我們的算力支撐到底怎樣?我想告訴大家,剛才說到的高考語文、英語和數(shù)學(xué)的主流模型中,只有訊飛一家是基于國產(chǎn)算力訓(xùn)練的。而DeepSeek和豆包等企業(yè)全是基于英偉達芯片訓(xùn)練的,國產(chǎn)算力訓(xùn)練大模型壓力非常大。
2022年11月30日ChatGPT推出時,美國對中國的芯片限制已經(jīng)限高限寬,華為的910B芯片算力為113T,與美國的基本一致,帶寬規(guī)定不能超過400G,而中國實際為392G。
理論上,中國應(yīng)該能達到A100或A800芯片80%到90%的性能。可那時候,同樣的硬件技術(shù)下,我們在訓(xùn)練大模型的效率上只有30%。
任正非在華為組建了有史以來最高規(guī)格的特戰(zhàn)隊,到2023年10月,我們聯(lián)手把訓(xùn)練效率做到95%。因此,2024年1月30日,我們推出了第一個基于國產(chǎn)算力訓(xùn)練的中國千億大模型——訊飛星火3.5,為國家兜了底。
去年9月13日,DeepSeek R1深度思考模型的技術(shù)很出圈,由于我們有很多積累和基礎(chǔ),僅用一個月時間,我們就復(fù)現(xiàn)了所有技術(shù)。
但當我們使用國產(chǎn)算力訓(xùn)練時,原本在原有算法中達到95%的效率卻降到了25%,我們又花了三個多月的時間,將效率提升到了73%。在高考中,這一技術(shù)得到了驗證。今天中國的大模型訓(xùn)練一定是在全國產(chǎn)算力的基礎(chǔ)上,用更少的算力、更小的模型參數(shù),訓(xùn)練出與全球?qū)说募夹g(shù),我們才有可持續(xù)發(fā)展的底氣。
為什么能做到?我們的模型是70B,如果一個島親機構(gòu)要用滿血版的R1,需要兩張卡,而如果要深度訓(xùn)練,R1無法做到,你要自己用開源模型訓(xùn)練,這可能需要512張卡。而我們使用星火X1,32張卡就可以了。OpenAI O1的規(guī)模更大,可能要上萬張卡。能做到這一點,是因為中國有自己的算法創(chuàng)新。
快思考是迅速給出答案,而慢思考通過深度推理反復(fù)驗算,給出最好的模型。但V3和R1是分別單獨訓(xùn)練的,一個企業(yè)要安裝兩套系統(tǒng)。我們在國內(nèi)率先使用一個框架,企業(yè)裝一套系統(tǒng),可以自由切換快思考和慢思考模式,想用快的用快的,想用慢的用慢的。
正因為有這些技術(shù)創(chuàng)新,才使我們能夠在自主可控的通用底座上快速訓(xùn)練出行業(yè)模型,從而進入到企業(yè)場景。通常,一個新技術(shù)的規(guī)?;瘧?yīng)用的技術(shù)門檻要達到89%到90%的準確率。
例如,手寫識別在摩托羅拉做到89%后,所有人開始用手寫識別;語音識別在手機上的識別準確率達到90%后,用戶數(shù)量從幾十萬增長到上億,如今其準確率已達到98%。
四、大模型的典型應(yīng)用場景
今天,通用大模型在初步使用中常出現(xiàn)幻覺問題,有很多“討好型人格”特征,平均準確率約78%左右。相比之下,行業(yè)模型經(jīng)過精準訓(xùn)練后,準確率可達80%以上,場景定義清晰,準確率能達到95%。
這個基本框架下,前提是什么?我們是否有全自助可控的平臺上訓(xùn)練出自己的底座模型。比如教育,因為有自主可控的模型,可以把機器的思維鏈轉(zhuǎn)化為教師的教學(xué)思維鏈,以問題導(dǎo)向,打造中小學(xué)教師助手,這些性能指標明顯優(yōu)于GPT4.5。
在醫(yī)療領(lǐng)域,我們的大模型已通過國家職業(yè)醫(yī)師資格考試,超過了99%的考試學(xué)生,我們與葛均波院士合作的心內(nèi)科應(yīng)用,以及與安徽醫(yī)科大學(xué)校長翁建平教授合作的糖尿病專業(yè)應(yīng)用,均已達到超越主治醫(yī)師水平的成效。隨著深度推理技術(shù)的出現(xiàn),今年的大模型在多個專科領(lǐng)域?qū)崿F(xiàn)了頂級水平的突破,就是因為有了一種快速的行業(yè)訓(xùn)練工具鏈。
今年兩會后,最高人民檢察院引入人工智能技術(shù),用大模型來推動司法的公正,做類案推送、法條對應(yīng)、輔助量刑和文書生成等十項能力,我們用專業(yè)模型,準確率能提升到83%,很多領(lǐng)域超過90%。前兩天,工信部在能源領(lǐng)域的碳排放評估測試中,大模型在48名考生中位列第五,躋身前20%。
這些技術(shù)進步推動了大模型在多個領(lǐng)域的廣泛應(yīng)用。
在教育領(lǐng)域,大模型可擔(dān)任口語、科學(xué)、編程教師及心理輔導(dǎo)員。在醫(yī)療領(lǐng)域,已支持近4億次電子病歷和10億次輔助診斷,糾正了170萬次不合理診斷和9000多萬次不合理處方,并致力于個人健康助手的開發(fā)。在翻譯領(lǐng)域,大模型在大學(xué)六級考試中超越99%的考生,其應(yīng)用場景從旅游擴展到商務(wù)談判和合同簽訂支持,尤其在抗噪、遠距離交互、離線翻譯和專業(yè)領(lǐng)域表現(xiàn)出色。
此外,我們還開發(fā)了圖片文案生成和視頻制作工具,支持多國語言,助力農(nóng)產(chǎn)品和工業(yè)產(chǎn)品出海。
與島親出海相關(guān)的,比如在翻譯領(lǐng)域,大模型在大學(xué)六級考試中超越99%的考生,今天翻譯機主要變化是,不再是出國旅游、聊天、點菜之類的,還支持商務(wù)談判和合同簽訂,離線狀態(tài)下,英語、俄羅斯語、法語、德語等都有。
一個增長較快的場景是,中國企業(yè)出海建廠,在工廠有噪聲環(huán)境下可以抗噪,并支持遠距離交互,這是非常大的突破。此外,我們還開發(fā)了一些工具,無論是農(nóng)產(chǎn)品出海,還是工業(yè)產(chǎn)品出海,給出幾張圖片、一個要求,可以直接生成文案或視頻,同時配上所需要的任何國家的語言。
我們發(fā)布了業(yè)界第一個同傳大模型,自己錄一段中文,可以自動生成各國語言,且跟視頻文本、手勢都要對齊。今年,東盟博覽會上正式發(fā)布面向東盟電商的自動翻譯支持平臺。
在辦公領(lǐng)域,打造每個人的辦公助手。今天會議,如果拿著訊飛辦公本,可以全程錄音,并自動轉(zhuǎn)寫成文字,自動生成會議紀要和代辦事項。這個軟件到了什么程度?今年總用戶數(shù)過了9000萬。即便是三五個人的小型會議,用手機錄到后臺,也能馬上提煉每個人的觀點,并形成綜合結(jié)論。
此外,我們與中國移動合作,大家經(jīng)常在開車或走路時,接到領(lǐng)導(dǎo)的工作電話,申請這個功能后,電話一掛斷,會議紀要就出來了,這些功能大家都很歡迎。
在工業(yè)領(lǐng)域,今天大模型能支持研產(chǎn)供銷服管幾乎每個環(huán)節(jié),我們通過前端的麥克風(fēng)陣列和語音芯片、視頻芯片,讓所有設(shè)備“能聽會說、能看會認”,再結(jié)合后端的大模型,實現(xiàn)設(shè)備“能理解、會思考”。
在家電領(lǐng)域,第一個大模型招標的是海爾,我們中標了,其后又與TCL、美的等家電企業(yè)積極合作。2022年,我們在家電行業(yè)的芯片出貨量達到1300多萬片,2024年增至4000多萬片,預(yù)計今年將突破6000萬片。
人機物萬物智能互聯(lián)時代正在到來。在這個基礎(chǔ)上,無論是產(chǎn)業(yè)數(shù)字化還是數(shù)字產(chǎn)業(yè)化,其實都需要用代碼來連接現(xiàn)實世界和虛擬世界,今天用軟件來大幅提效,已經(jīng)成為行業(yè)共識。
今年計算機和軟件專業(yè)首次出現(xiàn)就業(yè)率和工資下滑的情況,OpenAI說ChatGPT已經(jīng)通過了Google二級程序員測試,這個崗位年薪18萬美金,這是代碼的進步。
再舉幾個例子,訊飛內(nèi)部的智慧黑板、智慧課堂產(chǎn)品,從Windows系統(tǒng)遷移到Linux系統(tǒng)需要三個月的開發(fā)周期,現(xiàn)在一個月就搞定了。
這種效率的提升,不僅加快了軟件開發(fā)的速度,還降低了技術(shù)門檻,使得每一個不會用編程、不懂技術(shù)的員工,只需要洞察崗位需求,直接下指令,能讓模型幫你完成相應(yīng)的工作,從而創(chuàng)造一個又一個智能體,極大地豐富了創(chuàng)新創(chuàng)造的可能性,不再受限于技術(shù)門檻,關(guān)鍵在于我們是否有想象力。
在招投標系統(tǒng)中,利用人工智能技術(shù),不再只是簡單寫一篇文章,好玩有趣,還可以精準解讀非常嚴肅的標書,讀懂標書的關(guān)鍵要求和評標方法,然后自動檢測標書是否存在造假或雷同問題,并提出自動替換建議、查找預(yù)警信息,甚至生成砍價建議。最近國家發(fā)改委決定全國推廣,在合肥市招投標中心的實踐中,大模型將專家評審一致性從75%提升到95%。
今天,大模型的應(yīng)用場景非常多,然而,最重要的是要將通用大模型成功轉(zhuǎn)化為行業(yè)模型并實現(xiàn)落地,需要解決一系列關(guān)鍵問題。
例如,一定要知道怎么建算力,是利用國產(chǎn)平臺又或是結(jié)合國產(chǎn)和英偉達的混合算力調(diào)度平臺。又怎么整理數(shù)據(jù),用自動化工具,效率提升至24倍。怎么訓(xùn)模型,企業(yè)是用一個小的幾千萬參數(shù)的模型,還是要用大模型上千億參數(shù),這要根據(jù)實際情況做專門的對應(yīng),落到場景里,保證安全。最后,用看得見、摸得著的場景和統(tǒng)計數(shù)據(jù),證明大模型應(yīng)用的實際效果。
我們只要告訴智能體一段話或一句話,智能體會把這個事情分解成多個任務(wù),找到需要調(diào)用的工具,并查找所需內(nèi)容,然后把每一個完成的任務(wù)完串在一起,最終完成整體目標,這叫智能體。
以中石油為例,5000多名員工參與崗位提升大賽,1000多支隊伍開發(fā)了2000多個智能體,其中100多個獲獎。目前,這些智能體在中石油的100多個辦公應(yīng)用和300多個生產(chǎn)和銷售過程中產(chǎn)生了實實在在的效果。
今天大模型時代,絕不是單個企業(yè)的競爭,而是整個生態(tài)體系的繁榮,要讓我們的技術(shù)給到更多的企業(yè)應(yīng)用,要讓更多的創(chuàng)新者去開發(fā)。
在訊飛人工智能平臺上,去年一年新增了170萬開發(fā)者團隊,做出來近100萬新應(yīng)用。這中間最大特點是,以前的應(yīng)用大部分是以社交、娛樂為主的APP,現(xiàn)在54%的應(yīng)用與工業(yè)相關(guān)。
中國大模型在這一波紅利中,與美國的差距已縮小至3到6個月,在行業(yè)應(yīng)用的紅利,中國一定會更率先拿到。
作為產(chǎn)業(yè)的開發(fā)者和創(chuàng)新者,我們需關(guān)注源頭技術(shù)創(chuàng)新,與美國的差距越來越近更理性地看,這是原創(chuàng)與追趕的差距,我們在學(xué)習(xí)它,它是原創(chuàng)。如果我們不能從源頭基礎(chǔ)上對人工智能進行更長遠的布局,未來很難最終勝出。
前天我們在討論合肥這座城市的特點,這座城市正在布局GPT框架人工智能計算方法,怎么與量子計算深度結(jié)合,從而徹底解決算力焦慮問題。又怎么利用人工智能助力可控核聚變技術(shù),將原本需要10天的模擬試驗縮短至1天,準確率從93%提升至97%。如果可控核聚變技術(shù),能輸入1度電產(chǎn)生超過1度電,實現(xiàn)能量正輸出時,將徹底解決能源問題。
我們期待跟大家一道,在正和島年度大會上深入交流,共同面向未來,解放生產(chǎn)力,釋放想象力。謝謝大家!
排版| 小元微瀾 輪值主編| 夏昆
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.