一年提升上百分,這可能是最后一代能被考住的 「AI」。
作者|Li Yuan
編輯|鄭玄
過去一年,大模型的世界幾乎是「狂飆」的同義詞。技術以周為單位迭代,能力邊界從寫詩作畫,一路拓展到視頻生成和科學發現。
然而,拋開那些宏大敘事,我們該如何為 AI 的能力找到一個精準、客觀的刻度?
恐怕沒有哪種方式,比「高考」更能直抵每一個中國人的內心。
去年,極客公園就做過一期。延續去年的傳統,極客公園今年再次搭建「AI 高考」考場,讓國內外主流大模型再次走進考場。
再次走入考場的「AI 考生」們,不僅治好了去年文科偏科的毛病,還取得了足以考進山東省內 1000 名的高分。
然而,就在我們以為它已經「進化」時,它卻又常在意想不到的地方,暴露了自己真實的「智商」。
一些關鍵發現如下:
- AI首次有望沖擊頂尖學府:今年,AI 的綜合能力首次展現出足以考上頂尖學府的潛力。與 2024 年相比,所有參與測試的大模型在文理科成績上均實現了顯著飛躍。由于山東省采取賦分的報考策略,無法直接與分數段相比較,我們估計此次高考的狀元豆包,能夠排進全省的 500-900 名,考入人大、復旦、上海交大、浙大這些名牌大學的人文社科類專業。
- 大模型不再嚴重偏科,理科進步更快:各大模型的文科總分平均增長了 115.6 分,理科總分平均增長了 147.4 分。盡管理科的增速更為迅猛,但其 181.75 分的平均總分仍低于文科的 228.33 分??傮w來看,今年大模型的總分表現已不再嚴重「偏科」。
- 數學能力大幅增強,超越語文、英語:數學是本年度進步最顯著的科目,平均分較去年提升了 84.25 分。AI 在數學上的表現甚至超過了語文和英語,這預示著未來 AI 可能更擅長處理邏輯性強和有標準化解題路徑的題目。
- 多模態能力成為拉開差距的關鍵:去年到今年,模型的視覺理解能力顯著提升,這一點在包含大量圖像題的學科中尤為突出。與去年相比,物理和地理的平均分提升了約 20 分,生物提升了 15 分?;瘜W科目整體表現稍弱,僅「豆包」模型及格,但全員平均分也比去年提高了 12.6 分。作為彩蛋,我們今年也嘗試讓 AI 在視頻流中答題。
01
從一本到頂尖大學
如果說去年的 AI 還只是一個剛摸到一本線的優秀生,那么今年,它們已經成長為足以沖擊中國頂尖學府的學霸。
這背后,究竟發生了怎樣的蛻變?
在深入具體的變化之前,我們先介紹一下此次參與考試的國內外考生:
豆包、 DeepSeek(R1-0528 版)、ChatGPT(o3)、元寶(Hunyuan t1)、Kimi(k1.5)、文心一言、通義千問。
為了更貼合讀者的使用體驗,本次評測均在各模型的公開 PC 端進行,測評采取采樣兩次取平均分的形式。
目的是考察模型的綜合能力,此次測評的方式是直接讓模型識別圖像作答。DeepSeek-R1 目前仍然不支持圖片識別作答,因此只測試了純文字題目,最終成績參考性不強。
其他測試細節如下:
- 此次測試選用 2025 年新高考山東卷作為本次評測的測試卷。原因有二:首先,山東卷是網絡上能最快獲取到的高考試卷之一,保證了評測的時效性。其次,它的綜合難度在各省份中名列前茅——其語文、數學、英語三科采用全國一卷,其余科目則為自主命題。這樣一把高難度的「標尺」,更能探知當前大模型能力的上限。
- 為保證公平并考察模型的通用基礎能力,在可以關閉模型聯網能力的產品中,統一關閉了模型的聯網功能,以杜絕「搜題」的可能。o3 和文心無法關閉聯網,不過檢查模型思考過程發現,文心沒有發生聯網搜題的情形,o3 發生少量搜題情形,但沒有明顯收益,得分率反而低于非聯網答題。同時,我們默認開啟了深度思考模式,但沒有開啟研究模式,以模擬用戶在標準交互下的即時問答場景。
- 非選擇題各學科分別請兩名專業同學打分,如存在題目分值 1/6 以上的差異,則引入第三人討論定分(與真實高考判卷流程一致),并邀請參與過真實高考打分的高中老師抽檢,對存在差異的題目統一標準。
- 在評分環節,我們做了兩項特殊處理:我們特邀了資深教師進行對 AI 作文進行匿名評審,以保證客觀公正。此外,由于無法獲取英語聽力部分的試題,我們設定所有模型在該項上均計為滿分。
最終,各位考生的成績如下:
過去一年,大模型的深度思考能力,帶來了模型能力的明顯進步。
模型不再不是直接產出答案,而是逐步分析、分解問題、檢查中間結果,甚至自我修正,帶來了模型在數理考試中的表現的大幅提升。
總分為 150 分的數學考試中,即便是本次測試中表現最差的 AI 模型,也拿下了 128.75 分的高分——這在人類考生中也屬于優秀水平。
而回顧去年,表現最好的模型,也只達到了 70 分,連及格線都沒到。
數學能力的進步,直接帶動了今年大模型整體高考成績的大幅提升。
多模態能力,成為決定大模型能力表現差別的另一個關鍵因素。
在去年的高考測試中,不少模型還不具備成熟的圖片識別能力。極客公園當時采用的評測方式是:能識圖的模型使用圖片配合文字輸入,而無法識圖的模型則只輸入文字,同時輔以 Markdown/LaTeX 格式幫助識別公式。
而進入今年,多模態能力是主流模型的標配功能。因此,我們首次在測試中采用純圖片題目測試(DeepSeek除外)。
在多個模型中,豆包、ChatGPT最先進的模型都是多模態版,在圖像問題上體現出明顯優勢。
Qwen3、文心 X1 都是語言模型,處理圖像問題時可能是用 OCR 識別文字后回答,或是調用視覺模型,在圖像類問題上表現較弱。
不過,即使是圖像問題得分最高的豆包和 ChatGPT,圖像問題的得分率僅為 70%,相比文本問題 90% 的最高得分率有較大差距,可見大模型在多模態理解和推理上仍有很大的提升空間。
可以預見的是:隨著多模態能力的持續進步,明年AI的高考成績還會繼續提升??疾贿^AI,終將成為大多數人類的常態。
然而,AI 終究沒有拿下全滿分的成績。是什么絆住了學霸級的 AI?答案可能比想象中的有趣。
02
數學逼近滿分的 AI 天才們,
齊齊敗在一道基礎題上
在整場 AI 高考的測評中,「AI 考生」復讀了一年后,在數學科目上的進步十分矚目。
在 2024 年的測評中,當時的 AI 考生們在填空題和解答題上表現慘淡,得分普遍在 0 至 2 分之間徘徊,最終 9 款參評模型的數學成績的平均分僅為 47 分。
而今年,則完全不同。
可以看出,無論是客觀選擇題,還是復雜的主觀解答題,新一代大模型的正確率都今非昔比。這清晰地表明,大模型自身的能力,尤其是核心的推理能力,已經取得了根本性的突破。
如果說去年的模型還只是一個能勉強套用求導、三角函數等基礎公式的「初學者」,那么今年的模型,則已經進化成一個能夠從容應對復雜推導和證明的「解題高手」了。
一定程度上,這樣的結果在預料之中。自從 AI 進入推理模型時代,一個標志性進展便是數理能力的大幅提升。
當模型擁有了自我思考與自我糾錯的能力,它就像一個從前張口就回答問題的孩子,成長為一個會先深度思考再給出答案的大人,邏輯能力實現了質的飛躍。
要知道,今年高考新課標一卷的數學題被考生普遍認為難度極高,「像競賽卷」,導數、圓錐曲線等壓軸題思路晦澀,計算量極大,甚至出現「學霸考哭」的現象。
然而,面對這樣一份高難度試卷,頂尖的大模型們依舊表現得游刃有余。
相較之下,AI 的多模態能力的進展倒還在其次。數學科目中,只有 20 分的圖像問題,不是此次模型大幅度提分的重點。而大多數模型,也都在圖像題中取得了 15 分的成績。
為什么是 15 分?
這就很有趣了。這些整體都考了 130 分以上的大模型,放在人類社會里,也算是數學尖子生了,竟然在同一道選擇題上出現了錯誤。
難住他們的,不是什么壓軸大題,而是一道單選題——甚至不是很難的單選題。
這道題的數學原理非常簡單,是一道基礎的向量加減法題。只需在圖上連接 (0,2) 與 (2,0) 兩點,即可得到目標向量,模長 2 倍根號 2。
即便對數學不甚了解的人,通過肉眼觀察圖中的線段,也能估算出其長度不會超過 3.3。
然而,就是這樣一道題,難住了所有數學學霸 AI。
核心矛盾在于:題不難,但圖難。
對于大模型而言,這張圖的視覺信息極其混亂:虛線、實線、坐標軸、數字、文字相互交織,甚至文字與關鍵線段存在多處重疊。這種視覺上的「臟數據」,成為了 AI 精準識別的噩夢。
以本次數學表現最佳的豆包為例,它的解題過程暴露了問題的根源:它從最開始讀取題目信息時,就已然出錯。
從題目就讀錯了的情況下,無論其背后的數學推理能力有多么強大,也終究是無源之水,無本之木。
03
AI 寫作文:擅長舉例子,但不擅長思辨性地升華
作為所謂大語言模型,語文和英語一向是 AI 的傳統強項。
不過有趣的是:在大模型的數理邏輯大幅進步后,大模型的語文和英語能力反而顯得有點不夠看了。
這與現實世界也是一致的:一名頂尖考生或許能在數學上拿到滿分,卻極難在語文科目上獲得同等分數。AI似乎也觸碰到了同樣的瓶頸。
仔細研究語文卷面可以發現,AI 的失分點頗為有趣。在選擇題部分,除豆包和 DeepSeek-R1 以外,其余模型的錯誤率均在 20% 以上。
這種現象或許揭示了 AI 與人類不同的一個困境:對于人類考生,組織語言、闡述觀點時,可能更容易因疏漏而失分;但對于 AI,要讀一段長材料,在一組高度迷惑性的選項中,精準辨析每一個細微的語義差別和邏輯陷阱,難度可能反而更高。
而在備受矚目的作文題上,AI 的表現則延續了去年的趨勢:平均分高于人類,但難有真正的佳作。
去年,特邀閱卷老師的評價就已指出,AI 作文大多屬于穩妥的「二類文」,很少偏題,但因其深刻性、豐富性、創造性不足,難以產生動人心弦的「一類文」,其結尾部分的升華更是套路化明顯。
今年,依舊如此。
7 大模型整體均分 50.75 分,均分區分度較低,各模型能做到立意準確、語言流暢、論據豐富,但論述不深刻,舉例雷同,相比人類范文模型作答缺少溫度和共情。
今年的新課標卷的語文作文考題為:
全國一卷作文「民族魂」
閱讀下面的材料,根據要求寫作。(60 分)
他想要給孩子們唱上一段,可是心里直翻騰,開不了口。
——老舍《鼓書藝人》
假如我是一只鳥,我也應該用嘶啞的喉嚨歌唱
——艾青《我愛這土地》
我要以帶血的手和你們一一擁抱,
因為一個民族已經起來
——穆旦《贊美》
以上材料引發了你怎樣的聯想和思考?請寫一篇文章。
這是在一次采樣中,元寶生成的 AI 作文。它在人類閱卷老師處獲得了 53.5 分的高分,是 AI 作品中的佼佼者。
然而,細究其文,AI「模板化」的問題依舊暴露無遺。
比如這篇文章的中間幾段,先是提出「歷史上閃耀著這樣的精神火光」的觀點,隨即并列引用三到四位歷史人物;接著,引出「真正的擔當帶著疼痛的底色」的論點,再列舉三到四位經歷苦難的人物;最后,論及當代精神,再次列舉三到四個當代人物。
AI作文的語言不可謂不華麗,引經據典也自然十分豐富充滿細節,但邏輯上像不像你的家長對你說,你看看誰誰誰都怎么樣了,你是不是也該怎么樣?
或許在精細調整提示詞的情況下,AI 能寫出觸達人心的作品。
但目前,AI 的自主創作更像是在執行一個固化的寫作模板:用排比式的案例填充框架,最終導向一個略顯生硬的僵化升華。它能寫出看似優秀的段落,卻難以織就一篇真正動人的文章。
04
英語:主要被作文分數拖累
與語文相似,AI 在傳統強項——英語上的表現,也進入了一個平臺期。
去年,各家 AI 的英語成績已然不錯,今年的模型能力并未產生飛躍。事實上,所有參評模型的平均分僅比去年提高了 3.2 分,進步幅度遠小于數學。
而模型的整體分數,也落在了 130-140 分的區間,并未到達人類學霸的水平。
按理說,這稍顯反常。
AI 的英文水平是有目共睹的,或許比不少英文專業的學生講出的英語更正宗。
而高考英語這張試卷,本身遠未觸及母語者的語言天花板,且相較于包含古文的語文,其客觀題占比更高、作文要求更簡(僅 80 詞),也并不追求立意高遠,理論上是 AI 更容易獲得絕對優勢的戰場。
然而,AI 考生并未在此表現出更強的統治力。
那么,瓶頸究竟出在哪里?作文題可能是一大拖累。
這背后有兩個可能的原因:
- 苛刻的字數限制:
- 在語文寫作中,AI 就已經暴露出了時而「話癆」時而「不愛說話」的屬性,但在長篇寫作中,字數要求不是那么苛刻。但在 80 詞的微型寫作中,精準控制字數就成了一大挑戰,稍有不慎便會因超詞/少詞而被扣分。
- 缺乏應試智慧:
- 在有限的篇幅內,人類考生會有意識地使用更高級句式、時態來「炫技」以博取高分。而 AI 的目標通常是清晰、完整地傳達信息,它不會刻意為了得分而優化句式復雜度,因此在評分細則上可能吃了暗虧。
而本次評測最有趣的一點,莫過于中外模型在作文上呈現的「主客場反轉」現象。
在中文作文這一「客場」,以 ChatGPT 為代表的「洋考生」拔得頭籌;
然而在本應是其「主場」的英文科目上,它卻不敵「中國考生」——DeepSeek 在選擇題上甚至拿了滿分,而最終總成績上,DeepSeek 也與豆包一同超越了 ChatGPT。
05
理綜三科:有進步,但仍然不算十分優秀
如果說 AI 在數學上的進步是「一飛沖天」,那么在理綜三科上的表現,則更像是一次「破冰啟航」。
相較于去年,理綜三科有一定進步——所有模型都提分 10-20 分,但整體成績依舊掙扎在及格線附近,清晰地標示出 AI 與頂尖人類考生之間的能力鴻溝。
相比于數學,理綜三科既考驗邏輯能力,又考驗多模態能力——物理化學兩科的圖題占 80% 以上,生物的圖題也占全部題目的一半左右。
而今年,讀圖能力的解鎖,加上模型推理能力的增強,共同帶動了理綜能力的進步。
不過正如絆住 AI 的數學題所展現的一樣,能「看見」,不代表 AI 能「看懂」。
這在大模型在化學上的表現不佳上,能清楚地展現出來?;瘜W題目對圖片的依賴性強,且化學題目圖片的復雜程度更高,此時 AI 的短板便暴露無遺。
目前,頂尖 AI 的理綜成績大致相當于中上游的人類考生水平,但遠未達到「學霸」級別。正所謂「卷子越難,差距越顯」,在綜合性與深度并存的理綜試卷上,AI 尚未具備穩定碾壓人類考生的實力。
分科來看這次 AI 的成績:
物理,進步最快的「排頭兵」
物理是此次理綜三科中進步最快的「排頭兵」,平均分提升了 20.25 分。
在客觀題和填空題上,ChatGPT 的選擇題正確率高達 92.13%,豆包也達到了 89.81%,展現了對物理基本概念和規律的扎實掌握。
化學:被復雜圖形拖累的「重災區」
相比之下,化學成為了拉低理綜總分的「重災區」。整體得分偏低,僅有豆包勉強及格,選擇題和填空題的平均得分率均低于 60%。
其核心痛點在于對復雜化學圖形的雙重依賴:不僅題目本身高度依賴圖片(如實驗裝置、反應流程圖),且化學結構圖的復雜程度,也常常超出當前模型精準理解的極限,導致失分嚴重。
有機物大題依舊是所有大模型的主要軟肋。例如,滿分為 12 分的第 25 題(有機化學),所有模型得分極低。該題主要考察有機物合成路徑與結構,評測中沒有一個模型能夠正確生成有機物的結構簡式,對有機物的空間結構理解也相當薄弱。
生物:折戟于遺傳計算的邏輯關
生物科目的短板則精準地暴露在需要嚴密邏輯推理的遺傳題上。例如,分值高達 16 分的第 22 題(遺傳大題),大模型普遍表現不佳,得分最高的 ChatGPT 也僅拿到 9 分。該題重點考察基因型分析、遺傳概率計算等,這恰恰是考驗模型在抽象信息基礎上進行多步推理的能力。
06
AI 仍然偏科,文綜是舒適區
在今年的 AI 高考評測中,一個清晰的趨勢得以延續:文科綜合依然是 AI 的高分舒適區。
早在去年,ChatGPT 就已拿下文綜 237 分的高分。而今年,元寶更是將文綜最高分推升至 253.5 分,這一成績,與理科綜合最高分(213.25 分)形成了鮮明對比。
相比去年,文強理弱的偏科問題雖有緩解,但基本格局并未改變,這與人類考生相反。在人類考生中,理綜最高分往往比文綜最高分高出不少。
在無需聯網的情況下,頭部 AI 在文綜上的得分率已超過 80%,達到了人類優等生的水平。
今年的分數增長,主要由地理科目貢獻。細分來看,各科的進展與瓶頸也愈發清晰:
最大看點無疑是地理。得益于多模態能力的飛躍,AI 在地理圖題上的理解力顯著增強,使得該科目平均分激增了 20.3 分,成為進步的火車頭。
地理題上想更進一步,面對的挑戰與理科中的化學如出一轍——對高度專業的復雜圖形,AI 理解依然吃力。例如,在失分最嚴重的第 19 題(地形地貌綜合分析題)上,模型的表現可謂「潰不成軍」:
第(1)問關于地貌走向的判斷,僅有極少數模型答對。
第(2)問關于「拔河高度」的專業概念計算,所有模型均告失敗。
與之相對,政治和歷史科目的分數則基本處于高位平臺期,并未呈現顯著進步。
對于這兩個科目,挑戰已經進入了更難的范疇:能否精準理解考綱、運用學科語言、并進行多維度深度分析。對于人類考生而言,這也需要專門的訓練了。
例如,DeepSeek-R1 就因思路過于發散、偏離考點而大量失分。而在歷史小論文上,AI 普遍難以做到對歷史原因進行深刻的多維度剖析,論述仍顯單薄。
一個小細節很有趣,與中國模型提分相對應的是,今年ChatGPT的文綜分數不升反降。
這種「主場優勢」也從側面體現了了,在通往通用人工智能的道路上,對地域性規則的深刻理解與適應,依然是不可或缺的一環。
07
彩蛋 1:AI 眼鏡能用來作弊嗎?
從去年到今年,AI 眼鏡等「視覺 AI 硬件」無疑是科技界最炙手可熱的焦點。其背后的核心驅動力,正是大模型的實時視頻理解功能的出現。它意味著 AI 正從被動接收指令,進化到主動感知和理解物理世界。
巧合的是,今年的高考也迎來了一項新變化:考場安檢門全面升級,旨在精準防范智能眼鏡等新型作弊工具。
這不禁讓人好奇:這些新興的、能與視頻進行實時交互的多模態大模型,真的能用來在考場上「大顯神通」嗎?
我們抱著這個疑問,選擇國外的 ChatGPT 與國內的元寶,進行了一次非常規的測試。為簡化流程,我們僅選用難度較低的英語閱讀題,嘗試讓視頻模型「觀看」試卷并作答。
雖然只是一次非常簡單的測試,結果卻非常清晰,問題也相當明顯:
1. 嚴重的幻覺問題:模型非常容易自行想象,這點 ChatGPT 和元寶都有體現,但元寶更為明顯。元寶在測試第二篇閱讀時,就開始憑空編造一篇完全不存在的文章和題目,導致最終無法進行測試。
英語卷的第二篇閱讀,講述的是一位九年級寫作老師關于如何教授學生「寫作為什么重要」的反思。文后的 24 題,則是提問第一段提到了哪些人物。
而在對元寶進行測試的時候,元寶不斷在屏幕還沒有出現選擇題時,直接編造一道選擇題并回復答案,導致測試無法進行。
在發現問題后,我們向模型提問,這篇文章講了什么,模型的回答也很是詭異——與原文仿佛相似,但是實際上是完全不同的故事。
2. 被動的交互模式。為了模擬真實考試,我們在測試中,要求模型看到題目的時候,直接回答答案,不需要解釋也不需要等人問。盡管 ChatGPT 聲稱可以看到題目直接作答,但實際并不會主動進行。整個過程需要測試人員通過語音不斷提示、引導,距離「全自動解題」相去甚遠。
3. 混亂的結果:在每次看到題目,給定更加精密的提示詞的情況下,我們勉強從 ChatGPT 處得到了一組答案,但這個結果參考價值并不大。
稍多幾次測試就會發現,翻頁的速度變化、鏡頭的晃動程度變化,提示詞出現的時間變化,甚至差不多的流程重復同一個問題,都會導致模型給出截然不同的答案。
雖然視頻模型也是 GPT-4o 模型,和 GPT-4o 模型直接按照圖片作答的穩定性和準確性相距甚遠。
而且幻覺問題會隨著上下文的長度越來越嚴重。在被問及第三篇文章講了什么的時候,GPT-4o 回答的是第一篇的主要內容。到了最后一篇文章,模型的正確率和蒙的也差不多了。
今天的視頻大模型,像極了去年的圖像大模型,仍處于非常早期的階段。各家大模型產品也并沒有想在目前階段主力推廣這一功能——GPT-4o 的視頻通話功能在不長的測試時間后,迅速達到了當日限額。
想在目前階段,單純依靠它在考場作弊,還需要擔負必須不斷跟它說話、答案完全不準等巨大風險,基本屬于科幻情節。
盡管如此,在模型表現較好的時候,AI 能夠在看到屏幕幾秒內,馬上很肯定地講解出屏幕上的英文在講什么,確實也是一種讓人感覺十分驚艷的體驗。
08
彩蛋 2 : 仿生人會愛上自己生成的電子羊嗎?
自古「文無第一,武無第二」。在人類創作者中,風格流派各異,喜歡現實主義的人有時候就是「get」不到意識流的文風。
那么,在 AI 的世界里呢?大模型是否也存在審美偏好呢?它會因為更欣賞自己的文風,從而在給其他模型打分時產生偏見嗎?
我們進行了一項有趣的嘗試:讓參與本次評測的大模型們,對彼此生成的作文進行交叉打分和排序。
測試選用的是作文題目的第一次采樣結果。
圖片里橫向是鑒定師,而豎向是作品。我們標藍了模型認為的前三名作文,和人類認為的前兩名作文。
根據這個不完全統計,模型并沒有表現出對自家作品的特殊偏愛,有時候反而可能給自己打低分——比如元寶的作文,在人類和其他模型的橫評中,都取得了很高的分數,但在自己的評測中,反接近最低分了。
AI 與人類判分員的審美,大方向仍然是一致的。
可能真的只是和我們普通人類一樣吧:我知道什么是好的,就是寫不出來。
09
結語
今年,或許是高考測試對大模型仍具挑戰意義的最后一年。
當 AI 已經能展現出沖擊頂尖學府的實力時,這個人類社會的智能篩選器,可能未來不再能成為對 AI 有區分度的測試了。
高考測試,不僅僅是一場對人類智慧與 AI 智慧的對比,也是我們觀察 AI 智能發展的一個刻度表。
過去一年,我們對 AI 能力的直觀感受和多次驗證,正在不斷地提醒我們:AI 正加速逼近甚至超越普通人的能力邊界。
但它的發展并非線性——它能攻克人類眼中的難題,卻也會在看似簡單的題目上意外失足。
正因如此,高考,這個完美融合了知識掌握、邏輯推理與應試策略的綜合場景,讓AI展現出了它最迷人而矛盾的一面:它時而展現出頂尖人類的才華,輕而易舉地攻克難題;時而又暴露出孩童般的認知盲區,在基礎問題上犯下令人啼笑皆非的錯誤。
感謝高考。它用一種我們最熟悉的方式,為 AI 的通用智能水平提供了一張刻度清晰、極具參考價值的「快照」,而這,很可能是最后一張了。
AI 的下一站,終將是更復雜、更廣闊的現實世界??荚嚕皇撬L征途的起點,而非能力邊界的終點。
這張快照,最終將成為它成長相冊里,一張記錄了進化途中的光榮與笨拙的泛黃的舊照片。
*頭圖來源:視覺中國
本文為極客公園原創文章,轉載請聯系極客君微信 geekparkGO
小米YU7即將正式發布,這款「致敬」法拉利的純電 SUV 車型,配備了「天際屏」、「車外語音」等炫酷新功能。同時,被雷軍稱為「下一代智能終端」的小米AI眼鏡也將與大家見面。
今晚 18:40,極客公園視頻號直播間,一起邊看邊聊「小米人車家全生態發布會」:新車,新眼鏡,能否載著小米沖向下一個市值高峰?
蘭博基尼 CTO:人們會回頭說燃油車好的,現在的電車不夠打動人。
點贊關注 極客公園視頻號 ,
查看大模型高考評測原結果文檔
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.