高考結束了,最讓學子們揪心的莫過于志愿填報了。
現在,志愿填報有一些新“玩法”。讓我們來看一個例子。
她叫王琳(化名),來自貴州一座普通縣城的重點中學。高考結束那晚,她拿著剛出分的成績單,站在父親借來的一部舊安卓手機前,在夸克App里輸入了一句話:
“我想學經濟,但不想離家太遠。”
十秒鐘后,一份清晰、結構完整的志愿報告出現在屏幕上:它不僅列出了她最可能被錄取的高校,還標注了每一所學校的優勢專業、城市發展、就業方向,甚至分析了“經濟類對女生未來職業選擇的彈性較高”——這是她此前從未聽說過的信息。
在一個月內,王琳修改了近60次報考偏好,最終鎖定了西南財經大學。
她不是個例。2025年高考季,夸克官方數據顯示,其“志愿報告Agent”累計為考生和家長生成超1000萬份志愿報告,成為中國AI技術在垂直領域最大規模的深度研究型應用。
一場關乎命運的決策,正在由AI參與。人們開始思考:“AI,真的能幫我做出人生最重要的決定嗎?”
AI志愿Agent到底做了什么?
志愿填報是一項高度復雜的任務。它不是簡單地“根據分數篩學校”,而是要在考生的個人偏好、成績、家庭背景、城市意向、專業興趣、未來發展、就業趨勢之間,找到一條可行又理想的路徑。
在此之前,很多家庭只能依賴“親戚推薦”“老師意見”甚至“網上搜索來的碎片信息”來做決策。
而夸克推出的“志愿報告Agent”,正是要用AI,幫用戶拆解需求、規劃路徑、執行決策、反思調整,走完整套流程。
這背后的技術關鍵是:“任務規劃—執行—檢查—反思”四階段Agent機制。
與傳統的問答系統不同,志愿Agent更像是一個“沉浸式助手”:
一是任務規劃,理解你想要什么。
例如考生輸入:“我傾向于廣州深圳,不考慮偏遠地區,想學人工智能,數學不太好”。
AI會自動識別出:地域偏好+專業目標+能力約束等多維度信息,并將其拆解為后續決策的執行路徑。
二是任務執行,調用各種工具操作志愿表。
執行過程不僅調用搜索與知識庫,還結合夸克自建的志愿填報工具(涵蓋3000多所高校、2000多個專業的歷年數據),生成初步填報方案。
三是結果檢查,看是否滿足你的意圖。
比如,如果在廣州深圳地區無法滿足“人工智能”且匹配度高的選項,系統會返回反饋并觸發反思機制。
四是自我反思,重新調整路徑再嘗試。
AI會嘗試擴展方案,例如“是否考慮廣東省內其他城市?”或者“是否放寬對高校層次的限制以爭取更多選擇?”
整個過程是一個類專家的策略性探索,而不是一錘子買賣。
這種能力并非依賴一個模型,而是一個系統性的集成:由高考志愿大模型+知識庫+搜索+決策工具+反饋機制構成的智能體(Agent),實現了從用戶語言→智能規劃→動態反饋→報告輸出的完整鏈路。
換句話說,它不是“在回答問題”,而是在“模擬決策過程”。
夸克憑什么?拆解夸克的核心技術
“AI Agent”不是一個新概念,但真正做到實用、穩定、規模化落地的案例寥寥無幾。我們可以把它看作一場“大模型+工具鏈+垂直知識”的協同作戰,夸克的志愿報告Agent之所以備受關注,不只是因為它生成了一千萬份報告,更因為它在數據、模型、工具三大技術支柱上,構建出了嚴謹而高效的閉環系統。
第一支柱:高質量、結構化、權威的數據底座
填志愿是“信息決策”的典型場景,但高考相關的信息極度碎片化,且權威性參差不齊。
為確保數據可用性與準確性,夸克對外部信息源做了大規模清洗與重構:收錄8000+高考相關站點、幾十億級網頁內容,覆蓋99%以上權威源;引入非網頁數據,如各省考試院、招生簡章等;針對近三年招生計劃、錄取分數、體檢要求、就業考研數據等,夸克動用數百人工審核,構建起近似“高考百科全書”的數據庫。
特別是志愿工具所依賴的數據集,涵蓋了全國3000多所高校,2000多個專業,包括不同省份、選科模式等復雜變量。
這使得生成的每一份志愿報告,具備了“與現實高一致性”的基礎。
第二支柱:高考專屬大模型+強化學習優化
在大模型方面,夸克基于通義千問的基座模型,做了大規模后訓練,包括:高考垂直領域微調訓練;引入權威知識庫作為RAG材料源;應用RLHF(人類偏好強化學習)+RLVR(可驗證獎勵強化學習)機制,提升推薦結果的可靠性與用戶接受度。
特別是在“志愿推薦”中出現的典型矛盾——例如“分數剛好能上,但專業可能不喜歡”——模型通過RLHF打分來捕捉用戶偏好,又用RLVR確保事實不偏離,兩種獎勵機制協同調和“真實可行”與“用戶滿意”之間的張力。
此外,在數據結構和策略表達上,模型能將自然語言轉化為專家級指令,執行對志愿表的精細操作:
按地域優先級(如“廣州 > 廣東省內 > 非偏遠地區”)調整選項;
匹配專業要求與考生學科能力(如“數學弱不建議報人工智能”);
在資源不足時觸發“策略放寬”或“沖刺建議”。
從語言理解到意圖規劃、再到表格操作與策略反饋,這種復雜流程的閉環,標志著真正具備實戰能力的AI Agent系統。
第三支柱:多輪執行與人機協同的志愿工具
模型不是孤島。它與志愿工具之間的交互,決定了生成結果的可執行性與可信度。
每一次模型生成的指令,都會傳送給志愿表工具進行實時模擬與反饋。
如果反饋結果不理想,模型會“反思”:是否擴大地理范圍?是否降低院校層級?是否調整專業優先級?并重新生成推薦方案。
這不僅是“模型生成一個表”,而是:模型推理+工具執行+數據反饋+策略反思的動態任務系統。這是AI真正從“內容生成”,進化為“決策協助”的關鍵一步。
在產品方面夸克又做了什么,
來優化用戶體驗?
高考填報,不只是信息問題,更是認知問題——很多考生和家長,不知道該問什么、更不知道該怎么選。而夸克在產品層的最大突破,是把“復雜的AI能力”轉化成了“用戶可理解、可操作、可信賴的交互體驗”。
這背后的核心,是三個產品層級的融合:
第一層:AI問答,掃除信息盲區
夸克在搜索系統基礎上,搭建了專屬的高考問答模型體系,可以系統性地回答所有高考相關問題——
什么是強基計劃?
某某專業適合女生嗎?
某高校去年在江蘇的最低位次是多少?
不同于傳統搜索給出一堆鏈接,夸克的AI問答直接給出結構化、精煉答案,并附帶數據來源與解釋說明。對很多第一次接觸志愿填報的家庭來說,這個階段就極大降低了“信息焦慮”。
第二層:志愿工具,幫助用戶自助篩選
如果說問答是信息入口,那“志愿工具”就是用戶自定義篩選的空間。它支持用戶:輸入分數、位次、選科、地區、意向專業;進行分段篩選(沖、穩、保);查看歷史錄取分數、波動預測、招生計劃等關鍵數據。
這個功能面向熟練用戶或愿意親手操作的人群,提供了極高的自由度,但并不強依賴AI生成。
第三層:志愿報告Agent,一站式“決策路徑規劃器”
而真正將AI的“專家決策力”推向C端用戶的,就是今年重點上線的志愿報告Agent功能:
用戶只需用自然語言描述意圖(如“我不喜歡數學,但想學計算機,想在山東省內上公辦院校”);
Agent將自動規劃填報策略→調用工具→調整篩選邏輯→生成結構化志愿報告;
每所推薦學校附帶解釋邏輯、風險等級、專業匹配度、地域分布等信息;
最終輸出一份可下載、可打印、可分享的完整志愿報告,并支持后續反復修改。
這是因為在技術和產品層面的深耕,夸克在這場高考志愿填報的“考試”中,也取得了不錯的成績:
生成報告總量超1000萬份,為國內最大規模的AI輔助決策應用之一;
用戶主動分享率超40%,說明報告不僅被看,還被信賴、傳播;
超過50%的用戶來自三線及以下城市,顯示出AI產品在信息弱勢群體中的巨大價值;
個別用戶最多生成多份志愿報告,表明Agent系統具備持續交互與反饋能力,支持“逐步決策”而非一次定論。
此外,夸克在部分鄉村中學開展的線下調研也顯示,許多考生“甚至不知道自己應該問什么問題”,只能機械地說“我成績不差,想考師范”。在這種場景下,AI系統不只是一個工具,更是一位能夠引導、澄清、建議的決策合伙人。
夸克產品負責人蔣冠軍曾表示:“在很多領域,用戶的需求已經復雜到無法用常規搜索滿足,我們希望AI真正成為身邊的專家型助手。”
高考志愿填報,
只是人生決策的“冰山一角”
在AI應用層的眾多落地嘗試中,“教育”始終是最被寄予厚望的場景之一。但現實中,很多產品停留在表層應用:題目講解、作文批改、知識問答……真正涉及高認知決策、復雜多目標推理、數據深度整合的產品極少。
夸克高考志愿Agent的出現,意味著AI在教育領域第一次實現了結構性能力突破。
1. 從“聊天式AI”到“任務型AI”的轉變
傳統AI教育產品多為ChatBot式單輪問答,例如“我這個分能不能上某高校”“XX專業前景如何”。但真正的志愿填報決策包含:
認知澄清(你真的知道你想報的專業是干什么的嗎?);
意圖平衡(父母希望穩定vs孩子想挑戰);
數據對齊(分數、位次、地域、學校批次、專業類別);
策略執行(沖/穩/保布局、錄取概率計算、限制條件控制)。
這不是“問一個問題、得一個答案”,而是“發起一個任務、走完一套流程”。Agent機制正好適配了這一認知模型。
2. 技術深度已超越行業平均水位
據夸克算法負責人唐亮介紹,志愿Agent所依賴的大模型,經過了高考專屬微調、任務規劃訓練、強化學習打分等多輪迭代。模型不僅能理解考生意圖,還能生成可執行指令、控制外部工具調用、動態調整策略。
相比多數“生成類AI”停留在內容層,夸克已經實現了“推理—行動—反思—重構”的鏈式閉環。
此外,其幻覺控制能力也得到顯著提升,幻覺率得到大幅優化,確保用戶不會因為“編造內容”做出錯誤決策。
3. 數據結構化、語義映射能力構筑護城河
很多廠商嘗試進入高考志愿領域,但長期無法突破的點在于:
數據顆粒度過細,來源不統一:不同學校、不同地區、不同政策下的招生計劃和分數線標準不一;
專業信息需結構化理解:比如“人工智能”是否對數學有要求、“金融學”是否更適合理科生;
用戶語言模糊,意圖不穩定:如“想留在南方、不去太冷的城市”,需要進行語義拆解與標準化建模。
夸克通過7年積累構建出的數據庫+工具鏈+高考知識圖譜,使其具備了超出“產品設計”層面的語義基礎設施能力。而這正是其他競品難以快速復制的核心壁壘。
4. 決策類AI產品的新范式:可遷移、可拓展
更重要的是,高考志愿Agent所采用的整體框架,具備強可復制性。
任何“多目標、有限信息、路徑分歧”的復雜決策問題,都可視為Agent應用場景:考研/升學規劃、留學擇校、就業方向決策、醫療就診路徑推薦、財務投資組合規劃。
這正是“深度研究技術”的宏觀目標——不只是服務一個場景,而是打造AI助手完成復雜任務的能力模型。
從“會答題”到“會做決策”,這是AI與人類認知模型之間距離的真正縮小。
當AI成為“建議者”,誰負責“決策”?
夸克的志愿報告Agent在提供決策支持上無疑取得了巨大的技術突破,但在用戶層面,一個新的問題悄然浮現:“我到底能信AI到什么程度?”
這一問題的本質,并不在于模型準不準,而在于建議權與決策權的邊界是否清晰。
1. 用戶高度信任背后的風險
從用戶行為來看,AI生成的志愿報告正被越來越多的家庭視作“決策依據”:報告支持六維度打分與排序(地域、專業、學校層級等),最終輸出“推薦表單”;推薦內容標注有“沖、穩、保”分級;用戶可直接使用該表進行志愿填報操作,流程順滑。
但問題在于:很多用戶,尤其是中小城市和鄉村的考生與家長,未必具備評估“AI推薦合理性”的能力。他們對算法的信任,很容易轉化為過度依賴。
“AI給我這個學校,那應該沒問題吧?”
“專業看起來是推薦的第一位,我就選它吧。”
這種“把選擇責任轉嫁給AI”的心理,很容易在事后引發落差感、甚至信任危機。
2. 建議vs命令:AI的解釋能力需要加強
AI生成的志愿報告雖然已經附帶一定的解釋,如“因你的地域偏好和分數匹配推薦XXX專業”,但目前尚未全面實現:專業推薦邏輯的充分透明化;用戶可調節的偏好權重;對冷門、邊緣選項的完整披露。
例如,如果模型判斷用戶可被A專業錄取,但該專業冷門、城市偏遠、信息量稀缺——在報告中,這種“反例”往往被自然過濾。用戶失去了做“不選”的機會。
在志愿填報這種強關聯未來路徑的場景中,讓用戶知道“為什么推薦”,甚至“為什么不推薦”,與“推薦了什么”同樣重要。
3. RLHF與RLVR的博弈:個性偏好vs客觀事實
夸克團隊在模型訓練中采用了RLHF(人類偏好)+RLVR(可驗證事實)雙重強化機制:RLHF捕捉用戶在報告排序、內容表達、推薦偏好等方面的感受;RLVR確保輸出內容在邏輯和事實層面不能出錯。
但在現實應用中,二者會出現“錯位”:一個冷門專業(如地質工程)可能事實匹配度高、錄取概率大,但用戶天然抗拒;一個熱門專業(如金融、人工智能)可能錄取概率低,但用戶強烈傾向。
面對這種“理性結果vs情緒偏好”的沖突,模型必須在建議維度做出選擇。如何解釋這種選擇,并允許用戶干預調整,是下一步產品必須解決的問題。
4. 責任的邊界,需要更明確的制度設計
目前,夸克的產品設計中,強調AI報告的輔助性質。
但從實際操作層面來看,隨著AI能力的提升,可能會導致人越來越依賴AI給出的建議的問題。一旦出現決策失誤,人們往往傾向于歸罪于AI系統。這有點類似于目前的汽車自動駕駛領域,雖然車企反復強調自己提供的只是輔助駕駛系統,但是越來越多的用戶慢慢養成了依賴自動駕駛的習慣,一旦出現嚴重車禍,車企依然可能陷入被動的局面。
因此,為了捋清責任關系,需要更明確的制度設計,來確定責任邊界。從長遠看,任何AI決策產品都必須解決“建議權”與“決策權”的明晰分離:建議應是解釋型的、可復現的、可調節的;決策必須由用戶明確下達指令,并了解其依據與后果;系統應提供“反思空間”與“用戶選擇確認”機制,避免誤信或誤解。
需要讓人們清楚的意識到,AI是助力,不是替代。尤其在關乎命運的選擇上,責任必須由人類自己承擔。
需要指出的是,高考是一場信息戰,也是一場認知戰。它要求每個考生和家庭在短時間內,做出一次關于未來的復雜選擇。但對于絕大多數人來說,這場戰役的起點并不公平:
有人有家教、咨詢師、老師資源;
有人只能靠零散搜索、親戚建議;
更有人根本不知道,哪些信息該去問、該怎么問。
AI志愿Agent的價值,恰恰不在于替你決定,而在于讓你擁有“做出好決定”的條件。
夸克的這一產品,不是單純的“模型秀肌肉”,而是一次工程能力、數據整合、產品理解與社會價值的協同實踐。它讓AI不再只是技術熱詞,而是落到千千萬萬個考生和家長手中,一次次輸入模糊指令、反復修改偏好、慢慢明白自己到底想要什么。
你或許不會完全照著AI生成的那份報告填志愿,但它提供的,是一個路徑,是一張地圖,是一盞在混沌中亮起來的燈。
未來,這種“深度研究式AI助手”還將進入更多決策領域:從考研、留學、擇業到醫療、養老、投資規劃。它將不再是“懂你說什么”的AI,而是“能陪你想清楚”的AI。
但最終,AI不是命運的仲裁者。
人生方向,還是需要人自己走。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.