“李未可源自于我們對于AI的相信?!?/p>
在日前的發布會上,李未可CEO茹憶開場就用一句話,為大家解開了縈繞在這家創業公司身上的謎團。也向業內宣布,李未可是在這個行業中,與眾不同的玩家。
縱觀熱鬧的“百鏡大戰”,無論是波導還是BB,主流廠商普遍將顯示能力作為產品差異化的核心路徑。但在這片逐漸同質化的紅海中,李未可科技給出了截然不同的答案:
李未可要做的,不是“加了AI的眼鏡”,而是用AI構建硬件生態。
這不只是產品設計上的區別,更是技術路徑、思維方式的巨大區別。通過對過往產品路徑的拆解和茹憶的采訪,我們也更加了解李未可的“AI-first”。
不是“加AI的硬件”,而是“為AI構建的終端”
李未可創始人茹憶在發布會上表示:“AI是工具的覺醒,而我們相信最貼近人的交互入口,是眼鏡?!?/p>
這句話可以說是“開宗明義”,包含了李未可推出產品的出發點。
一方面,我們目前看到所有李未可的產品都來源于讓AI“飛入尋常百姓家”。
比如,不管是Meta Lens還是City Air,李未可都不會在其他方面過多糾結,而是把重量做的足夠輕,戴起來完全和普通眼鏡沒區別;把續航做得足夠久,上下班通勤,幾天一充都沒問題;把所有小功能做到足夠“精”,180多種語言,嘈雜環境依然準確……再給你一個擊穿底價的價格。
從形態到重量都“輕盈”的City Air
顯而易見,實用、易得。
形而上來講,為了讓AI更好的落地,他們反推交互方式、芯片架構、重量控制乃至使用場景,最終形成AI能力的物理化體現與場景化承載。
另一方面,李未可除了讓智能眼鏡作為AI的“宿主”之外,還決定自研大模型。
首先,有一個不容忽略的問題是,從實用、易得到讓每個人都覺得“好用”中間還隔著一道天塹。如果你問一個普通消費者,TA期待的AI眼鏡什么樣,TA都至少會回答你,有個萬能的AI助手。
要實現萬能的難度是指數級增長的,畢竟人類就是一個會在凌晨兩點搜索“畢加索是不是大小眼”的生物,你很難預測他們在走路的時候會不會問出“剛才我原地投籃拋物線的曲率是多少”這種問題。
在這個難度級別上,如果再去接入第三方的通用AI大模型,那就會離最終“好用”的目標越來越遠,所以自研大模型就顯得非常必要。
同時,這其中也包含著李未可的野心。雖然大模型在C端早已家喻戶曉,但真正“讓普通用戶天天用得上”的AI原生應用,至今仍未大規模爆發。ChatGPT發布之后,許多廠商將AI作為產品賣點加入眼鏡、耳機、手表等終端,但真正“有黏性、反復使用、高頻依賴”的功能場景仍然比較稀缺。
李未可科技選擇正面迎戰這個難題。它不是將AI功能“平鋪展開”,而是從用戶實際使用路徑出發,把AI功能濃縮為四個高頻場景型能力:AI隨時譯、AI 隨身記、AI隨地游、AI隨心聽。
在之前的測評中,李未可的AI能力就已經很強了
為了支撐這種AI原生體驗,李未可自研了WAKE-AI多模態大模型平臺,其2.0版本將重點放在三個維度:多模態感知與理解(語音、圖像、文本同步處理)、多智能體協作與推理(Agent任務拆解與調度)、邊緣側離線AI推理能力(適配長時佩戴、弱網場景)。
其中最具代表性的技術架構是“ZeroAgent”,即“零級智能體”。它不是傳統語音助手,而是一個AI交互系統的調度大腦,具備自主感知、任務拆解、智能體調度與結果反饋能力。
更簡單來理解,這個“0”就意味著起點,零級智能體就是AI的女媧、上帝、指揮官。
舉個例子,你在外逛街,對AI說餓了、渴了,ZeroAgent首先會理解這是你的餐飲需求,然后把它拆分成你在哪(定位),你平常愛吃的、愛喝的(偏好識別),附近的餐廳推薦等不同的任務,分發給下面專門負責的AI助手來完成。
這樣做有什么好處呢?
與通用大模型相比,Agent分發形式更可控。跟人類工作一樣,專業的AI干專業的事,得到的結果更加透明、可信,更少出現突然“胡說八道”的情況;
與傳統語音助手相比,零級智能體會先識別和拆解用戶需求的真實意圖,更加智能化;
此外,Agent形式更加自由。它就像樂高一樣,擁有許多個承擔獨立任務的獨立模塊,可以根據不同的場景需求自由選用和組合,這也是李未可為未來發展生態埋下的伏筆。
技術深挖,“聽說讀寫”成核心落點
與強調顯示、手勢、虛擬界面的AR眼鏡不同,李未可的智能眼鏡四項核心功能,即隨時譯、隨身記、隨地游、隨心聽,都圍繞AI能力進行設計與優化。
在主流翻譯眼鏡多采用通用ASR系統的背景下,李未可選擇自行訓練自適應模型,強化對小語種、地方口音的識別能力。目前支持180余種語言,重點覆蓋“一帶一路”國家、東南亞等區域語系,并已在越南、印尼、阿聯酋等實際展會場景中驗證有效率超過90%。
眼鏡段播放翻譯內容,手機端同步顯示文字
更重要的是,其翻譯系統支持對話、聽譯、離線三種模式,能夠根據網絡環境、噪音強度、內容類型自動切換。
根據發布會展示,在會展這種人流量大的環境中,展商面對高達90分貝以上的嘈雜環境,依然可以完成多輪準確對話,準確率約在93%-97%。而這種準確、多場景的能力靠的不是更好的硬件設備,而是專為“群體交互+多語言”的場景微調過的AI模型基礎。
隨身記也不是一個簡單的“錄音+轉寫”模塊。它支持會議錄音、關鍵詞提取、結構化摘要、任務分派,并能一鍵生成開發信草稿或會議紀要。
在與米奧蘭特合作的多個海外展會中,李未可眼鏡通過AI慧記、AI慧寫幫助展商在結束展會當天就完成了80+位客戶記錄、內容整理等工作,極大地提高了商務環境中最需要的效率,也減少了傳統人工整理的問題。
在最新的版本中,還加入了多端同步功能,同一賬號下,不同端口平臺支持實時雙向編輯,AI對話推送了多端無縫同步,進一步提升多系統協作效率。
這一系統背后是多模態內容捕捉、時間軸對齊、任務意圖拆解等AI能力的集中體現。正如李未可發布會中提到的,“我們不希望你回去寫周報,而是你說完話,AI就已經替你生成周報了?!?/p>
在生活化場景上,李未可也進行了深度挖掘。旗下的旅拍眼鏡View支持“拍照即解說”,結合圖像識別、地理定位與大模型生成,實現博物館、景點、街頭建筑等自動解說體驗,讓AI成為大家旅行的解說員、好搭子。
據了解,View目前支持6800+國內外文旅地標,支持實時對圖文問答、AI語音講解。
實際中,我們只需要拍下想要了解的文物,眼鏡就可以自動調用圖像識別+文本匹配+播報三重系統,生成專業的展品介紹內容。這不僅是多模態輸入的真實落地,更是李未可“讓AI真正幫用戶感受世界”的產品哲學表現。
“隨心聽”功能并非傳統意義上的“播報新聞”或“讀日程”,而是李未可在多模塊打通基礎上,打造的一個具備任務聯動能力的信息播報引擎。
基于李未可科技自研的ASR大模型技術,將用戶在使用“隨時譯”“隨身記”“隨地游”等功能中產生的關鍵信息,以個性化、可控的語音形式實時播報,實現“脫手就能獲取信息”的智能體驗。
值得注意的是,隨心聽的播報內容,也可以是來自“隨時譯”“隨身記”的結果,就相當于每個人又多了一個私人秘書,能夠實現多線辦公,也可以省去非常多整理和理解的步驟。
這“四大功能”并非簡單聚合,而是李未可挖掘出的AI核心落地點,它們覆蓋了出行、對話、記錄、獲取信息等日常高頻場景,也體現了李未可大模型在多模態感知、多Agent協作、端側離線推理三大技術方向的落地深度。
公司不只是產品,也是“Agent AI操作系統”的布道者
在大家都力求小而美的時代里,作為一家創業公司,李未可選擇了一條技術更重、用戶體驗門檻更高的路,這同樣也是一條潛力更大的路。
我們也發現,除了想讓AI為大家做點什么之外,李未可也想留下點什么。比如,好的生態。
在采訪中,茹憶提到一個有趣的觀點,即在未來,AI Agent世界里,語音助手就像是現在的操作系統一樣,是負責”執行“的角色:“它會調用各種各樣的Agent,Agent就對應我們用的程序。”
留下的這個口子,就是希望向開發者開放這個獨特的世界,讓更多人參與進來。根據茹憶的介紹,目前接入了DeepSeek、豆包等主流AI平臺,在上面發布的Agent也可以接入到李未可的平臺中,讓更多智能眼鏡終端用戶也能體驗到與手機、PC一樣,甚至更好的AI Agent。
當未來的智能設備都可能變成AI智能體的承載體時,誰能率先搭建出AI操作系統與智能體生態,誰就能掌握“終端即平臺”的下一個時代。而李未可,正在這條看似冷門但可能最通向未來的道路上,全力前行。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.