智東西
作者 王涵
編輯 漠影
智東西7月25日消息,7月23日,Meta現實實驗室(Reality Labs)在Nature上發表最新論文《A generic non-invasive neuromotor interface for human-computer interaction》(用于人機交互的通用非侵入式神經運動接口)。
這項創新主要推出了基于表面肌電圖(sEMG)的通用型非侵入性神經運動接口。該接口以腕帶形式呈現,無需通過侵入性手術,就能夠精準捕捉手腕部位的神經信號,識別包括點擊、滑動和捏合在內的多種手勢意圖,甚至在手部自然下垂的狀態下也能實現隱蔽操作。
與傳統的鍵盤、鼠標、觸摸屏等輸入設備不同,它擺脫了對中間設備的依賴。并且,相較于基于攝像頭或慣性傳感器的手勢系統,它不受動作遮擋的影響。而與侵入性的腦機接口相比,它也無需定制解碼器,且能在不同人群中實現通用化應用。
基于300多名受試者提供的超過100小時肌電數據,研究團隊還開發出具有高度適應性的機器學習模型。該模型最顯著的特點是無需個人校準即可實現高精度手勢識別,而僅需少量個性化數據就能將筆跡識別準確率提升16%。
Meta在2023年通過Orion AR眼鏡原型完成該成果的早期技術驗證。
一、高靈敏度腕帶+通用解碼模型
為實現這一突破,研究團隊從硬件和模型兩方面著手。?
硬件方面:該團隊研發了一款高靈敏度、易佩戴的sEMG腕帶(sEMG-RD)。
該腕帶采用干電極、多通道記錄設計,采樣率達2kHz,噪音低至2.46μVrms,續航超過4小時,且有四種尺寸以適應不同腕圍。其電極布局經過優化,能精準捕捉手腕、手部和前臂肌肉的電信號,甚至可檢測到單個運動單位動作電位(MUAPs)。
在研發過程中,團隊經過多次材料測試與結構優化,才確定了?最終的腕帶設計,以確保其佩戴舒適性與信號采集穩定性的平衡。?
數據收集與模型訓練方面:該團隊構建了可擴展的數據收集基礎設施,從數千參與者獲取訓練數據。
基于這些數據,團隊開發出通用的sEMG解碼模型。模型采用了多種深度學習架構,如用于手腕任務的長短期記憶(LSTM)層、用于離散手勢任務的1D卷積層加LSTM層,以及用于手寫任務的Conformer架構等,以適應不同交互場景的需求。
在模型訓練階段,研究人員還運用了遷移學習等先進技術,加速模型收斂,并通過不斷調整超參數,提升模型的泛化能力與準確性。?
二、0.88次/秒手勢識別,手寫輸入達20.9字/分鐘
在連續導航任務中,sEMG的閉環手勢解碼中位數性能為0.66次/秒;這意味著用戶在進行連續的手勢操作以控制光標等對象在屏幕上導航時,平均每秒能夠實現0.66次精準的目標獲取,大大提升了操作效率。
在離散手勢任務中,其手勢檢測速率達0.88次/秒,即用戶做出如握拳、伸指等離散的特定手勢時,系統能夠以每秒0.88次的速度快速識別并做出響應。
?戴sEMG腕帶的測試者,手寫輸入速度可達20.9字/分鐘,且通過個性化調整sEMG解碼模型,手寫模型的解碼性能可進一步提升16%。?
值得一提的是,這些模型在無需針對個人進行訓練或校準的情況下,就能在不同人群中表現良好。其在離線評估中,對未參與訓練的參與者,手寫和手勢檢測的分類準確率超過90%,手腕角度速度解碼誤差小于13°s?1。
研究團隊在不同年齡、性別、身體狀況的志愿者群體中進行了廣泛測試,均得到了上述穩定且優異的結果,驗證了該神經運動接口的通用性與可靠性。?
三、未來應用:潛力廣泛,前景可觀?
這一技術在多個領域都有著廣闊的應用前景。?
日常交互:可應用于智能手機、智能手表、智能眼鏡等移動設備,實現無縫輸入,尤其適合在移動場景中使用,解決傳統輸入方式在該場景下的局限性。
比如,用戶在行走、乘車時,無需再依賴屏幕觸摸或鍵盤輸入,僅通過簡單的手部肌肉活動,就能完成文字輸入、指令下達等操作,讓信息交互更加便捷高效。?
輔助技術:為行動不便者提供新的交互方式,例如那些因肌肉無力或肢體缺失而難以使用傳統設備的人群,通過細微的肌肉活動就能實現與計算機的交互。
對于肢體殘疾人士,他們可以借助該接口,以自身獨特的肌肉運動模式控制輪椅、假肢等輔助設備,獲得更高的生活自主性。?
醫療康復:可用于臨床診斷和康復治療,如監測患者的肌肉活動情況,輔助制定個性化康復方案,或作為閉環神經康復范式的一部分。
醫生能夠通過分析患者使用該接口時的肌肉電信號數據,更精準地了解患者的肌肉恢復狀態,及時調整康復訓練計劃,提高康復效果。?
新型控制方式探索:有望實現對意圖手勢力量的直接檢測,開發多自由度聯合控制,以及低做功的控制方式,甚至可能催生出基于神經運動信號空間的全新交互形式。
例如,在工業控制領域,工人可以通過佩戴該接口,以更自然的方式遠程操控復雜設備,減少操作失誤,提高生產效率。?
此外,該技術還為腦機接口等相關領域提供了借鑒,其大規模數據收集和模型訓練方法可能為解決其他接口的校準問題提供方向。
結語:下一代人機交互范式或將被重新定義
Meta在2023年通過Orion AR眼鏡原型完成了技術的前期驗證,2025年核心研究成果正式被頂級學術期刊Nature收錄發表。
這項技術有望從專業AR設備逐步拓展成為通用電子設備的交互標準,最終實現“讓計算機理解人類手勢”的技術愿景。
這種以人為中心的交互理念,或將重新定義下一代人機交互范式。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.