想象一個世界,你的機器人助手在你開口前就已準備好了咖啡,自動駕駛汽車能預判行人可能的橫穿行為,智能家居系統在你忘記關燈前就貼心提醒。這不是科幻電影場景,而是行為預測技術正在實現的未來。與傳統的行為識別不同,行為預測技術旨在系統尚未觀察到任何部分行為時就預測即將發生的動作。近年來,隨著深度學習技術的飛速發展,這一領域取得了令人矚目的進步。研究者們通過挖掘視頻時序特征、融合多模態信息、建立概率模型等多種途徑,不斷提升預測的準確性與及時性。這項技術正在從實驗室走向現實應用,重塑我們與智能系統的交互方式。
預測之謎
行為預測不同于常見的行為識別任務,它面臨著更為復雜的挑戰。當我們觀看一段視頻時,識別正在發生的動作相對容易,因為所有信息都已呈現在眼前。但預測未來的行動則要困難得多,這就像是在看到前幾分鐘的足球比賽后,猜測下一個進球會在何時發生一樣充滿不確定性。
行為預測任務主要分為兩大類:短期預測和長期預測。短期預測關注的是幾秒鐘內可能發生的動作,比如預測一個人伸手拿杯子后是要喝水還是把杯子移到別處。而長期預測則試圖預測未來幾分鐘甚至更長時間內可能發生的一系列動作,如預測一個人在廚房里接下來會完成哪些烹飪步驟。
行為的可預測性也各不相同。工業生產線上的操作流程通常遵循嚴格的規范,預測難度較低。而做飯這類活動雖然有一定規律,但每個人的烹飪習慣和食材選擇都會帶來變數。更具挑戰的是預測那些受環境刺激觸發的行為,如門鈴響時人們會去開門。最難預測的當屬自發性行為,這類行為往往沒有明顯的先兆或規律可循。
在技術實現上,大多數短期預測模型采用了一種"看到一部分,猜測后續"的方法。它們會將視頻劃分為若干小片段,提取這些片段的特征,然后基于觀察到的內容預測未來的特征表示,最后將這些預測結果轉化為具體的動作類別。例如,Epic-Kitchens數據集上的預測模型通常是觀察1-2秒的視頻片段,然后預測接下來1-2秒內可能發生的動作。
長期預測則更多地關注動作序列之間的關系和依賴性。這些模型通常將已識別的動作作為輸入,而不是直接處理原始視頻幀,從而降低了計算復雜度并能夠關注更高層次的行為模式。例如,Breakfast數據集上的長期預測模型會根據已觀察到的前20%或30%的視頻內容,預測后續可能發生的一系列動作及其持續時間。
行為預測領域面臨的主要挑戰包括:未來的不確定性(同樣的開始可能導向多個不同的未來)、長時間依賴建模(某些行為可能受到很久之前動作的影響)、數據稀缺性(大規模標注數據集的獲取困難)以及計算效率問題(實時系統需要快速響應)。這些挑戰也正是推動研究人員不斷探索新方法的動力。
技術突圍
應對行為預測的復雜挑戰,研究者們開發了多種創新技術方法。這些方法可以歸納為幾個主要技術路線,每一種都試圖從不同角度解決預測問題。
利用視頻的時序動態作為學習信號是一種很受歡迎的方法?;ヂ摼W上有海量的未標注視頻,這些視頻中蘊含著豐富的時序信息。一些研究者發現,可以讓模型學習預測未來的視頻表示,而不需要明確的動作標簽。例如,Vondrick等人在2016年提出的方法就是訓練一個深度回歸網絡,輸入單幀圖像,預測未來幀的視覺特征。這種自監督學習方式極大地擴展了可用的訓練數據量。
隨著研究深入,研究者們發現單幀圖像往往不足以準確預測未來,因此開始嘗試利用更長的歷史信息。Zhong和Zheng在2018年提出的雙流網絡就同時考慮了空間上下文和時間上下文,使用長短期記憶網絡(LSTM)來總結歷史信息,大大提升了預測準確率。
對比學習在近年來也被廣泛應用于行為預測領域。這種方法的核心思想是讓模型學習將正樣本對(例如當前幀和未來幀)的表示拉近,同時將負樣本對的表示推遠。這種訓練方式可以幫助模型學習到更有區分性的特征,從而提高預測性能。
長期時序信息的有效編碼和利用是另一個重要研究方向。大多數行動都有其前置觸發行為,而這些觸發行為可能發生在較遠的過去。循環神經網絡憑借其內部記憶能力,成為了處理序列數據的常用工具。但傳統循環網絡也存在長期依賴難以建模的問題,為此,研究者們提出了多種改進方案。
例如,Gammulle等人在2019年提出使用外部神經記憶網絡來存儲整個數據集的知識。這種記憶網絡可以在輸入刺激出現時,基于存儲的知識生成輸出,并通過寫操作更新自身。Liu和Lam在2021年提出的HRO模型也使用了外部記憶模塊,但不同的是,這個模塊在推理過程中是固定的,用于預測下一時刻的表示,而不是增強當前時刻的表示。
為了克服循環網絡順序處理的限制,許多研究者轉向了注意力機制和Transformer架構。這類方法能夠并行處理所有過去的幀,而不是順序處理,大大提高了計算效率。Wang等人在2020年提出的Transformer風格架構從最后觀察到的幀特征生成查詢向量,從所有其他過去的幀特征生成鍵和值向量,通過注意力分數提取相關信息,形成一個聚合表示。
隨著自注意力操作在Transformer模型中計算復雜度的增加(隨序列長度的平方增長),如何有效處理長序列成為一個重要問題。Xu等人在2021年提出了一種兩階段記憶壓縮設計,將長期記憶壓縮和抽象為固定長度的潛在表示,經驗表明這種方法可以帶來更好的性能。
多模態融合是提升行為預測性能的另一個重要途徑。除了原始視頻幀外,利用其他輔助輸入模態如光流特征、場景中的物體信息、聲音等,都能提供額外的線索。不同融合策略在行為預測中也得到了廣泛探索,包括分數融合(對不同模態的預測結果進行加權平均)、晚期特征融合(先預測各模態的未來表示,再融合)和中期特征融合(先融合不同模態,再預測未來)。
Furnari等人在2019年提出的RU-LSTM模型就考慮了三種不同類型的信息:外觀、運動和場景中的物體存在。他們建立了三個分支,并提出了一個由全連接層組成的融合模塊,為每種模態生成注意力分數。實驗表明,為每個模態分配動態重要性對預測結果有明顯的改善。
在應對行為預測固有的不確定性方面,概率模型展現出獨特優勢。給定當前觀察,未來可能發生多種不同的行為。傳統的確定性模型往往只能預測最可能的未來,而忽略了其他可能性。為了克服這一局限,一些研究者開始探索能夠生成多種可能輸出的模型。
Vondrick等人早在2016年就嘗試將回歸網絡擴展為支持多輸出,通過訓練K個網絡混合物,每個混合物學習預測未來的一種可能模式。Farha和Gall在2019年提出的框架則以隨機方式預測所有后續動作及其持續時間,通過從學習到的分布中采樣,實現長期預測。
近年來,生成對抗網絡和變分自編碼器等生成模型也被應用于行為預測領域。這些模型能夠學習數據的分布,從而生成多樣且真實的未來行為序列。Zhao和Wildes在2020年使用條件對抗生成網絡處理動作標簽和時間的聯合預測,通過Gumbel-Softmax松弛技術實現可微分采樣,并使用規范化距離正則化器鼓勵多樣性。
隨著研究深入,一些研究者開始嘗試在更概念化的層次上進行建模。他們不再直接預測未來的視頻特征,而是先識別當前動作,然后基于動作之間的依賴關系進行推斷。這種方法的直覺很簡單:如果我們已經觀察到了某些觸發性動作,就可以直接預測后續可能發生的動作。例如,如果觀察到"拿杯子"這個動作,下一個動作很可能是"喝水"。
測評標尺
行為預測技術如同植物的生長需要充足的陽光和水分,離不開大量的實驗數據和合適的評估機制。這些數據集和評估標準就像是科研世界里的評委和比賽規則,指引著技術的發展方向。
在眾多數據集中,基于日常生活場景的數據集因其貼近實際應用而備受關注。EpicKitchens系列數據集記錄了人們在廚房中的各種烹飪活動,收集了超過100小時的無腳本視頻,包含了90,000個動作標注,涵蓋97個動詞和300個名詞。使用這樣的數據集,研究人員能夠訓練模型預測諸如"拿起刀"后是否會"切番茄"這類具體行為。與此不同,50Salads數據集則從頂視角拍攝了25個人準備沙拉的過程,提供了4小時多的視頻數據,標注了17種細粒度的動作。
除了廚房場景,日常生活中的其他活動也被廣泛收錄。Ego4D數據集堪稱第一人稱視角視頻的龐然大物,收集了來自53個不同場景的120小時視頻,標注包含478類名詞和115類動詞,總計4,756個動作類別。這些數據讓模型能夠學習到更加多樣化的人類行為模式。
從電影和網絡視頻中提取的數據集也很受歡迎。TVSeries數據集包含了六部熱門電視劇的片段,共約16小時的視頻內容,覆蓋了30種日常動作。THUMOS14則收集了20多小時的體育視頻,標注了20種動作。這些數據集中豐富多變的場景和視角為模型提供了更廣泛的學習材料。
數據集的選擇往往取決于具體的研究目標。若要研究自發性行為,真實生活中記錄的無腳本視頻就更為合適;若關注復合活動,如"準備早餐"這種包含多個子動作的活動,則需要包含層次化標注的數據集;若要研究同時進行的多個活動,如邊聽音樂邊閱讀,就需要特別的數據集支持。
評估行為預測模型的方法也各有側重。Top-k準確率是最常用的指標,它檢查真實標簽是否在模型預測的前k個結果中??紤]到類別不平衡問題,許多研究者使用類別平均Top-k準確率來評估性能。在長期預測任務中,常用的是對預測幀的類別平均Top-1準確率。
對于多步預測,平均精度(AP)和校準平均精度(cAP)被廣泛采用。AP計算每個動作類別的精度并取平均值,而cAP則通過參數調整考慮了類別不平衡問題。編輯距離也是評估預測序列的重要指標,它能夠衡量預測序列與真實序列的相似度,對預測順序上的小誤差具有魯棒性。
在實際評估中,短期預測方法通常在第三人稱視角的數據集(如TVSeries和THUMOS14)上測試多個時間戳的預測能力,而在第一人稱視角的數據集(如EpicKitchens)上則測試單一未來動作的預測能力。長期預測方法則在Breakfast和50Salads等數據集上進行測試,觀察視頻前部分(如20%或30%)后預測后續不同比例片段的動作。
實驗結果顯示,預訓練在更大數據集(如Kinetics)上的模型通常表現更好,Transformer架構的方法在多個基準測試中展現出優勢。多模態融合也被證明對提升預測性能很有幫助,特別是在第一人稱視角數據集上。對于長期預測,使用真實動作標注作為輸入的方法明顯優于使用特征或預測分割結果的方法,這表明準確識別過去動作對未來預測至關重要。
前景無限
行為預測技術正日益走出實驗室,走進工業應用和日常生活。這些應用場景不僅驗證了技術的實用價值,也為進一步的研究提供了明確方向。
在人機交互領域,行為預測帶來了更自然、更具前瞻性的互動體驗。傳統的人機交互往往是被動響應模式,即用戶發出明確指令后系統才做出反應。而引入行為預測后,交互變得更加主動。例如,在2020年的一項研究中,研究者開發的機器人能夠預測用戶接下來要與哪個物體交互,提前做好準備,使整個協作過程更加流暢。在助老助殘領域,預測技術使機器人能夠在老人即將摔倒前提供支撐,或在殘障人士需要幫助前主動提供適當服務。
自動駕駛技術也因行為預測而更安全。在城市環境中,車輛需要與行人、騎行者和其他車輛共存。2018年的一項研究展示了如何預測行人在人行橫道的行為,讓自動駕駛車輛能夠及時做出反應。另一項研究則專注于預測潛在的交通事故,通過分析路況和其他道路使用者的行為模式,提前幾秒識別可能的碰撞風險,為避險操作爭取寶貴時間。
工業場景中,預測技術提高了生產效率和安全性。倉庫機器人能夠預測工人的移動軌跡,避免碰撞并優化自身路徑。在生產線上,系統能夠預判操作人員的下一步動作,適時提供所需工具或零部件,減少等待時間。
盡管行為預測技術已取得顯著進展,但挑戰仍然存在?,F有數據集覆蓋范圍有限,多集中在特定場景如廚房活動,缺乏對更廣泛日常生活場景的覆蓋。此外,標注大量無腳本、長視頻是極其耗時的工作,這限制了可用訓練數據的規模。
未來研究可能會更多地探索無監督學習方法,減少對標注數據的依賴。合成數據集,如從游戲中生成的視頻數據,也可能成為有價值的補充。除此之外,結合大型語言模型的知識也是一個有前途的方向。像ChatGPT這樣的模型已經從大量文本語料中學習到了人類行為的規律性,將這種知識遷移到行為預測中可能帶來突破。
個性化是另一個重要的研究方向。目前的方法往往是主體無關的,假設所有人行為模式相似。但實際上,每個人都有獨特的習慣和偏好。例如早在2015年,Zhou和Berg的研究就表明,根據特定個體或環境進行個性化調整能顯著提升預測性能。
處理未來的不確定性也需要更多關注。生成模型如GANs、VAEs、歸一化流和擴散模型都能夠生成各種可能的未來行為,有助于理解行為變化的可能范圍。如何量化這種不確定性并將其納入決策過程,將是未來研究的重點。實時性能也是實際應用中的關鍵因素。盡管大多數預測系統設計初衷是實時部署在自動駕駛車輛或機器人上,但評估往往在離線環境中進行,忽略了推理延遲。優化模型以達到實時響應要求將成為實際應用中的重要課題。
多人行為預測是另一個有待深入的領域?,F有方法主要關注單人場景,但現實世界中常常涉及多人互動。結合目標和人物檢測技術,可能是解決這一問題的方向之一。
隱私保護也是不容忽視的議題。行為預測系統需要收集和分析大量個人數據,如何在提供個性化服務的同時保護用戶隱私,需要技術和倫理層面的共同考量。
行為預測技術正處于快速發展階段,它將改變我們與智能系統互動的方式,使這些系統更加智能、自然和高效。隨著研究的深入和應用的拓展,我們有理由期待這一技術帶來更多令人驚嘆的進步。
參考資料:
Zhong, Z., Martin, M., Voit, M., Gall, J., &; Beyerer, J. (2023). A Survey on Deep Learning Techniques for Action Anticipation.
Girdhar, R., &; Grauman, K. (2021). Anticipative Video Transformer.
Wu, C., Feichtenhofer, C., Fan, H., He, K., Krhenbhl, P., &; Girshick, R. (2022). Long-term Memory for Long-form Video Understanding.
Furnari, A., &; Farinella, G. M. (2020). Rolling-Unrolling LSTMs for Action Anticipation from First-Person Video.
Grauman, K., et al. (2022). Ego4D: Around the World in 3,000 Hours of Egocentric Video.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.