【太平洋科技快訊】蘋果近日公布了一項名為《Foundation Model Hidden Representations for Heart Rate Estimation from Auscultation》的研究報告,探索了利用語音處理的基礎模型估算心率的可行性。
盡管語音處理模型最初是為識別語音而設計的,但蘋果的研究人員發現,這些模型同樣能夠有效處理心音圖(Phonocardiogram, PCG)數據。心音圖是利用換能器將心臟的機械震動轉換為電流信號并記錄下來的曲線圖,在心臟健康監測中具有重要價值。研究團隊測試了包括Whisper、wav2vec2、wavLM等在內的六個主流語音處理模型,并與蘋果自研的CLAP(Contrastive Language-Audio Pretraining)模型進行了對比實驗。
研究使用了公開的CirCor DigiScope Phonocardiogram數據集,包含約20小時的心音錄音,每段錄音時長在5.1至64.5秒之間。研究團隊將音頻文件分割為每秒移動一次的5秒片段,共生成23381個心音片段用于心率轉換測量。結果顯示,蘋果自研的CLAP模型在不同數據分割中均取得了最低的平均絕對誤差(MAE),優于傳統聲學特征訓練的基準模型。這表明,CLAP模型由于其訓練數據涵蓋了更多非語音內容,能夠更好地捕捉心音相關特征,從而提升心率估算的準確性。
蘋果研究人員表示,語音處理的基礎模型可以有效適應聽診和生命體征估算任務,成為傳統方法的強大替代方案。他們還發現,模型規模越大并不意味著心率估算效果越好,但通過進一步微調或能提升精度。這項技術有望應用于心肺聲音的病理分析,幫助更精準地檢測心律失常和雜音等異常情況。
如果這項技術能夠成功實現商用轉化,未來的AirPods耳機將不再僅僅是音頻設備,更將成為重要的健康監測工具。用戶可以通過耳機內置的麥克風和聲學傳感器,在佩戴耳機時實時監測心率,并將數據同步到蘋果健康生態中。這項功能在運動場景中尤為有用,因為耳機佩戴方式比手腕設備更穩定,能夠提供更精準的心率數據,避免因手臂擺動導致的誤差。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.