復雜的生物過程在細胞、組織的三維空間中時刻維持著精密有序的運轉,維系生命活動的基本功能。為了從三維視角觀測和研究這些動態生物過程,諾貝爾化學獎獲得者Eric Betzig發明了晶格光片顯微鏡(LLSM),與寬場或共聚焦顯微鏡等傳統落射式熒光成像技術相比,大幅降低對活體樣本的光漂白與光毒性。為突破衍射極限,晶格光片結構光照明顯微鏡(LLS-SIM)將LLSM與結構光照明技術(SIM)相結合,在分辨率與活細胞成像速度、時程等指標間實現了最佳平衡。然而,傳統 LLS-SIM 僅支持單一方向結構光照明,導致空間分辨率各向異性,且未超分辨方向易產生畸變,難以精確探測三維空間中的亞細胞動態。
近年來,以深度學習為代表的智能計算方法對光學顯微鏡發展產生變革性影響。通過光學成像系統與智能算法的聯合優化,可在極大程度上突破光學系統設計的時空帶寬固有局限,實現超高速、超分辨、超長時程活體熒光顯微成像。在這一新興領域,李棟團隊與戴瓊海團隊合作,已完成一系列代表性的前沿進展:2021年,合作團隊利用自主搭建的多模態結構光照明顯微鏡構建超分辨顯微圖像數據集BioSR,并提出傅里葉注意力神經網絡架構,已成為領域內被廣泛使用和比較的基準(詳見BioArt報道:)【1】;2023年,合作團隊提出合理化深度學習結構光超分辨智能顯微成像技術,利用光學成像物理模型提升智能超分辨重建保真度、降低不確定性(詳見BioArt報道:)【2】;2024年,合作團隊提出零樣本學習解卷積方法,無需額外訓練數據即可實現對多種成像模態數據的信噪比與分辨率增強(詳見BioArt報道:)【3】;今年1月,合作團隊針對活體實驗中常見的時間序列顯微數據,進一步提出相空間校準貝葉斯神經網絡架構,實現置信度可量化的時序顯微圖像超分辨重建(詳見BioArt報道:)【4】。以上技術降低了前沿超分辨顯微成像技術的使用門檻,并提升了超分辨成像靈敏度、速度、活體成像時程等關鍵性能指標,揭示了諸多其他技術無法觀測到的生命現象。
作為上述智能顯微成像技術在三維超分辨成像模態中的重要擴充,2025年4月29日,清華大學生命科學院李棟團隊與自動化系戴瓊海團隊合作在Nature Methods雜志上發表題為Fast-adaptive super-resolution lattice light-sheet microscopy for rapid, long-term, near-isotropic subcellular imaging的研究論文。該研究提出元學習驅動的反射式晶格光片虛擬結構光照明顯微鏡(Meta-rLLS-VSIM)及相應的各向同性超分辨重建框架,通過虛擬結構光照明、鏡面增強雙視角探測、Bayesian雙視角融合重建等技術創新,在不犧牲成像速度、光子代價等核心成像指標的前提下,將LLS-SIM 的一維超分辨能力擴展至XYZ三個維度,實現橫向 120 nm、軸向 160 nm 的近各向同性成像分辨率。特別地,該工作將元學習策略與系統數據采集過程深度融合,僅需3分鐘就可以完成從訓練數據采集到深度學習模型的自適應部署過程,讓AI工具在實際生物實驗中的應用達到近乎“零門檻”。合作團隊在植物花粉管、小鼠胚胎、秀麗隱桿線蟲胚胎及有絲分裂或分裂間期的其他真核生物等多種標本上進行了實驗,驗證了 Meta-LLS-VSIM 在快速、長時程、多色三維超分辨成像任務中的成像能力。
虛擬結構光照明實現橫向各向同性超分辨重建
LLS-SIM通過兩束光干涉在單一方向產生結構光片照明圖案(圖1a),從而提升單一維度空間分辨率。但受限于激發物鏡光軸取向,其產生的結構光圖案無法像標準SIM一樣旋轉,導致空間分辨率各向異性。針對此問題,合作團隊提出一種虛擬結構光照明方案,即首先利用 LLS-SIM 結構光照明模式采集高低分辨率數據對,訓練用于一維超分辨推理的深度神經網絡(DNN)模型(圖1b),再應用訓練好的 DNN生成其他方向的各向異性一維超分辨圖像。最后類似標準 SIM 重建,將不同取向的多個一維超分辨圖像通過廣義維納濾波進行解卷積重建,獲得橫向各向同性超分辨體棧(圖1c)。圖1d-l展示了不同方法對于肌動蛋白微絲的成像效果對比圖,驗證了所提出虛擬結構光照明成像在空域和頻域上的顯著分辨率提升效果。
圖1 虛擬結構光照明二維各向同性超分辨成像方法示意與效果展示
元學習驅動的模型快速自適應部署
由于亞細胞生物結構的形態多樣性和DNN表征能力有限,當前深度學習超分辨方法通常需為每種特定生物結構訓練專用模型以實現最佳推理效果,而每次模型訓練需成百上千對高質量數據,耗時數小時至數天,難以廣泛用于日常對于多種生物樣本的成像實驗中。為此,合作團隊提出了一種元學習解決方案,即將不同生物樣本和信噪比的超分辨重建問題視為單獨的子任務,首先通過現有數據訓練一個通用元模型。不同于傳統有監督學習或預訓練模型,通用元模型旨在學習不同子任務的共性需求,在參數空間尋找可快速遷移至不同任務的收斂點,最終在實際應用中僅需少量數據集和梯度更新即可快速遷移到適配新任務的模型參數(圖2a-d)。
圖2 元學習驅動的模型快速自適應部署實現流程及效果展示
為了充分發揮元模型的性能,研究團隊通過簡化自動數據采集、數據預處理和元微調流程,為所搭建的LLS-SIM系統賦予了元學習驅動的快速自適應部署能力。在實際應用中,用戶僅需在控制軟件窗口中選擇3個細胞區域,后續數據采集和所有計算流程(包括LLS-SIM重建、數據增強和元微調)將全部由系統自動執行。整個數據采集過程大約為2分鐘,而模型微調過程(重建圖像峰值信噪比提升6dB以上)使用單張顯卡僅需30秒以內,所需數據量比標準有監督學習減少12倍,速度快720倍(如圖2c與圖3所示)。
圖3 元學習驅動的模型快速自適應部署過程視頻展示
合作團隊使用網格蛋白小窩(CCP)和肌動蛋白微絲(F-actin)兩種新結構對元模型微調效果進行評估(如圖2e、f所示),發現初始元模型僅需一次微調迭代就可去除大部分偽影,損失函數在30次迭代內即可完成收斂,大幅提升對于兩種結構的超分辨重建能力。結合虛擬結構光照明,所提出方法可消除各向異性LLS-SIM圖像的重建偽影,清晰地分辨CCP分布位置與F-actin密集交織的結構細節。
Meta-rLLS-VSIM實現近各向同性超分辨成像
虛擬結構光照明可有效將一維超分辨能力擴展至二維平面,但無法提升軸向分辨率。近年,若干基于深度學習的方法通過自學習(Self-learning)或循環生成對抗網絡(Cycle-GAN)在無真值條件下通過數據驅動的方法直接提升軸向分辨率。但通常軸向分辨率比橫向差三倍以上,導致這些方法存在嚴重欠定性,難以保證重建正確性。
圖4 Meta-rLLS-VSIM重建原理及效果展示圖
為更合理地提升Meta-LLS-VSIM的軸向分辨率,合作團隊采用鏡面增強雙視角探測方案同時獲得分辨率互補的兩個視角信息(圖4a),并設計融合算法——Richardson-Lucy雙循環融合網絡(RL-DFN),將多視角RL迭代和系統點擴散函數(PSF)先驗融入神經網絡架構和損失函數設計(圖4b)。雙視角信息的有效融合從物理本質上使軸向分辨率提升更為合理,相比于其他數據驅動算法,RL-DFN能夠以各向同性分辨率更精確地恢復出樣本細節(圖4c、d)。
集成以上技術創新,合作團隊構建了完整三維各向同性重建框架,包括熒光背景抑制、圖像體棧去傾斜、橫向各向同性重建、雙視角分離與配準,以及RL-DFN雙視圖融合,最終實現橫向120nm分辨率、軸向160nm的近各向同性成像分辨率(圖4e-g),體積分辨率相比傳統LLSM提升15.4倍(橫向2.3倍、軸向2.9倍)。
Meta-rLLS-VSIM實現快速五維超分辨活細胞成像
為展示Meta-rLLS-VSIM的快速五維(波長通道-XYZ三維空間-時間)超分辨活細胞成像能力,合作團隊對小鼠胚胎(圖5a)、植物花粉管(圖5b、c)、線蟲胚胎(圖5d-g)等大體積厚樣本進行了長時程超分辨觀測。兼具晶格光片照明的物理光學層析與近各向同性的三維超分辨能力,Meta-rLLS-VSIM清晰地揭示了花粉管頂端極性生長、秀麗隱桿線蟲胚胎發育過程中質膜融合等生物過程。
圖5 Meta-rLLS-VSIM實現快速五維超分辨活細胞成像效果展示
進一步地,合作團隊利用Meta-rLLS-VSIM對完整COS-7細胞進行了快速(每8秒拍攝一組三通道完整細胞數據)、長時程(>800個時間點)、近各向同性超分辨成像(圖5h-m,圖6),對不同細胞器在三維空間中的分布模式及其與細胞骨架的時空協同互作機制進行了精確的定量研究。得益于高時空分辨率與長周期的觀測窗口,合作團隊觀測到微管與溶酶體之間“搭便車”、線粒體在溶酶體運動產生的機械力作用下分裂等新現象,驗證了Meta-rLLS-VSIM發現新生物現象與機制的潛力。
圖6 Meta-rLLS-VSIM與傳統LLSM成像效果對比
綜上所述,Meta-rLLS-VSIM通過反射增強雙視角晶格光片顯微鏡與元學習快速自適應部署模式的成像系統硬件升級,與虛擬結構光照明和RL雙循環融合網絡的人工智能算法創新,展現了軟硬件協同優化帶來的成像性能巨大提升。Meta-rLLS-VSIM的出現為細胞生物學、神經科學等基礎學科發展提供了新的技術路徑,有望幫助生命科學研究人員從更全面的多維視角發現、理解、探究豐富多彩的生物現象。值得一提的是,經過近三年的同步商業化開發,Meta-rLLS-VSIM技術已在北京納析光電科技有限公司落地轉化為顯微儀器產品——超分辨光片顯微鏡NanoSlice(https://www.naxi-tech.com/NanoSlice),結合該公司推出的顯微圖像智能處理分析軟件DeepInsight(https://www.naxi-tech.com/deepinsight),形成了從五維光片圖像采集、圖像超分辨重建與增強、再到數據分析與繪圖的全流程解決方案。
清華大學生命科學院李棟教授、自動化系戴瓊海院士為該論文共同通訊作者,清華大學自動化系博士后喬暢、復旦大學副研究員李子薇、中科院生物物理所博士后王宗發、博士生林煜桓、瑞士洛桑聯邦理工學院博士后劉沖為該論文共同第一作者。此外,該工作也得到了華南農業大學王浩教授的重要支持和幫助。
https://www.nature.com/articles/s41592-025-02678-3
李棟課題組長期招收博士后、科研助理寄博士研究生從事光學顯微成像技術開發與應用的多學科交叉研究。歡迎具有物理光學、計算機、自動化等相關專業背景的申請者加入。
簡歷投遞( 有意者請將個人簡歷等材料發至 ):
https://jinshuju.net/f/ZqXwZt或掃描二維碼投遞簡歷
制版人: 十一
參考文獻
[1] Qiao, C. et al. Evaluation and development of deep neural networks for image super-resolution in optical microscopy.Nature Methods18, 194-202 (2021).
[2] Qiao, C. et al. Rationalized deep learning super-resolution microscopy for sustained live imaging of rapid subcellular processes.Nature Biotechnology41, 367-377 (2023).
[3] Qiao, C. et al. Zero-shot learning enables instant denoising and super-resolution in optical fluorescence microscopy.Nature Communications15, 4180 (2024).
[4] Qiao, C. et al. A neural network for long-term super-resolution imaging of live cells with reliable confidence quantification.Nature Biotechnology(2025).
學術合作組織
(*排名不分先后)
戰略合作伙伴
(*排名不分先后)
(*排名不分先后)
轉載須知
【非原創文章】本文著作權歸文章作者所有,歡迎個人轉發分享,未經作者的允許禁止轉載,作者擁有所有法定權利,違者必究。
BioArt
Med
Plants
人才招聘
會議資訊
近期直播推薦
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.