編輯丨toileter
AI 與機(jī)器學(xué)習(xí)(ML)為加速科學(xué)發(fā)現(xiàn)提供了巨大的機(jī)會(huì),越來越多地被應(yīng)用在大規(guī)模、復(fù)雜的生物問題中。不過稍顯遺憾的是高級(jí) AI/ML 在超出訓(xùn)練數(shù)據(jù)所涵蓋的環(huán)境中表現(xiàn)不佳。
比如特定作物的性能取決于基因型、生長條件和管理實(shí)踐的變化,相較于日常物品雖然形式多變但仍然在事件與空間上相對(duì)固定,作物的形態(tài)發(fā)育需要更大的數(shù)據(jù)庫與更長的訓(xùn)練時(shí)間。
美國伊利諾伊大學(xué)(University of Illinois Urbana-Champaign)力求打破這種局面。他們提出了一種生成式對(duì)抗性學(xué)習(xí)策略,旨在最大限度地減少訓(xùn)練時(shí)所需的人工監(jiān)督。
該研究以「Breaking the barrier of human-annotated training data for machine learning-aided plant research using aerial imagery」為題,于 2025 年 4 月 23 日發(fā)表在《Plant Physiology》。
論文鏈接:https://academic.oup.com/plphys/article/197/4/kiaf132/8117869
育種期間的計(jì)算機(jī)視覺
這項(xiàng)研究涉及利用生成對(duì)抗網(wǎng)絡(luò)(GAN)的能力,從航空平臺(tái)捕獲的未標(biāo)記圖像中學(xué)習(xí)數(shù)據(jù)的顯著特征。研究者將這種方法描述為有效監(jiān)督的 GAN(ESGAN)。
實(shí)驗(yàn)的測試是通過對(duì)數(shù)千種不同的芒草在規(guī)定時(shí)間內(nèi)是否產(chǎn)生花序進(jìn)行基因型分類,數(shù)據(jù)經(jīng)由無人駕駛飛行器(UAV)收集,對(duì)所提出的方法進(jìn)行案例研究。
ESGAN 的性能與基于完全監(jiān)督學(xué)習(xí)(FSL)范式的各種流行算法和具有不同復(fù)雜程度的傳統(tǒng)遷移學(xué)習(xí)(TL)進(jìn)行了比較,包括 K-近鄰算法(KNN)、隨機(jī)森林(RF)、自定義 CNN 和 ResNet-50。
提供由 3,137 張圖像組成的完整 (100%) 訓(xùn)練數(shù)據(jù)集時(shí),所有 5 種模型類型都能夠正確分類植物是否已達(dá)到抽穗。CNN、ResNet-50 和 ESGAN 模型都表現(xiàn)良好,總體準(zhǔn)確性 OA = 0.89 ~ 0.92。
圖 1:測試數(shù)據(jù)中航向檢測的評(píng)估。(圖源:論文)
隨著帶注釋的訓(xùn)練數(shù)據(jù)量的減少,所有模型類型都表明準(zhǔn)確檢測航向的能力有所降低。ESGAN 的 OA 從 0.89 下降到 0.87,故而它幾乎可以忽略某些限制學(xué)習(xí)數(shù)量的懲罰,比如將用于訓(xùn)練的注釋圖像數(shù)量減少到可用數(shù)據(jù)的 1%。
其次是使用 ResNet-50 的 TL 是第二種最穩(wěn)健的方法,它在訓(xùn)練數(shù)據(jù)降低到 10% 時(shí)仍保持了正常發(fā)揮。
更多像這樣測試數(shù)據(jù)表明了 ESGAN 的有效性,尤其是當(dāng)可用于訓(xùn)練的注釋圖像少于數(shù)百張時(shí),其成為了能正確識(shí)別 2 個(gè)圖像類別的最有效模型。
利用 ESGAN
ESGAN 從航空圖像中準(zhǔn)確確定植物航向的能力可以用 ESGAN 的生成器和 ESGAN 的判別器子模型的協(xié)同貢獻(xiàn)來解釋。
訓(xùn)練中生成器最初產(chǎn)生了雜亂且非實(shí)際的圖像,但生成器子模型逐漸學(xué)會(huì)了更好地匹配真實(shí)圖像像素的 RGB 顏色強(qiáng)度和空間分布,將它們變成非常逼真的植物圖像。
圖 2:ESGAN 生成器在建模實(shí)現(xiàn)過程中生成的「假」圖像的可視化表示。(圖源:論文)
由于本研究的最終目標(biāo)是最大限度地提高 ESGAN 確定植物抽穗狀態(tài)的能力與準(zhǔn)確度,因此獲得有關(guān)該分類器學(xué)習(xí)過程的見解和可解釋性是分析的關(guān)鍵組成部分。
通過梯度加權(quán)類激活映射,可以知道模型的學(xué)習(xí)過程中的哪些部分對(duì)模型的決策貢獻(xiàn)最大。該模型成功地關(guān)注植物像素與背景像素,并根據(jù)所考慮的圖像類別改變其激活水平。
表 1:通過地面目視檢查與無人機(jī)成像加 ESGAN 對(duì)芒草育種試驗(yàn)進(jìn)行分析所需的活動(dòng)和時(shí)間。
人類在試驗(yàn)中行走的目視檢查,包括在電子設(shè)備上記錄數(shù)據(jù),每株植物大約需要 10.5 秒。相比之下,當(dāng)通過無人機(jī)獲取圖像并使用 ESGAN 進(jìn)行分析時(shí),時(shí)間需求可以減少 8 倍以上。
此外,ESGAN 的訓(xùn)練時(shí)間從 750s 到 900s 不等,具體取決于分析的注釋樣本的數(shù)量。雖然這比其他學(xué)習(xí)方法慢 3~4 倍,但與實(shí)地工作的效率提升相比,計(jì)算時(shí)間的增加很小。
數(shù)字農(nóng)業(yè)的新助力
研究人員報(bào)告說,開發(fā)和使用經(jīng)過定制訓(xùn)練的機(jī)器學(xué)習(xí)模型,將會(huì)大大減少確定不同地點(diǎn)、繁殖種群的開花時(shí)間所需的工作量。
這種新方法所采用的數(shù)據(jù)集來自多州芒草育種試驗(yàn)。新的分析方法旨在開發(fā)適合部分區(qū)域的芒草品系,這些品系可以用作原料,在目前無法盈利的土地上生產(chǎn)生物燃料和高價(jià)值生物制品。
該研究的指導(dǎo)教授希望新的方法可以被更多人使用,以改進(jìn)涉及更多性狀和物種的作物,從而有助于廣泛支持生物經(jīng)濟(jì)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.