來源:科學網
資深環境科學家、韓國忠南大學教授洪成進(Seongjin Hong)最近很不爽,他帶領團隊完成的一篇環境化學論文被拒稿了。更讓他生氣的是,給出拒稿意見的評審人很可能不是人,而是AI。
洪成進是如此意難平,以至于他專門在《泰晤士高等教育》撰文吐槽,其團隊論文疑因 AI 工具生成的評審意見被拒稿。
這一指控引發眾多學者對 AI 不當介入同行評審及其風險的激烈討論。
圖片由 AI 生成
從模糊矛盾且偏離主題的評審意見,到期刊主編以「極不可能」來否認指控......有評論認為——這起「AI 審稿疑云」已超越個案,直指學術誠信與科技倫理的核心問題:在應對審稿人短缺與效率壓力的同時,如何守護同行評審的嚴謹、專業與公正性?
一場 AI 審稿疑云
今年年初,洪成進團隊向某知名國際環境科學期刊投稿一篇關于「新型環境分析方法現場應用」的論文。
通過首輪評審后,團隊根據審稿人意見進行了詳細修訂。然而,修訂稿提交后,論文卻因一位審稿人第二輪出人意料的負面報告而遭拒稿。
「意見自相矛盾,且與論文無關。」洪成進在文中指出,這份評審報告存在顯著異常。
首先,審稿人提出了首輪未提及的全新質疑點。例如,針對一項明確聚焦于環境化學領域現場分析方法的研究,評審意見卻批評其未能提供「全面的生態評估」,甚至要求補充「對動物交配行為的影響分析」——這些要求更符合行為生態學的研究范疇。
其次,報告存在明顯的邏輯矛盾與事實偏差。該報告聲稱「化學分析的可重復性未充分解釋」,而事實上,該問題已在論文多個章節明確闡述。
評審語言本身也很奇怪。
「評語像用關鍵詞拼湊的模板。」
洪成進發現,報告充斥著諸如「需要更多驗證」「缺乏全面性」等籠統、公式化的評語。更蹊蹺的是,審稿人在報告開頭承認「作者回應了提出的問題」,卻在未提供充分理由的情況下稱「無法推薦該文發表」。
基于自身 15 年研究經驗,以及發表 150 余篇論文并擔任期刊副主編的經歷,洪成進注意到,近年來表面流暢但缺乏深度和專業責任感的評審報告逐漸增多。由此,他懷疑此評審意見可能部分或全部由 AI 生成。
為驗證猜想,洪成進用大型語言模型 ChatGPT 生成模擬評審意見并進行比對,發現二者在語言風格和論證缺陷上高度一致。
「它讀起來像自動回復,而非深思熟慮的科學評判。」洪成進表示。
面對其提交的詳細證據,期刊主編僅回應「審稿人使用AI的可能性極低」,并建議將修訂稿作為新投稿重新提交——這意味著團隊三個月的修訂工作歸零。
洪成進直言:「科學研究不應依賴運氣。若評審淪為關鍵詞驅動的機械流程,學術信任的基石將崩塌。」
證據還是臆斷?
洪成進的指控在學術界引發爭議,兩方觀點鮮明對立。
支持者認同其經驗判斷,認為資深研究者對評審異常情況具備敏銳辨識力。評論者 J. Miller 指出,經驗豐富的學者往往能察覺評審中的非典型信號。 J. Smith 則表示,這一事件是對 AI 工具潛在風險的必要警示。
然而,反對的聲音同樣強烈。
評論者 Roger 認為,在缺乏確鑿證據的情況下使用「可能」一詞,弱化了指控的嚴肅性,有規避舉證責任之嫌。Graff 則指出,未公開具體期刊名稱削弱了質疑的立論基礎。
圍繞這一事件,雙方爭論主要聚焦于幾個核心問題。
核心爭議首先指向舉證。反對者強調學術評審本就存在主觀性,并非 AI 獨有現象,在傳統人工評審中也時有發生。匿名評論稱:「哪位資深學者沒遭遇過更令人費解的拒稿?」也有觀點認為洪成進「兩頭通吃」——用「可能」規避法律風險,又借輿論向期刊施壓。
此外,關于 AI 在審稿中的倫理界限成為焦點。多數學者支持 AI 作為有限輔助工具,用于查重、語法檢查或文獻初篩,但堅決反對其生成完整的評審意見。
評論者 T. Kim 的觀點頗具代表性:「若審稿人無暇或無意進行深入評審,應直接拒絕邀請,而非依賴AI代勞。」
更深層次的討論聚焦系統性風險與批判性思維的弱化。有學者指出:「當學生用 AI 寫作業、審稿人用 AI 生成報告,批判性思維將集體退化。」
這種憂慮并非空穴來風,斯坦福大學一項研究顯示,超過半數的研究生承認用 AI 撰寫「非核心」論文章節。由此可見,AI 滲透已構成貫穿學術鏈條的現實風險。
類似爭議并非孤例?!蹲匀弧?024 年調查顯示,30% 的編輯承認 AI 檢測結果會影響終審決定。劍橋學者莎拉·康納的擔憂引發共鳴:「我們批判學生依賴 AI,卻對審稿環節的自動化視而不見,這是學術版的何不食肉糜?!?/p>
值得注意的是,盡管立場存在分歧,爭論雙方在一個關鍵問題上達成了共識:無論引發此次爭議的評審意見是否涉及 AI 工具,低質量同行評審意見已是當前學術出版體系中一個不容忽視的痼疾。解決這一深層問題,比單純爭論單次事件是否涉及 AI,更具普遍意義。
重構學術公信力
面對自動化審稿的潛在風險,國際上正積極尋求解決之道,核心在于提升透明度與強化責任。洪成進表示:「科學研究不應依賴運氣。同行評審必須建立在公平、透明和專業知識的基礎之上。」
透明化被視作重建信任的關鍵。洪成進呼吁建立披露機制:審稿人需聲明 AI 工具使用范圍,期刊應說明評審流程的自動化程度。
這一立場與國際頂級期刊的實踐相呼應。2024 年 3 月,
Nature母公司 Springer Nature 明確規定:允許 AI 輔助初篩,但所有結果必須人工復核,嚴格禁止完全依賴 AI 做出審稿結論。
2025 年 6 月,
Nature進一步宣布,將隨論文全文公開所有評審意見及作者回應。主編 Magdalena Skipper 強調: 「 讓評審過程曬太陽,才能重建信任。 」
技術檢測與人機協同是另一道關鍵防線。目前,刊物出版商正著手開發 AI 內容檢測系統,但現有技術仍存在瓶頸。數據顯示,當前主流檢測工具如 iThenticate 2.0 對非英語母語者論文誤判率高達 15%。這些工具主要依賴文本統計特征進行分析,雖能進行初步篩查,卻難以精準區分「AI 輔助寫作」與「完全 AI 生成」的文本。
面對技術局限,強化人工監督至關重要。麻省理工學院出版社建議:編輯必須對 AI 輔助內容進行實質性復核并簽字擔責。同時,部分期刊也在探索「開放評審抗辯權」,允許作者對疑似 AI 痕跡過重的評審提出質疑,觸發編委會仲裁。
在此背景下,一場學術信任保衛戰已然展開。技術浪潮不可逆,但如洪成進所言:「若評審淪為自動化黑箱,科學信任的根基將受侵蝕。」在效率與嚴謹的博弈中,確保評審透明化與堅守人的主體性,仍是不可退守的底線。
https://www.timeshighereducation.com/opinion/my-paper-was-probably-reviewed-ai-and-thats-serious-problem
我們長期為科研用戶提供前沿資訊、實驗方法、選品推薦等服務,并且組建了 70 多個不同領域的專業交流群,覆蓋PCR、細胞實驗、蛋白研究、神經科學、腫瘤免疫、基因編輯、外泌體、類器官等領域,定期分享實驗干貨、文獻解讀等活動。
添加實驗菌企微,回復【】中的序號,即可領取對應的資料包哦~
【2401】論文寫作干貨資料(100 頁)
【2402】國內重點實驗室分子生物學實驗方法匯總(60 頁)
【2403】2024 最新最全影響因子(20000+ 期刊目錄)
【2404】免疫學信號通路手冊
【2405】PCR 實驗 protocol 匯總
【2406】免疫熒光實驗 protocol 合集
【2407】細胞培養手冊
【2408】蛋白純化實驗手冊
【2501】染色體分析方法匯總
【2502】國自然中標標書模板
【2503】WB 實驗詳解及常見問題解答
【2504】DeepSeek 論文寫作常用口令
【2505】中國科學院期刊分區表(2025 年最新版)
【2506】期刊影響因子(2025 年最新版)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.