又到了一年畢業季
屏幕前的你是否還在為寫畢業論文發愁?
然而,把論文寫出來只是第一步,論文還要通過查重檢測才行。于是各種降重方法都被安排上了,翻譯轉換、同義詞替換、調換語序......
好不容易把論文的查重率降下來了,以為這就結束了?不!部分學校為了防止AI代寫畢業論文,在原有查重檢測的基礎上,還增加了AIGC檢測!
1
AIGC是什么
你可能沒聽過AIGC,但你一定用過它。AIGC全稱為“Artificial Intelligence Generated Content”,翻譯過來就是“人工智能生成內容”,即利用人工智能技術來生成各種形式的內容,包括文字、音樂、圖像、視頻等等。所以我們平時用ChatGPT、Deepseek、豆包等等軟件來生成文本都是使用的AIGC技術。
AIGC被認為是繼“專業生成內容(PGC)”和“用戶生成內容(UGC)”之后,利用人工智能技術自動生成內容的新型生產方式,它的出現標志著人工智能進入全新發展時期。AIGC主要由三個關鍵組件組成:數據、硬件和算法。高質量的音頻、文本和圖像等數據是訓練算法的基石,數據集的規模大小將直接影響訓練模型的準確性,通常樣本量越大模型越精準。這就需要硬件系統需能夠處理TB級海量數據以及包含數百萬參數的復雜算法,面對如此龐大的數據量,高性能的芯片與云計算平臺深度整合,為解決這一問題提供了算力保障。
(硬件、算法和數據之間的關系)
算法性能則直接決定內容的生成質量。如今AIGC之所以能被人們廣泛應用,離不開機器學習、深度學習以及生成式對抗網絡(GAN)等算法的發展。下面介紹一下AIGC的主要算法:
基于生成式對抗網絡(GAN)
正是有了GAN技術,AI才能夠生成逼真的圖像、音頻和文本。GNA由兩個“競爭”的神經網絡——生成器和判別器組成。生成器負責生成內容,它接受一組隨機噪聲向量并輸出與真實數據分布相似的生成數據。判別器負責評估生成數據的真實性,同時接受真實數據和生成數據并嘗試區分它們。生成器和判別器之間的訓練就是一個博弈過程,生成器不斷改進,以生成能夠欺騙判別器的數據;而判別器不斷優化,以提高其辨別能力,在它們不斷的較量中生成器的內容會越來越逼真。
基于自編碼器(Autoencoder)
自編碼器是一種利用反向傳播算法使得輸出值等于輸入值的神經網絡,包括編碼器和解碼器兩個部分。編碼器能將輸入的數據壓縮成低維度的潛在表示,而解碼器能將潛在表示重構回原始數據,從而實現數據的生成與重建。AE的用途主要有兩個方面,其一是數據去噪,其二是為了可視化對數據降維。
(Autoencoder模型)
基于變換器(Transformer)
變換器模型廣泛應用于自然語言處理(NLP)任務中,如文本生成、機器翻譯等。近年來,變換器架構也被用于圖像生成和其他多模態任務中。它的核心在于自注意力機制,能夠捕捉輸入序列中不同位置特征之間的依賴關系,而不僅僅是局部上下文。這使得變換器在處理長序列數據時能夠表現出色。Transformer通常由編碼器和解碼器兩個部分組成,編碼器將輸入序列轉換為隱層表示,解碼器則根據隱層信息生成輸出序列。
2
AIGC檢測是怎么做的
既然AIGC功能如此強大,那么用它寫論文豈不是分分鐘就搞定。正是為了避免這種學術不端行為的發生,許多平臺開始推出AI生成內容檢測功能,部分高校也把AIGC檢測結果作為論文能否通過的要求之一。面對AI生成的文本,我們都看不出來和自己寫的有啥區別,電腦又是怎么判斷的呢?
首先我們要清楚地認識到,目前任何一種AI檢測手段都無法保證100%認出哪個是機器寫的,哪個是人類寫的。因此,通常會給出一個AIGC值,表示一段文本有多大概率是AI寫的。
目前的AIGC檢測算法主要可以分為三類:
基于訓練的分類器
(在人機文本二元數據上微調預訓練模型)
這種方法基于深度學習的二分類模型,是目前AIGC檢測的主流方法。收集大量AI生成的文本與人類寫作的文本,把它們喂給同一個模型,這個新的模型就可以用這兩種數據進行訓練,經過不斷地優化、迭代,最后得到一個分類器。通過向分類器輸入一段文本,它就能輸出這段文本是AI生成的概率。由于檢測器不知道你是用哪種AI模型生成的,所以這屬于未知源的黑盒檢測,模型性能僅受限于訓練數據的覆蓋范圍。如果訓練數據涵蓋多模型、多領域,檢測的準確性和泛化性就更強,反之則可能因數據偏差導致漏檢或誤判。
零樣本檢測器
(利用大語言模型固有性質進行自檢測)
顧名思義,零樣本檢測不需要大量數據來訓練判別器,而是利用AI生成文本與人類撰寫文本之間的固有區別,使得檢測器無需訓練就能進行分類。它的優勢在于無需額外的數據收集和模型調整,這大大提高了模型對新數據分布的適應性。AI生成的文本與人類寫作在語言風格、句式復雜程度、重復率等方面存在統計學差異,AIGC檢測正是利用這種差異特征建模。AI生成的文本常呈現句式工整但缺乏靈活性、局部重復率高、信息熵低的特點,如反復使用“綜上所述”、“基于以上分析”等模板化表達。
水印技術
(在生成文本中嵌入可追溯的標識信息)
我們都聽過圖片能加水印,沒想到文字也能加水印。這里的水印不是人能夠閱讀出來的,它是一種統計學規律。舉一個簡單的例子,某個詞語在文中出現的頻率分布就可以當作文字水印。然而實際的應用中,水印算法的設計更為復雜。其中一個關鍵的挑戰就是在不扭曲原始文本的含義或可讀性的前提下嵌入水印。傳統的方法,如同義詞替換、語法樹操作、段落重組等方式很難在修改文本的同時做到較好的語義保持,而大語言模型(LLMs)的出現改變了這一現狀。它的核心優勢在于通過深度學習自動實現語義保持與水印嵌入的平衡,根據植入水印對象的不同可以分為兩大類:向現有文本中植入水印(Watermarking for Existing Text)和向大模型中植入水印(Watermarking for LLMs)。目前文本水印技術廣泛應用在版權保護、維護學術誠信和虛假新聞檢測等場景。
3
AIGC檢測靠譜嗎
隨著AI的發展,各行各業的工作者開始使用AI輔助工作,其中學生利用AI工具進行論文寫作成為了高校面臨的現實課題,為此不少高校推出了針對AIGC的畢業論文考核標準。目前,很多我們耳熟能詳的論文檢測機構,比如知網、萬方、維普、Turnitin等等都推出了AIGC檢測。
AIGC檢測真的靠譜碼?有同學表示,自己純手寫的論文,AI重復率竟高達60%,為了滿足畢業要求,不得不把強邏輯語句改成不通順的句子。甚至有人把朱自清的名篇《荷塘月色》與劉慈欣的《流浪地球》片段進行AIGC檢測,結果顯示,這兩篇經典作品總體AI生成疑似率分別達到了62.88%和52.88%。這樣的檢測結果,也讓學生們普遍多了“論文被AI”誤判的擔憂。在各大社交媒體平臺上,“論文AI率高到離譜”成熱門話題。
(《流浪地球》的AIGC檢測高達52.88%)
前面提到過,目前任何AIGC檢測都無法100%認出哪個是機器寫的,哪個是人類寫的,如果你寫的論文包含大量規范表述,或者個人寫作風格接近AI模式,就可能會被誤報。相反,如果AI生成的文本經過巧妙的潤色,也可能導致漏報。這里給大家介紹幾種降AI率的小技巧,在使用它之前,請各位一定要遵守《學位法》,確保論文中數據、圖表、文字的真實性。
翻譯大法
簡單來講就是將所寫的文字翻譯成另外一門語言,然后再翻譯回來,如果效果不佳,還可以增加中間翻譯的次數。經過幾次翻譯轉換,文本的AIGC檢測率可以大大降低。
更改句型結構
在AI給出的內容中,句型構成會具備一些比較相似的特點。仔細觀察你會發現,AI喜歡用“無論、隨著、此外、綜上、同時”等類似的詞匯,回答問題時喜歡用序號+標題+冒號+回答的形式,而且每個短句、段落的長度字數差不多。所以想要降AI就要避免使用AI大模型常用的詞匯和句式,合并一些沒有必要分開的短句和段落?;蛘叨嗍褂玫寡b句、問句或口語化表達,這都能很好地降AI。
(AI的回答有喜歡的句式)
豐富文本內容
AI寫的論文總是讓人看上去很有道理,但實際上沒什么實質內容,也沒有體的例子。所以想要降低AI,就要加入一些干貨和實例,這樣文章才不會看上去像AI寫的。
用AI降AI
AI比人更懂AI檢測背后的原理,用魔法打敗魔法。至于AI降AI這事靠譜嗎,小編我沒試過,感興趣的同學可以試試。
4
講在最后
關于AI生成內容檢測技術在畢業論文審查中的應用,目前仍存在較大爭議。這項技術的初衷是為了維護學術誠信,但實際應用效果卻難以令人滿意。教育的本質目標在于培養學生的創新思維和問題解決能力,而非過度關注工具的使用方式。在人工智能快速發展的時代背景下,我們不僅需要建立防范技術濫用的機制,更應當從根本上重構教育評價體系,建立以能力為導向、能真實反映學生學術素養的多元化評估標準。
5
參考資料
Yang, Xianjun, et al. "A survey on detection of llms-generated content." arXiv preprint arXiv: 2310.15654 (2023).
編輯:Sid
1.2.
3.
4.
5.
6.
7.
8.
9.
10.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.