剛剛,一位資深教授來我們研究院咨詢,她被某平臺一則通知困惑籠罩:“您的賬號有內容疑似為AI輔助創作。社區提醒您,如后續仍有異常行為,您的賬號可能受到禁言等相應處罰。建議您在創作中分享真實知識、經驗和見解,如果使用AI工具應遵守社區規范。”
她滿臉無奈與憤懣:“如今寫作哪能完全不用AI?我文章就大量引用了你們研究院的大數據系統的數據和信息!”
我曾建議她添加AI輔助創作聲明,卻被她直接駁回:“這多此一舉!”細想之下,她的反駁不無道理。如今,AI已如空氣般自然融入創作,要求聲明就像要求聲明“用了互聯網”一樣荒誕。
筆者認為,這教授事件,實則揭開了更深層次的認知鴻溝:
質量與工具的權衡:平臺將AI使用視為風險指標,而學者堅信內容質量才是核心。在AI助力創作的當下,這種觀念差異如同鴻溝,橫亙在平臺與學者之間。學者借助AI挖掘數據、整理思路,產出更有價值的成果,平臺卻因AI的使用而心存疑慮,這背后的矛盾值得深思。
聲明機制的滯后性:當前規則難以精準區分“輔助”與“替代”。在AI創作過程中,它究竟是起到輔助作用,還是已經完全替代人工,規則并沒有給出清晰的界定。這就導致了一些合理的AI使用被誤判,引發了不必要的爭議。
值得思考的是,平臺監管的重點或許應有所調整:
打擊低質內容:批量生產的AI垃圾內容充斥平臺,不僅擾亂學術生態,還浪費讀者的時間和精力,應成為重點監管對象。
嚴控事實性錯誤:學術內容的準確性至關重要,平臺需確保傳播的信息真實可靠,避免因事實性錯誤損害公信力。
清理低質信息:圖文不相關的劣質信息降低了平臺內容的水準,影響用戶體驗,也應被清理。
而非簡單地將學術工作者使用AI提升效率的行為妖魔化。
教授事件雖無標準答案,卻如同一記警鐘,提醒我們在AI滲透率高達89%的學術領域,平臺規則需要更加精細化。平臺不應一味地禁錮工具的使用,而應以包容創新的態度,促進優質內容的涌現。畢竟,禁錮工具無法提升質量,唯有擁抱創新,才能在AI時代為學術發展注入新的活力,讓學術之花在數字時代的土壤中綻放得更加絢爛。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.