7月12日,三名自稱香港大學女生的用戶在社交平臺發文披露,一名法律系男生在未經她們允許的情況下,使用網絡免費AI軟件,合成其社交媒體照片生成裸照。
據悉,該男生電腦中共存有700多張AI合成的不雅照片,涉及20~30位女性。受害者身份范圍極廣——不僅包括港大同學、朋友、學姐,甚至還有小學同學和中學老師。
然而,香港大學校方介入調查后,該男生僅獲得一封警告信并被要求正式道歉。然而其還試圖輕描淡寫地“道歉了事”。校方回應與男生態度引發全網爭議:在隱匿的”技術侵犯“后,規則在哪里?
據亞洲新聞臺(CNA)和多家媒體報道,事件始于2025年2月中旬,當時該男生的朋友在其電腦中意外發現了這些分類明確、命名精細的照片文件夾。所有照片素材均來自受害者在社交平臺公開發布的近照(多數為截圖),經過AI軟件處理后被生成裸露圖像。
3月中旬,部分受害者正式向校方舉報;3月下旬至4月中旬,港大教職員先后與兩位受害者和證人進行會面了解情況。4月中旬,涉事男生收到校方口頭懲戒與檔案警告信,并向部分受害者發送了內容僅60余字的道歉信,受害人認為其態度不端正且敷衍了事。
7月12日,三名女生匿名發帖公開事件,引發廣泛關注。7月13日,港大發布官方聲明,表示已處理相關事項并將審慎審視后續行動。
以下是受害者的指控原文:
圖源:ins
據多家媒體梳理,校方曾援引條例中的“胡鬧(Ragging)”條款評估該男生行為是否構成可由紀律委員會處理的行為。但在征詢律師意見后認為,該行為未觸及校規中紀律處分的標準,決定不移交學校紀律委員會。在公告中除了強調“對任何形式的性別歧視、騷擾或不當行為持零容忍態度,將進一步審視事件細節,必要時采取更多行動,確保學生能在安全、受尊重的環境中學習”外,還公布了處理結果包括:
口頭懲戒;
內部檔案警告信;
向受害者發送道歉信(然而內容僅60余字)
圖源:香港大學官網
大多數受害者認為這一處理過于輕描淡寫,缺乏應有的嚴肅性與誠意。更令人困擾的是,校方未能及時進行教學隔離安排,導致多名受害者在3月至4月期間仍被迫與涉事男生同班上課,直到最后一節補習課才安排調課。
圖源:新加坡亞洲新聞臺(Channel NewsAsia, 簡稱CNA)
在社交媒體評論中,不少網友質疑:作為法律系在讀學生為何知法犯法?這樣的行為,在道德上固然可憎,法律與制度卻為何如此無力?
圖源:小紅書
圖源:ins
圖源:ins
目前香港法律框架中,《窺淫罪》僅適用于拍攝、傳播或威脅發布私密影像的行為。港大男生在本案中雖未傳播,僅屬“生成與保存”,因而未構成刑事罪行,所幸仍未在網上流傳,沒有對當事人造成更大的傷害。
律師界對此觀點分歧:有意見認為可探討“性騷擾”的可能性,但也有律師指出,僅憑保存并不足以定罪,香港當前法律對此確實存在空白。加上港大規程對AI圖像濫用情形缺乏具體條文約束,僅能以“胡鬧”(ragging)歸類,處理空間有限。
校方在7月13日發布聲明,強調對任何形式的性別歧視、騷擾或不當行為“零容忍”,但處理過程中既未啟動正式紀律委員會程序,也未發布全校通報,處理透明度與制度力度均遭質疑。
截至目前,SCMP在報道中稱“香港創新科技及工業局暫未具體回應是否將推動高校就AI圖像濫用制定統一規章或指引”。
圖源:《南華早報》(South China Morning Post)
事實上,早在港大事件公開前的7月3日,立法會議員容海恩就已在議會發言中指出,香港目前在AI合成圖像等新型隱私侵權問題上,“沒有刑責,也沒有法律保障”。她提到,雖然私隱專員公署發布了一些指引,但這類行為若真發生,“只能道德譴責,卻追責無門”,呼吁盡快建立應對AI時代的新法制體系。盡管此番發言并非專指港大事件,但無疑揭示了制度漏洞早已顯現。
圖源:會議過程正式紀錄https://www.legco.gov.hk/yr2025/chinese/counmtg/floor/cm20250703-confirm-ec.pdf?utm
7月15日,香港特別行政區行政長官李家超出席行政會議前見記者時就此事回應稱,大學除了傳授學術知識外,更肩負著培養學生品德的責任。“任何對他人造成傷害的行為都可能構成刑事犯罪,也可能侵犯個人權利和隱私。因此,大學應嚴肅處理學生的不當行為。”
李家超表示,雖然某些不當行為可根據校內規則處理,但任何可能違法的行為都應向執法機構舉報。
“香港現行的大部分法例均適用于網絡活動,包括《刑事罪行條例》下有關未經受害人同意發布或威脅發布其私密影像、不誠實取用電腦的罪行,以及將侵犯隱私定為刑事犯罪的《個人資料(私隱)條例》。”
李家超7月15日在出席行政會議前會見記者。圖源:香港《星島日報》
李家超提到,2025年4月,特區政府發布了香港生成式人工智能技術及應用指引,為生成式人工智能系統的開發者、服務提供者和使用者提供了切實可行的操作指令。
該指南透過嚴格遵守技術倫理、道德原則和法律要求,促進安全、負責任地開展生成式人工智能相關業務和活動,同時為應對與生成式人工智能技術相關的安全挑戰和風險提供實用的指導和指南。“香港特區政府將密切監測人工智能快速發展和應用的情況,研究全球監管趨勢。”
其實AI合成色情圖像的問題已在全球范圍內多次爆發,港大不是第一個處理AI合成裸照爭議的高校,也不會是最后一個。
從亞洲到歐美,類似的事件已經不斷出現,并正在倒逼各國法律和高校管理體系快速調整。
相比之下,韓國、英國等地已啟動法案,將deepfake色情的生成行為本身納入刑責,相關法律機制在動態更新中。例如,韓國將deepfake生成納入《數字性暴力法》;英國正推動立法將“生成”本身列為犯罪;澳大利亞校園AI裸照案也已由警方立案調查。
圖源:法新社 在首爾舉行的一場反對深度偽造色情內容的抗議活動
在一些國家,高校已不再等待制度落后帶來的災難,而是主動建立AI道德守則、增設AI倫理課程、設立心理與法律支持機制。
這些做法未必完美,卻說明一個共識正在形成:技術可以進步,規則也必須同步成長。
港大事件所引發的震動,不止于社交平臺的憤怒情緒,更暴露出高校在AI倫理治理與學生權利保障方面的嚴重滯后。
它所揭示的問題不僅是處理方式之輕,更在于社會對于“技術暴力”認知仍滯留于道德譴責,而未能在制度、法規、校園治理上形成實質規范。
AI正在悄無聲息地重塑暴力形式——生成可能就是一種“隱私侵犯”,保存亦是一種“變相加害”。
在這一事件中,“警告”與“道歉信”能否成為正義的終點?更關鍵的問題是:我們能否在制度與文化層面為下一個受害者筑起防線?
香港大學是否會成為制度變革的起點,還是“輕縱AI性侵”的又一個模糊案例?這場風波,也許不應只是一次震驚,而應成為一個真正的分水嶺。
多說一句:
微信更新了推送機制,很多小伙伴反饋收不到更新,這里建議大家將我們的公眾號加一個星標★,以免錯過推送哦!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.