文/朱天宇 美編/柳晴雪 出品/網界
5月20日,國家網絡與信息安全信息通報中心的一則通告,將智譜清言、Kimi等一些熱門的AI應用推上風口浪尖。
這些曾被資本追捧、用戶量動輒千萬的明星產品,因“超范圍收集個人信息”“數據與業務功能脫節”等問題,成為監管利劍下的典型樣本。
諷刺的是,就在一個月前,Kimi的運營方月之暗面剛因“技術突破”登上熱搜,而智譜清言背后的公司正緊鑼密鼓籌備IPO。
這場風暴撕開了AI行業光鮮表皮下的隱秘角落——當技術狂奔時,隱私保護的紅線正在被資本、數據饑渴和監管滯后三重力量反復拉扯。
01
AI頻頻偷吃用戶隱私
本次被通報的35款應用中,AI類產品占比超過三分之一。
其中,智譜清言(版本2.9.6)因收集用戶信息“越界”被通報,其月活用戶達906萬月之暗面旗下的Kimi(版本2.0.8)則因收集數據與聊天功能無關遭處罰,而這款應用坐擁2499萬月活用戶。
除智譜清言和Kimi外,本次被通報的AI類產品還包括“智慧AI聊天”(版本1.4.0)、“虛擬戀愛AI”、“AI智能秘書”等,他們被指在配置文件中聲明的一些權限,與移動應用的所有業務功能均沒有直接關聯。
這些案例暴露出AI行業的深層矛盾。技術層面,大模型訓練需要海量數據支撐,智譜清言基于ChatGLM2模型、Kimi依賴自研k1模型,都需持續“喂養”用戶對話數據以優化表現。
資本層面,月之暗面去年估值沖上30億美元,智譜AI今年3月剛獲15億融資,在資本催熟的壓力下,合規往往讓位于增長指標。
而監管滯后更讓企業心存僥幸:《個人信息保護法》制定時尚未預見生成式AI的爆發,現有法規對“告知-同意”原則的執行存在模糊地帶。
02
AI治理未雨綢繆
本次AI應用違規通報凸顯了AI技術需求與隱私保護間的深層矛盾,面對困局,國內也正在探索一條兼顧技術創新與用戶權益的本土化治理路徑。
4月30日,中央網信辦啟動了為期3個月的“清朗·整治AI技術濫用”專項行動,首次將“使用非法數據訓練大模型”作為打擊重點,旨在規范AI技術的合理應用。
同時,《個人信息保護法》也對企業侵犯個人信息的行為設定了嚴厲的懲罰措施,包括高額罰款,以強化隱私保護。
歐洲也為AI隱私治理提供另一種范式。就在通報發布前一天(5月19日),意大利數據保護機構對聊天機器人Replika開出500萬歐元罰單,理由是“未明確告知數據用途”及“未能防止未成年人訪問敏感內容”。
這與歐盟《人工智能法案》形成呼應——該法案將AI系統按風險分級,對聊天機器人等高風險應用實施嚴格的數據透明度要求。
這些案例共同揭示了一個關鍵趨勢:在AI技術的快速發展中,治理措施必須穿透技術黑箱,確保在數據采集、模型訓練以及結果輸出的全鏈條中嵌入隱私保護設計。
這不僅是對個人隱私權的尊重,也是AI技術健康、可持續發展的必要條件。
總結
AI不能不懂邊界
此次通報事件,恰似一記刺向AI行業的清醒劑。當資本狂歡褪去,企業必須直面一個本質問題:沒有用戶信任的技術進步,終究是空中樓閣。
從監管動向看,未來的合規審查將更強調“實質重于形式”——不再局限于隱私文本的合規性,而是通過技術檢測驗證數據流向。對企業而言,這意味著一場從組織架構到技術棧的全面變革。
而對用戶來說,隱私意識的覺醒正在改寫市場規則。那些仍將數據視為“免費石油”的企業,終將被拋棄。正如一位網友的犀利評論:“AI可以不懂情感,但不能不懂邊界。”
在這場技術與人性的博弈中,唯有真正尊重隱私的企業,才能穿越周期,贏得未來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.