最近,總有吃瓜群眾問:通過API的方式,來調用市面上各種DeepSeek服務,到底安全不安全,會不會造成隱私或者數據泄露?
先說結論:不安全!
無論是通過API還是通過網頁版,或者各種APP客戶端,都存在一定的安全風險。
具體存在哪些風險呢?
首先明確一點,當通過API或者WEB/APP使用大模型服務的時候,你的Prompt信息(輸入的文本、問題、指令,提交的圖片或者文檔等等),都會被傳送到公網和云端服務器。
那么以下環節,就可能存在風險↓
1、數據傳輸風險
當你通過網絡將數據發送到云端API時(網頁版也一樣),如果這個鏈接不是HTTPS加密的,那么,你就要小心了,數據可能會被攔截或竊聽。
當然,絕大多數正規服務提供商都會默認使用加密傳輸,但是,也不排除某些草臺班子搞出“超綱”的操作。(尤其要注意某些山寨的或者廉價的服務商)
2、服務提供商的隱私政策與存儲策略
用戶提交到服務器端的數據,在大模型完成推理任務后,這些數據默認會被“短暫保存”,主要用于日志、合規審計、服務優化等目的(這是作為服務商必須的,也是合理正當的)。
但不排除數據會被長期保存,并被用于訓練,這需要看不同服務商的隱私政策。
所以,大家在使用注冊使用服務的時候,一定要仔細看用戶協議和隱私政策,確認數據是否會被存儲、如何存儲、存儲多久,以及數據是否會被使用。
比如DeepSeek官方API的用戶協議,是這樣寫的↓
這是另外一家第三方API提供商的協議,明確說明不會訪問和使用。
當然因為這是一家純純的第三方,并沒有自家的模型,所以不拿數據去訓練也是理所應答的。↓
我們再看ChatGPT的協議,就很霸道了。
明確說了會將數據用于訓練,不過他們也給了一個可選的通道,允許用戶禁止自己的數據用于訓練。
當然,對于商業用戶,OpenAI默認不會把他們的數據拿去訓練。
不管協議怎么約定,數據在別人手里,總還是讓人覺得不妥帖的。
與本地部署的模型相比,云端API意味著你無法完全控制數據的處理環境,你必須依賴服務提供商的承諾和能力來保護數據。
3. 大模型服務商自身的安全能力
即使API服務商“一心向善”,恪守不碰數據的原則。
但如果他們安全能力不足(比如服務器被黑客攻擊),你的數據仍然會面臨泄露風險。
選擇有良好聲譽、技術實力雄厚、具備強大安全認證(如ISO 27001)的提供商可以降低這種風險。
4. 本地RAG知識庫的數據泄露
還有一種典型的應用場景,那就是在調用API的同時,本地部署了知識庫做RAG。
有小伙伴問:本地的知識庫會被傳輸到云端嗎?
我們先來看一下完整的數據交互流程,由于增加了RAG,整個流程多了兩步。
通過這個流程可見,本地知識庫在使用過程中,并不會被完整上傳到云端。
但是與用戶問題最相關知識片段,會被上傳、存儲。
所以,使用RAG,不僅當前提交的內容有泄露風險,本地知識庫也會泄露,知識庫中要避免存儲敏感信息(隱私數據、商業機密)。
總的來說,調用云端大模型API服務確實有一定的數據泄露風險,如果有嚴苛的合規要求和數據安全需求,建議選擇以下方案↓
1、完全本地化部署:一體機、本地化集群、專屬云等,犧牲靈活性和成本來換安全。
2、云上專屬模型部署:選擇可靠的、有數據安全背書的AI Infra服務商,部署專屬模型。
3、如必須調用API,則增加數據脫敏措施,避免提交敏感數據,或者在知識庫中存放敏感數據。
當然,本地化部署并不一定就比云上安全,這取決于本地的安全防護能力、運維水平和安全意識。
就好比,把錢放在家里未必比放在銀行保險柜安全。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.