“歡迎參加AI視頻面試,請打開手機攝像頭和錄音設備……”
隨著人工智能的快速發展,越來越多的企業采用AI技術進行面試。這種面試形式打破了傳統面試的時空限制,效率更高,成本更低,因此受到了眾多企業的青睞。但與此同時,求職者的個人隱私卻可能受到侵害。
智能招聘的“快車道”
早在2017年,國內便出現了AI面試系統。最初,AI面試多為簡單的結構化問答,隨著技術升級,從自我介紹到情景模擬,從問題解決到才藝展示,目前的AI面試基本能夠覆蓋常見的初試面試場景——有的會在屏幕上呈現一個簡單的虛擬數字人形象,配合字幕用語音口述題目;有的使用交互效果,試圖營造真實的辦公場景;還有的已經從標準化提問模式升級為追問模式,不僅可以對求職者的簡歷信息進行綜合性研判,還能夠根據回答情況進行精準追問。
《2023年中國網絡招聘市場發展研究報告》顯示,AI面試的應用場景占比已經達到31.8%。廣泛應用的背后,反映了龐大的市場需求。一方面,AI面試能夠實現跨地域、大批量的線上面試,大大減少了對面試官人數的需求,可以有效提升工作效率,降低人工成本。另一方面,AI面試能夠精準統計、整理、歸納求職者的基礎信息,包括年齡、性別、求職意向、行業認知等,同時對求職者的作答內容、語言表達、動作表情等進行量化打分,綜合評估其與招聘崗位的匹配程度,并生成評估報告。招聘單位結合評估報告,能夠快速篩選對應比例的人員,進入下一輪面試。
隱私安全“新風險”
“自己的臉、聲音等信息是否會被用到其他地方?”隨著AI面試成為一種新常態,求職者對隱私安全的擔憂也逐漸受到關注。
AI面試需要收集求職者的姓名、年齡、學歷、工作經驗等個人信息,還要對求職者的面部和聲紋等生物特征進行數據采集和分析。這些敏感數據一旦被泄露或濫用,將對求職者的隱私安全造成嚴重威脅。
與此同時,AI面試系統學習的數據樣本可能帶有算法歧視或隱含偏見,如果某些崗位傾向于選擇特定性別或年齡的候選人,企業在采用AI面試時使用甚至放大這些偏見,那么面試過程與結果的公正性就無法得到保證。
筑牢防范“安全網”
AI面試的發展與應用必須在法律軌道上穩步前行。相關專家建議,求職者應當妥善認識并保護人臉、聲紋等隱私數據的安全,比如,在參加AI面試前,仔細閱讀企業提供的隱私政策,確認個人信息數據的使用目的及保護措施;在面試中保持警惕,不輕易提供與招聘無關的敏感數據。
對于AI面試的應用,企業也應當以更加審慎的態度對待。按照《生成式人工智能服務管理暫行辦法》要求,AI面試產品需要進行相關備案,其產生的數據一般存儲于企業本地或私有云平臺,也可能存儲于公共云平臺,受到云供應商數據安全保護。因此,企業應當建立完善的隱私保護機制,嚴格遵循最小化數據收集原則,采取脫敏化、去標識化等保密措施,確保求職者的個人信息不被泄露或濫用。此外,企業應當將AI面試作為一種輔助評估手段而不是決定性因素,充分告知求職者哪些面試環節由算法驅動,為求職者構建一個公平公正的應聘環境。
來源:人民日報海外版、經濟日報、中國青年報
轉載自保密觀微信公眾號
新媒體編輯:宗敏
如需交流可聯系我們
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.