IT之家 5 月 22 日消息,麻省理工學(xué)院(MIT)最新研究表明,人工智能(AI)在理解“no”和“not”等否定詞方面仍存在明顯缺陷,在醫(yī)療等關(guān)鍵領(lǐng)域可能引發(fā)嚴(yán)重風(fēng)險(xiǎn)。
研究表明,AI 已快速發(fā)展,具備診斷疾病、創(chuàng)作詩(shī)歌甚至駕駛汽車等多項(xiàng)實(shí)用技能,但對(duì)“no”和“not”等否定詞,卻束手無(wú)策。
在博士生 Kumail Alhamoud 的帶領(lǐng)下,MIT 團(tuán)隊(duì)聯(lián)合 OpenAI 和牛津大學(xué),發(fā)現(xiàn)包括 ChatGPT、Gemini 和 Llama 在內(nèi)的當(dāng)前主流模型,在處理否定語(yǔ)句時(shí),常傾向于默認(rèn)肯定關(guān)聯(lián),忽略否定語(yǔ)義。
研究報(bào)告認(rèn)為,這種情況在醫(yī)療場(chǎng)景產(chǎn)生的潛在危害尤為明顯。例如,AI 可能誤解“no fracture”(無(wú)骨折)或“not enlarged”(未擴(kuò)大),導(dǎo)致嚴(yán)重后果。
IT之家援引博文介紹,問(wèn)題的根源并非數(shù)據(jù)不足,而是 AI 的訓(xùn)練方式。斯坦福大學(xué)深度學(xué)習(xí)兼職教授 Kian Katanforoosh 指出,大多數(shù)語(yǔ)言模型依賴模式預(yù)測(cè),而非邏輯推理。
這導(dǎo)致 AI 在面對(duì)“not good”(不好)時(shí),仍可能因“good”一詞而誤判為正面情緒。專家強(qiáng)調(diào),若不賦予模型邏輯推理能力,類似細(xì)微卻致命的錯(cuò)誤將持續(xù)發(fā)生。
Lagrange Labs 首席研究工程師 Franklin Delehelle 也表示,AI 擅長(zhǎng)模仿訓(xùn)練數(shù)據(jù)中的模式,但缺乏創(chuàng)新或處理訓(xùn)練數(shù)據(jù)之外情境的能力。
研究團(tuán)隊(duì)通過(guò)合成否定數(shù)據(jù)(synthetic negation data)嘗試改進(jìn)模型,取得初步成效,但細(xì)粒度的否定差異仍具挑戰(zhàn)性。
Katanforoosh 警告,AI 對(duì)否定的誤解不僅是一項(xiàng)技術(shù)缺陷,更可能在法律、醫(yī)療和人力資源等領(lǐng)域引發(fā)關(guān)鍵錯(cuò)誤。他呼吁,解決之道不在于堆砌更多數(shù)據(jù),而在于結(jié)合統(tǒng)計(jì)學(xué)習(xí)與結(jié)構(gòu)化思維,提升模型的邏輯能力。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.