最近,哈佛商學(xué)院的一項(xiàng)研究發(fā)現(xiàn)了一個(gè)令人意外的結(jié)論:那些依靠生成式人工智能(Gen AI)來輔助高風(fēng)險(xiǎn)決策的企業(yè)高管,反而更容易做出錯(cuò)誤的預(yù)測。
這似乎與我們對人工智能的期待背道而馳。在日常工作中,AI工具已經(jīng)成功地幫助我們完成簡單或重復(fù)的任務(wù),比如撰寫郵件、整理數(shù)據(jù),甚至提高溝通效率。那么,為什么當(dāng)涉及到重要決策時(shí),AI卻反而讓我們栽了跟頭呢?
認(rèn)知偏差的幕后推手
哈佛的研究指出了一個(gè)關(guān)鍵問題:認(rèn)知偏差(Cognitive Bias)。當(dāng)高管們使用AI工具時(shí),他們會(huì)在潛意識中更容易過度依賴AI提供的信息,而忽視了自身的判斷力和經(jīng)驗(yàn)積累。
具體來說,當(dāng)AI給出明確的建議或預(yù)測時(shí),人們往往傾向于過度信任這些信息。這種現(xiàn)象被稱為“自動(dòng)化偏差”(Automation Bias)。換句話說,人們會(huì)不假思索地接受AI的結(jié)論,降低了對決策本身的質(zhì)疑和審慎思考。
為什么AI建議未必正確?
AI的強(qiáng)大之處在于其數(shù)據(jù)處理和模式識別的能力。但在復(fù)雜、模糊、或高風(fēng)險(xiǎn)的決策情境中,AI仍然面臨巨大的挑戰(zhàn)。
首先,AI依賴于歷史數(shù)據(jù)。如果歷史數(shù)據(jù)本身存在偏差,那么AI所做的預(yù)測也會(huì)繼承并放大這些偏差。其次,在快速變化和充滿不確定性的環(huán)境中,AI很難捕捉到實(shí)時(shí)的變化和新出現(xiàn)的趨勢,導(dǎo)致預(yù)測與實(shí)際情況脫節(jié)。
人工智能與人類智慧的平衡
哈佛研究給我們的一個(gè)重要提醒是:在使用AI時(shí),我們必須保持一種審慎的懷疑態(tài)度。AI并非萬能,特別是在戰(zhàn)略決策、風(fēng)險(xiǎn)管理或創(chuàng)新方向的選擇上,人類的直覺、洞察力和經(jīng)驗(yàn)仍然無法被替代。
最佳實(shí)踐是將AI視為決策輔助工具,而非決策替代工具。決策者應(yīng)該利用AI幫助搜集、整理信息,并從中獲得啟發(fā)。但最終的決策仍然需要人類來權(quán)衡各種復(fù)雜因素,避免陷入自動(dòng)化偏差的陷阱。
如何避免AI造成的決策偏差?
這里有幾個(gè)簡單的方法,幫助企業(yè)高管更好地使用AI:
- 保持懷疑精神:永遠(yuǎn)對AI的建議抱有批判性思維。
- 鼓勵(lì)多元觀點(diǎn):邀請團(tuán)隊(duì)成員一起審視AI的結(jié)論。
- 明確AI局限:認(rèn)識到AI擅長和不擅長的領(lǐng)域。
- 定期審視決策流程:持續(xù)檢查AI的決策參與度,避免過度依賴。
小結(jié)
哈佛的最新研究清楚地告訴我們:盡管AI的能力令人興奮,但我們不能盲目相信技術(shù),而忽視了自身的決策責(zé)任。只有明智地使用AI,我們才能真正從中獲益,而不是讓它成為決策失誤的幫兇。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.