AI的成功不僅取決于其與日俱增的能力,還取決于人們使用這些能力的意愿。一些人抗拒AI使用的驅(qū)動因素是:認為AI太不透明、沒有感情、過于僵化和獨立,相比而言,與人類互動更可取。了解這些驅(qū)動因素至關(guān)重要,有助于設(shè)計一些干預(yù)措施,以提高組織內(nèi)部與消費者對AI的采用率。
AI創(chuàng)造了一個驚人的悖論:在2023年蓋特納的一項調(diào)查中,79%的組織戰(zhàn)略者表示,使用AI、自動化以及數(shù)據(jù)分析技術(shù),對他們未來兩年的成功至關(guān)重要,但其中只有20%的人表示他們正在日常活動中使用AI。
AI的成功不僅取決于其與日俱增的能力,還取決于人們使用這些能力的意愿。但正如蓋特納調(diào)查結(jié)果所顯示的,AI尚未得到用戶青睞。
不幸的是,大多數(shù)人對AI如何塑造未來同樣持悲觀態(tài)度。福布斯顧問(Forbes Advisor)平臺的研究顯示,77%的美國人擔(dān)心,AI應(yīng)用會在未來12個月內(nèi)導(dǎo)致工作機會的流失。80%的人認為,AI增加了他們的私人數(shù)據(jù)被犯罪分子惡意使用的可能性。還有更悲觀的看法:YouGov進行的一項民意調(diào)查發(fā)現(xiàn),近一半的美國人認為AI有一天會攻擊人類。在對AI如此不信任的情況下,要讓員工們心甘情愿地、熱切地、全面地使用AI,是一項艱巨的任務(wù)。
基于十多年來我對技術(shù)應(yīng)用的研究,包括對約2500名用戶深入的定性訪談和實驗,我找到了人們抗拒AI使用的驅(qū)動因素:人類對AI的基本認知是,AI太不透明、沒有感情、過于僵化和獨立,相比而言,與人類互動更可取。了解這些驅(qū)動因素至關(guān)重要,有助于設(shè)計一些干預(yù)措施,以提高組織內(nèi)部與消費者對AI的采用率。在本文中,我將詳細探討這些驅(qū)動因素,并解釋管理者可以如何應(yīng)對。
人們認為AI太不透明
對用戶來說,許多AI工具所依賴的機器學(xué)習(xí)算法都是難以捉摸的“黑匣子”。這種密不可見的特性挫傷了人們對知識和理解的基本渴望,尤其是當(dāng)它們給出不確定或出乎意料的結(jié)果的時候。研究發(fā)現(xiàn),如果不透明的AI比人類、或簡單透明的AI表現(xiàn)更好時,人們會愿意使用它,但如果它的表現(xiàn)與后者大致相當(dāng),人們就會止步不前。
人們往往以為人類的決策不像算法那么“黑匣子”,但這種想法其實沒有根據(jù)。心理學(xué)家已經(jīng)證明,人們幾乎無法洞察他人在想什么,因而,我們會使用啟發(fā)法來理解人類行為。例如,一項研究中,參與者被要求對AI或人類醫(yī)生在查看皮膚掃描圖像后進行癌癥診斷的過程做出描述,他們這才意識到,自己對人類診斷過程的了解并不像他們自以為的那樣深刻。這一認知讓他們不再對使用醫(yī)療AI抱有偏見。
對AI工具如何工作做出解釋,可以提高它們的接受度,但并非所有的解釋都會有效。研究人員發(fā)現(xiàn),相較于簡單的解釋AI做了什么(例如,它啟動了汽車的剎車系統(tǒng)并讓汽車停了下來),人們更愿意知道AI工具為什么會做某事(例如,他們更愿意知道自動駕駛汽車剎車是因為前方有障礙物)。
解釋的方式至關(guān)重要。那些使用“比較推理”(comparative reasoning)的解釋,也就是概述為什么不選擇某些替代方案的解釋,比起不使用比較推理的解釋更能提升用戶的信任度。例如,一項研究發(fā)現(xiàn),對AI系統(tǒng)為何將某一腫瘤歸類為惡性而非良性做出詳細描述的解釋,比起簡單地說“該腫瘤與其他惡性腫瘤相似”這樣的解釋更可信(即使兩種解釋可能都是對的)。從根本上說,最令人信服的解釋是那些既能闡明所做決定背后的原因,又能闡明為什么會放棄其他選擇的解釋。
因為表現(xiàn)最佳的AI模型通常比其他模型更復(fù)雜、也更難解釋,因此,管理者可能需要首先在組織流程中引入相對簡單的模型,尤其在員工認同極為重要的情況下。
讓解釋的復(fù)雜度與任務(wù)的復(fù)雜度之間互相匹配也很重要。研究表明,如果對算法的解釋表明該算法對于某一任務(wù)來說似乎過于簡單,就像AI在診斷癌癥時,如果只是將掃描結(jié)果與一張腫瘤圖片進行了比較,那么用戶很可能不會聽從AI的指引。但是,如果對算法的解釋表明該算法很復(fù)雜,比如說AI將掃描結(jié)果與成千上萬張惡性與良性腫瘤的圖片進行了比較,還參考了醫(yī)學(xué)研究成果來支持自己的評估,那么就不會降低用戶對AI的依從性。這意味著,在撰寫解釋之前,你需要了解用戶對相應(yīng)任務(wù)的看法。你也應(yīng)該避免造成你的AI對于該任務(wù)過于簡單的印象;否則,可能還不如不提供任何解釋。
人們認為AI沒有情感
雖然消費者傾向于相信AI工具可以具備人類的某些能力,但他們并不認為機器能夠體驗情感,因此對AI可否完成那些似乎需要情感能力的主觀性任務(wù)持懷疑態(tài)度。對于那些已經(jīng)能夠以人類相同技能水平完成某些主觀性任務(wù)的AI系統(tǒng),這種懷疑態(tài)度阻礙了人們對它的接受程度。例如,相比人類做出的財務(wù)建議,人們對AI提供的財務(wù)建議持有同樣的開放態(tài)度,因為這項任務(wù)被視為是客觀的。然而,當(dāng)涉及到諸如約會建議這樣的被視為高度主觀性的事務(wù)時,人們明顯更傾向于人類的意見。
企業(yè)可以通過以客觀用語來表述任務(wù),也就是將重點放在任務(wù)可量化且可度量的方面,去解決這一障礙。例如,對于AI生成的約會建議,你可以強調(diào)“依據(jù)性格評估生成的可量化結(jié)果而指導(dǎo)匹配過程”的好處。在線約會服務(wù)商OkCupid將其算法與個性評估和海量的用戶數(shù)據(jù)分析相結(jié)合;它同時還著重說明其算法是如何針對潛在的匹配對象做出篩選和排序,以找到與用戶偏好完美吻合的目標。
企業(yè)還可以通過將AI工具擬人化,例如賦予其性別、人類的名字和聲音,來提升它們的采用度。在一項使用自動駕駛汽車仿真的研究中,當(dāng)汽車的AI系統(tǒng)具有人類聲音和人類頭像等特征時,參與者表現(xiàn)出更加強烈的信任和舒適感。另一個例子是亞馬遜的Alexa,它具有女性的性別以及包括名字和聲音等在內(nèi)的一系列類人特征。這些特征形成了一種讓用戶熟悉的個性,能幫助用戶更好地與AI產(chǎn)生共鳴,并能夠更加舒適地與其互動。
其他研究人員還發(fā)現(xiàn),那些不愿將AI擬人化的人對AI能力的信任度也較低,從而導(dǎo)致他們抗拒對AI的使用。例如,與和人類電話推銷員通話相比,那些不愿將電話推銷聊天機器人擬人化的人,往往會更快結(jié)束與聊天機器人的通話。
雖然將AI擬人化往往能提升采用率,但有時也會適得其反,就像獲取治療性傳播疾病藥物這樣敏感或?qū)擂蔚那闆r。在這種情況下,消費者往往更喜歡沒有人類特征的AI,因為他們相信這樣的AI更少評判他人。
人們認為AI太僵化
人們通常認為犯錯有助于人類的學(xué)習(xí)和成長,而不會把犯錯當(dāng)成一個標志,意味著這個缺陷不可更改。但人們經(jīng)常會認為AI工具是死板的,不善于調(diào)整和進化:這種信念很可能源于人們的過往經(jīng)驗,認為機器只是執(zhí)行有限功能的靜態(tài)設(shè)備。
這種認知會降低人們對技術(shù)的信任,并對技術(shù)在新場景中能發(fā)揮的效能產(chǎn)生擔(dān)憂。然而,研究表明,當(dāng)人們得知AI具有自適應(yīng)學(xué)習(xí)能力時,消費者對AI的使用率就會上升。即使只是一些暗示AI具有學(xué)習(xí)潛力的命名,例如將AI稱為“機器學(xué)習(xí)”而不只是 “算法”,也能提高用戶的參與度。奈飛會經(jīng)常宣傳它是如何隨著收集更多的用戶觀看習(xí)慣數(shù)據(jù)而不斷改進其內(nèi)容推薦算法的。為了強化這一觀點,奈飛將推薦內(nèi)容打上了“為您”等標簽,并會解釋說推薦這些內(nèi)容的原因是 “因為您曾觀看了x”,從而進一步增強了用戶關(guān)于算法的印象,算法是在一直考慮他們不斷變化的偏好的。
那些認為AI缺乏靈活性的人們可能會認為,AI會對每個人一視同仁,生搬硬套一刀切的方式方法,因此忽略了個體的獨特性。的確,消費者越認為自己與眾不同,就越不會使用AI。例如,一項研究表明,參與者越是認為自己的道德特征突出,就會對評估道德品質(zhì)的AI系統(tǒng)越發(fā)抗拒。
與此同時,靈活性和可預(yù)測性之間也存在著微妙的平衡。盡管公司強調(diào)AI的學(xué)習(xí)和進化能力,通常會提高AI的采用率,但如果用戶覺得系統(tǒng)的輸出過于不可預(yù)測,這種做法也可能會適得其反。
因為適應(yīng)性更強的AI系統(tǒng)可以支持更多樣的用戶互動方式,而其中的一些互動方式可能無法被用于AI訓(xùn)練的數(shù)據(jù)捕捉到,因此風(fēng)險也往往更大。而當(dāng)AI變得更加靈活時,人們以不恰當(dāng)?shù)姆绞绞褂盟目赡苄砸矔黾樱谶@種情況下,算法可能會做出不恰當(dāng)?shù)姆磻?yīng),給用戶和公司帶來新的風(fēng)險。
因此,AI系統(tǒng)必須在靈活性與可預(yù)測性和安全性之間取得平衡。它們可以通過納入用戶反饋,并添加可以正確處理意外輸入的安全保護措施來做到這一點。
人們認為AI過于自主
無需人類主動干預(yù)就能執(zhí)行任務(wù)的AI工具往往會讓人們感覺受到了威脅。人類從很早就開始努力掌控自己周圍的環(huán)境,去實現(xiàn)自己的目標。因此,如果某些創(chuàng)新削弱了他們對局勢的掌控力,人類本能地不愿意采用。
AI賦予算法高度的獨立性,使其能夠制定策略、采取行動并不斷完善自身能力,而所有這些應(yīng)對新情況的調(diào)整,都無需人類直接的引導(dǎo)。AI工具不僅僅是提供協(xié)助,而是會完全接管某些之前由人類來處理的任務(wù),這一可能性激起了人們強烈的擔(dān)憂和顧慮。例如,絕大多數(shù)美國人(76%)對乘坐自動駕駛汽車感到擔(dān)憂。同樣,人們擔(dān)心智能家居設(shè)備可能會侵犯他們的隱私,偷偷收集他們的個人數(shù)據(jù),并會以不可預(yù)見的方式使用這些數(shù)據(jù)。
人們不愿意把任務(wù)交給AI的另一個原因,是因為他們認為自己的個人表現(xiàn)要優(yōu)于AI技術(shù)的表現(xiàn)。有意思的是,在一個實驗中,我發(fā)現(xiàn),從美國各地選出的1600多名年齡從18歲到86歲的參與者,相比為自己選擇的汽車的自動化水平,參與者會為他人選擇自動化水平更高的汽車。原因何在?因為他們認為相比自動駕駛汽車,自己是更好的司機,而其他人則不是更好的司機。
為了提高AI系統(tǒng)的利用率,公司可以通過讓人們?yōu)橄到y(tǒng)提供輸入,也就是形成所謂的 “人類參與式系統(tǒng)”,來找回消費者的掌控感。Nest是一款允許用戶對其進行個性化設(shè)置的智能家居產(chǎn)品,比如通過手動來調(diào)節(jié)溫控器或去設(shè)置特定的時間表。用戶可以選擇自動學(xué)習(xí)或手動輸入的方式。掌控感還可以通過對產(chǎn)品設(shè)計元素的調(diào)整來增強。例如,iRobot公司選擇將Roomba吸塵器設(shè)置為按照可預(yù)測的路徑移動,而不是按照可能會讓吸塵器顯得 “很活躍”的不可預(yù)測的路徑移動。
然而,讓人們對AI系統(tǒng)擁有過多的控制權(quán)有可能會降低其產(chǎn)出的質(zhì)量和效率。幸運的是,研究發(fā)現(xiàn),只需保留少量的干預(yù)能力就能讓消費者感到舒適。因此,營銷人員可以對AI系統(tǒng)進行校準,取得人類控制感和系統(tǒng)準確性之間的最佳平衡。
人們更愿意與人類互動
在一項研究中,我考察了人們是更愿意接受人類銷售員的服務(wù),還是接受假想的,被描述為在外觀和身心能力上與人類無異的AI機器人的服務(wù)。在一系列包括與人類或機器人銷售員互動的預(yù)期舒適度、到訪他們所在商店的意愿,以及預(yù)期的客戶服務(wù)水平等衡量標準上,參與者都一致傾向于人類銷售員。這一結(jié)果源于人們對機器人沒有人類的意識,缺乏對意義的理解能力的信念。此外,參與者認為機器人與人類的差異越大(通過參與者對諸如“在道德層面,機器人永遠不如人類”等說法的認可程度的打分來衡量),他們表現(xiàn)出的這種偏好就越強烈。
文化背景很可能是反AI傾向中的一個重要因素。例如,比起其他國家,即使是無生命的物體也有靈魂或精神這一信念在日本更被廣為接受,這可能會導(dǎo)致與人類高度相似的AI在日本會更容易被接受。
無論公司在AI上投入多少資金,領(lǐng)導(dǎo)團隊都必須考慮那些影響人們使用AI的心理障礙。同時也必須認識到,對于我所描述的五種障礙中的任何一個,一些旨在提高接受度的干預(yù)措施,都有可能在無意中增加了對AI的抵觸。
相較于直接進入解決方案模式,領(lǐng)導(dǎo)者們更應(yīng)該謹慎行事。每一個AI系統(tǒng)、應(yīng)用、測試和全面部署,都會遇到不同的障礙。領(lǐng)導(dǎo)者的職責(zé)就是認識到這些障礙,幫助客戶和員工克服它們。
關(guān)鍵詞:AI
朱利安·德弗雷塔斯(Julian De Freitas)| 文
朱利安·德弗雷塔斯是哈佛商學(xué)院市場營銷學(xué)助理教授。
DeepL | 譯 張炬 | 校 程明霞 | 編輯
《哈佛商業(yè)評論》中文版 聯(lián)系方式
投稿、廣告、內(nèi)容和商務(wù)合作
newmedia@hbrchina.org
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.