鑒于AI現(xiàn)在可以高效地模仿人類進行寫作,CEO嘗試使用AI回復私人信息也就很正常了。哈佛商學院2018年的研究表明,高管平均每天會有24%的時間用于電子通訊。不過,如果CEO開始用生成式AI起草與員工溝通的內容,會發(fā)生什么?
一組研究人員去年在擁有700多名員工的美國軟件公司 Zapier對此進行了研究。哈佛商學院教授普里特維拉杰·喬杜里(Prithwiraj Choudhury)和同事巴特·溫妮斯特(Bart Vanneste,倫敦大學學院)、康希(音譯,范德比爾特大學)和阿米爾侯賽因·佐雷赫萬德(Amirhossein Zohrehvand,萊頓大學)希望確定員工能否區(qū)分AI和Zapier的CEO韋德·福斯特(Wade Foster)編寫的信息。利用公司員工開發(fā)的大語言模型,喬杜里和同事用福斯特發(fā)在Slack、電子郵件、公開聲明及其他消息中的內容訓練了一個聊天機器人,一開始把它叫作“韋德機器人”(Wade Bot),專門用來模仿福斯特寫作。
“AI和自動化正在對我們的工作方式和地點產生重大影響。”喬杜里說,“但是,當我們思考生成式AI的下一個前沿領域時,其中一種可能是‘個人機器人’將進行交流、參加會議、旁聽并代表我們發(fā)言。我們想要確定,今天這種情況在多大程度上是可行的。”
研究人員收集了105名員工的問題交給福斯特,讓CEO本人和韋德機器人分別給出回答,再讓員工嘗試辨別這些回答。員工在59%的情況下正確識別出了AI撰寫的內容。
還有一個令人驚訝的發(fā)現(xiàn)。員工需要評估這些回答是否有用時,哪怕是福斯特本人寫的,一旦被認為是AI生成內容,也會被評為不太有用。
研究人員隨后進行了第二項研究,以確定如果評估者對作者不熟悉,研究結果是否會有所不同。他們在美國招募了218人,要求他們閱讀參與者認為是CEO在公司財報電話會議上給出的回答。其中一些回答來自真實的財報電話會議,另一些則是由AI工具模仿CEO的風格生成的內容。研究發(fā)現(xiàn),當人們認為回答是由AI生成時,即使內容來自人類,他們也會將其評為不太有用;相反,對于被認為是CEO給出的回答,即使回答其實出自AI,他們也會認為更有幫助。
簡單來說,人們更信任人類,認為來自人類而非技術的言論更有價值。這表明,雖然AI可以提供有用信息,但人們的看法在接受信息方面起著很大作用。
不過,大多數領導者還是會以某種形式或方式使用AI。根據德勤2024年的一項調查,50%的美國CEO表示,自己的公司已經使用該技術實現(xiàn)了內容創(chuàng)作的自動化。75%的人表示自己已經或正在使用這項技術。如果你也決定這樣做,可以參考喬杜里給出的三條建議:
要保持透明
如果發(fā)現(xiàn)領導在溝通中使用了這個工具而沒有告訴他們,員工可能會開始相信領導發(fā)送的每條信息都是由機器人起草的。透明度對于建立信任和消除人們對AI的反感至關重要。要明確傳達工具的作用和好處,告訴員工你認為可以在哪些地方使用這個工具,你對回復中提取的文本和數據有哪些指導原則,以及在向機器人輸入指令和進行訓練時使用了哪些數據、又避免使用了哪些數據。
公司應該對允許甚至期望員工使用AI的范圍做出規(guī)定。當然,你本人要遵守規(guī)則,但也要讓別人知道你是如何在這些參數范圍內利用技術的。這將有助于鼓勵建設性地使用AI,并回答其他人提出的相關問題。
不用AI發(fā)送私人回復
根據喬杜里的研究,這項技術在正式溝通中更為有效,比如用在寫給股東的信或戰(zhàn)略備忘錄中。避免將其用于個人溝通,尤其是與你熟悉的人溝通。
在Zapier實驗中,工作時間較長的員工更容易認出AI生成的回復。例如,工作三年或以上的員工的猜測準確率(62%)要高于新員工(58%)。喬杜里認為,他們對福斯特溝通風格的熟悉程度限制了機器人模仿他的成功率。但是,與給下屬的郵件或在領英上發(fā)布的帖子相比,CEO的個人風格在正式寫作中更難辨別。
喬杜里說:“現(xiàn)在的目標用例應該是與陌生人交流,或者自動處理單調乏味的寫作部分。你可以用AI回答關于定價策略的問題,或者對明年利率走勢的預期。但我不會用它給董事會成員寫郵件,告訴他們自己上次是怎么度假的。”
三重檢查工作
不要依賴AI生成的答案。這種技術經常出錯,而且往往過于依賴專業(yè)術語和流行詞匯。這些挑戰(zhàn)給CEO帶來了巨大風險,因為這些信息可能會對員工、股東和客戶產生巨大影響。與其簡單地將AI的回復粘貼到文檔中,不如對每個字進行審核和事實檢查,尤其是重要和敏感信息。你還應該請一位編輯來審核AI生成的內容(或者你所有的消息內容,真的),以確保其含義、語氣和個性正確傳遞出了你想表達的意思。喬杜里說:“在沒有閱讀和核對信息前,不要按下發(fā)送鍵。生成式AI是一個偉大的工具,可以為CEO節(jié)省大量時間,但我認為不能讓它完全獨立運行。哪怕它只答錯一個問題,你也會承受巨大的意外后果。”
關于本研究——“韋德測試:生成式AI與CEO的溝通”(The Wade Test: Generative AI and CEO Communication),普里特維拉杰·喬杜里等,工作文件。
DeepL、DeepSeek | 譯 孫燕 | 編輯
《哈佛商業(yè)評論》中文版 聯(lián)系方式
投稿、廣告、內容和商務合作
newmedia@hbrchina.org
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.