全文 3,500字 | 閱讀約18分鐘
(近日,在哈佛大學(xué)采訪AI2首席執(zhí)行官Oren Etzioni)
一、他比我們早 40 年進入 AI,但依然不信任 AI
——你是不是也以為,搞 AI 的人,最相信 AI?
他是哈佛歷史上第一位正式主修計算機科學(xué)的學(xué)生。
那是 1983 年,計算機還要靠軟盤驅(qū)動,主流學(xué)生擠在圖書館讀經(jīng)濟學(xué),人工智能不過是冷門研究員在實驗室里的“未來幻想”。但 Oren Etzioni 已經(jīng)拿起筆,簽下了第一份“計算機科學(xué)本科申請書”。
40 年后,他成為世界最早一批 AI 學(xué)術(shù)領(lǐng)軍人物,也曾擔(dān)任由微軟聯(lián)合創(chuàng)始人保羅·艾倫支持的艾倫人工智能研究所(AI2)首任 CEO。到了 2024 年,他又親手創(chuàng)辦了 True Media,一個致力于用 AI 對抗 deepfake 假信息的非營利平臺。
你以為他是 AI 的堅定布道者嗎?
不——他反而說:
“永遠(yuǎn)不要完全相信一個 AI 系統(tǒng)。”
在這個所有人都在熱議“AI 多聰明”的時代,Oren 卻反復(fù)強調(diào)的是:AI 不會毀滅你,但它可能在你沒有察覺的時候,悄悄代替了你做決定。
他是一個比任何人都早進入 AI 世界的“老兵”,卻是少數(shù)能從浪潮中心看清方向的人。
二、AI 真正的風(fēng)險,不是太強,而是太“像人”
——你有沒有刷到一張圖、聽到一段語音,第一反應(yīng)是:真的假的?
AI 到底可怕嗎?
大多數(shù)人怕的是它“太聰明”——能模仿聲音,能生成圖片,能假裝是你爸給你打電話。 但 Oren Etzioni 怕的,卻是它太“像人”了——像到你分不清真假,像到你開始不假思索地相信它。
他舉了一個真實的例子:
2023 年,有人在網(wǎng)上傳播了一張“美國五角大樓被炸”的合成照片。 不到十分鐘,這張圖在 Twitter 上瘋轉(zhuǎn),連藍勾用戶都在轉(zhuǎn)發(fā),甚至引發(fā)了股市短暫下跌。
你以為這是一次“玩笑式的惡作劇”? Oren 的回應(yīng)很冷靜——也很可怕:
“人類判斷信息真假的準(zhǔn)確率,和擲硬幣差不多。”
它說明:我們以為 AI 的問題是技術(shù)不夠成熟,但現(xiàn)實是——人類認(rèn)知系統(tǒng)根本沒準(zhǔn)備好與 AI 共處。
也正因如此,Oren 在 2024 年創(chuàng)立了 True Media,一個致力于識別 deepfake、拆解虛假信息的公益平臺。
這不是一次技術(shù)炫技,而是一場信息世界的“認(rèn)知戰(zhàn)”。
他不是在反對 AI,而是在用 AI 對抗 AI。
他要的不是“封鎖”,而是讓普通人重新拿回判斷的權(quán)力。
“AI 不會毀滅世界,錯誤的信息才會。你不能阻止 AI 的生成能力,但你可以提升自己的分辨能力。”
在印尼、印度、歐洲、美國,True Media 被成千上萬的媒體、NGO、核查組織接入。
而 Oren 只講了一句話:
“如果這個世界必須與 AI 共存,那我們就必須重建‘認(rèn)知基礎(chǔ)設(shè)施’。”

——你是不是也開始習(xí)慣了:把問題丟給 AI,它說什么你就信什么?
當(dāng)你打開 ChatGPT,讓它寫一段報告;
當(dāng)你問 Claude 一段話的含義;
當(dāng)你把一個 PDF 扔進某個 AI 工具,生成了一份總結(jié)——
你有沒有想過一個問題:
它說的,到底是不是真的?
Oren Etzioni 給出的答案非常明確:
“永遠(yuǎn)不要完全相信一個 AI 系統(tǒng)。”
他說這話不是為了制造恐慌,而是因為他比我們更清楚 AI 的邊界在哪。
他提醒大家:現(xiàn)在的 AI,有一個很危險的特性,叫做“參差不齊的前沿”(jagged frontier)。
什么意思?
就是它有時候表現(xiàn)得像天才,回答精確、邏輯通順、風(fēng)格拿捏得恰到好處;
但下一秒,它可能一本正經(jīng)地胡說八道,還不帶標(biāo)紅警告的。
這就是它的“聰明”:不是全面、穩(wěn)定的聰明,而是讓你“誤以為它已經(jīng)聰明”。
而這,才是真正的陷阱。
Oren 自己就遇到過。他打電話給證券公司客服,結(jié)果對方說:“先生,我們用 AI 語音驗證,確認(rèn)您的身份。”
他沉默了一下,然后說:
“我是研究 AI 的,我不信它。你們把那功能關(guān)掉吧。”
他甚至建議所有人都這么做。
不是因為 AI 無能,而是因為它本質(zhì)上是一臺擅長“預(yù)測”而非“理解”的機器。
它說話像人、表達像人,但沒有責(zé)任、更沒有后果意識。
如果你不帶懷疑地使用它,你會漸漸停止思考。
就像 Oren 說的:
“AI 是放大器,它能放大你的聰明,也能放大你的盲信。”
這,就是“正確使用 AI”的第一條底線:
先質(zhì)疑,再調(diào)用;先理解,再相信。
不是你用上了 AI,就代表你進入了未來,
而是你知道何時該用、何時該停、何時該核查——你才真正準(zhǔn)備好了。
如果是你,在面對一個聽起來“非常靠譜”的 AI 回答時, 你會怎么做?信?查?還是交給別人拍板?
四、“正確使用 AI”的第二條:它不是工具,而是系統(tǒng)變量
——你是不是覺得,公司已經(jīng)開始“用上 AI”了,但好像一切并沒變?
很多企業(yè)以為自己已經(jīng)“開始用 AI”了:
給員工配了DeepSeek企業(yè)賬號、買了大模型 API、甚至搞了一堆 AI 項目組——
看上去很忙,其實只是在用“電動螺絲刀”擰“手動流程”。
結(jié)果是怎么回事?
效率提升了 5%,流程卻一動未動;
項目上線了,組織卻沒有真正“動起來”。
Oren 一針見血地說:
“我們對 AI 最大的誤解,就是把它當(dāng)成一個‘功能按鈕’,而不是一個‘系統(tǒng)變量’。”
他說,大多數(shù)公司犯的錯,是用舊流程 + 新工具,妄想獲得新成果。
比如你裝了一個客服 Agent,理論上可以直接處理退款;
但現(xiàn)實里,它還要經(jīng)過“登記系統(tǒng)”→“審批人蓋章”→“財務(wù)再審核”三道人工流程。
Agent 成了“傳話筒”,不是“執(zhí)行者”;
你讓 AI 加進來了,卻不給它空間,它當(dāng)然運轉(zhuǎn)不起來。
這就是 Oren 所說的——
“AI 不只是一個模塊,它是一次系統(tǒng)的重新定義。”
它的真正作用,不是“替代某個崗位”,而是“重寫組織中信息流動、決策機制、責(zé)任轉(zhuǎn)移的方式”。
如果你還把它當(dāng)工具,你就會卡在中間:
你說要提效,卻還要審批三層;
你說讓 AI 做判斷,結(jié)果最后一句還是:“再人工看看吧”。
你裝的是 AI,但組織的心智,沒換擋。
所以,“正確使用 AI”的第二條,是:
別把 AI 當(dāng)工具用,要當(dāng)“系統(tǒng)變量”處理。
這不是“多一個功能”,是“重寫一套規(guī)則”。
你需要的是——讓整個公司,從認(rèn)知到底層流程,都準(zhǔn)備好被 AI 重新穿一遍。
五、“正確使用 AI”的第三條:CEO 必須親自下場
——你是不是也覺得,AI 是 CTO、CIO 或產(chǎn)品部門該操心的事?
Oren 接受采訪時,有人問他:“在一個組織里,誰應(yīng)該負(fù)責(zé)推動 AI?”
CTO?CIO?還是法務(wù)負(fù)責(zé)人?
他直接回答:
“CEO,必須是 CEO 親自推動。”
原因很簡單: AI 的落地,從來不是“用個工具”的事,而是一次全局系統(tǒng)的重構(gòu)。
它可能會影響:
商業(yè)模型:你的利潤來源是否要重寫?
決策機制:誰還能拍板,還是 Agent 來自動決策?
流程結(jié)構(gòu):那些冗長的審批流,是不是該被直接拆掉?
管理哲學(xué):中層是否還存在價值,組織是否還需要層級?
這些問題,沒有任何一個技術(shù)負(fù)責(zé)人能替 CEO 回答。
如果 CEO 自己不理解 AI,也不愿意下場試錯——整個公司就會卡在中間:
看起來“用上了 AI”,其實只是在用 AI 修補舊系統(tǒng)。
Oren 警告說:
“CEO 如果不掌握 AI,就像開車不踩油門,只靠副駕駛喊‘快一點’。”
更重要的是,他還點出了AI 落地的真風(fēng)險:
不是因為技術(shù)不到位,而是因為組織結(jié)構(gòu)沒動、權(quán)限沒改、核心流程沒重寫。
你以為 AI 是“降本增效”的工具,但它真正能帶來的,是一次企業(yè)的再定義機會。
抓住它,你能建立新的增長點;錯過它,你會被“效率更高的下一家公司”替代。
所以,“正確使用 AI”的第三條,是:
CEO 要把 AI,當(dāng)成自己的“第二大腦”,而不是“新項目”。
你不能等別人告訴你 AI 能干什么,
你得親自上手,去試試它不能干什么。
別讓技術(shù)走得太快,而你的組織還在“開個會再研究”。
真正贏得 AI 時代的人,從來都不是最聰明的那群人,而是——最早動手的那群人。
六、真正準(zhǔn)備好 AI 時代的人,長什么樣?
——你真的準(zhǔn)備好和 AI 共處了嗎?
你或許會以為,像 Oren Etzioni 這樣的 AI 老兵,應(yīng)該是狂熱的技術(shù)樂觀主義者。
但他偏偏不是。
他用 40 年的經(jīng)驗,告訴我們:
AI 不是什么救世主,也不是終結(jié)者。
它只是人類造出來的最強放大器。
放大你的判斷,也放大你的誤判; 放大你的執(zhí)行力,也放大你的盲從; 放大你的優(yōu)勢,也放大你的組織漏洞。
而他本人,選擇站在那個最現(xiàn)實的位置: 不盲目、不恐慌、不推卸。
他創(chuàng)辦 True Media,用 AI 對抗信息失真; 他提醒企業(yè):別指望監(jiān)管保護你,CEO 得親自下場; 他也在一次次發(fā)出警告:
“別被 AI 帶節(jié)奏。是你要主導(dǎo)它,而不是讓它決定你。”
在今天這個變化加速的時代,
你不能再用“工具思維”看待 AI,
你需要的是:重新校準(zhǔn)你與 AI 的關(guān)系。
不是“會不會用”,而是敢不敢用、知不知道怎么用、能不能用出系統(tǒng)性優(yōu)勢。
你不需要恐懼 AI,
你需要的是:質(zhì)疑它、使用它、用它重構(gòu)你對世界的定義。
本文由AI深度研究院出品,聚焦全球 AI 創(chuàng)新浪潮中的企業(yè)轉(zhuǎn)型策略。
星標(biāo)公眾號, 點這里 1. 點擊右上角 2. 點擊"設(shè)為星標(biāo)" ← AI深度研究員 ? ← 設(shè)為星標(biāo)
參考資料:https://www.youtube.com/watch?v=U05IWKf94sM&t=2s&ab_channel=HarvardBusinessSchool
來源:官方媒體/網(wǎng)絡(luò)新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.