能點進來看的朋友,應該都發現了相同的問題。
為什么那些AI博主演示的強大的AI生產力工具,一到我們手里用起來就稀爛?
這事背后到底有什么奧秘呢?
先不說具體原因,我先和大家分享一個我今天用AI的小故事。
1 AI不太可信
今天看到一篇新聞,是關于anthropic這家公司在2025年的盈利分析。
不了解這家公司沒關系,它的產品有可能你聽說過,叫Claude。
我這個人有個特點,不太容易記住一些事,這家公司的創業史是怎樣的我記不太清楚了,想了解下。
于是我就打開了一款AI產品,向它提出問題。
為了避免被說是抹黑企業,我們不提產品名字,只關注在問題本身的討論上。
我的問題是:“anthropic是一家怎樣的公司,創立過程是怎樣的?”
AI馬上基于我的問題開始了深度思考。
從思考過程來看,一切正常,我滿心期待,等著AI輸出結果。
然而,不出意外的是,意外出現了。
什么意外呢?我截取一段給大家看一下。
在介紹創始人部分,AI提及該公司的聯合創始人之一,是Claude Shannon(克勞德·香農)。
然而綜合它提出的人物線索:信息論之父、提出香農定律、參與早期計算機研發這些信息,我對這份輸出內容產生了疑惑。
因為在我的印象里,符合這個特征的那位香農,應該早就去世了啊?怎么會穿越到2021年,去創立一家AI公司呢?難道是詐尸了?
由于實在是不太相信,我就去百度搜了一下,結果我的記憶沒錯,香農在2001年就已經去世了。
既然我的記憶沒有出錯,那么只能是ai錯了,于是我開始了追問,“Claude Shannon不是早就死了嗎,為什么這里被說成是聯合創始人了”。
AI再次開始了全面深度思考與分析,然而我它的思考過程中又發現了一個新的問題。
什么問題呢?AI認為:Claude Shannon(克勞德·香農)死于2001年2月16日;而我通過百度百科和維基百科雙信源核實,香農其實是死于2月24日。
AI竟然把大師給編排的少活了七八天…,至于錯誤的原因,Ai將其甩鍋給互聯網信源。
有維基百科和百度百科權威數據不取信,為什么沒爬取呢?好奇怪。
當我以為錯誤到這里就完了的時候,ai又提及,anthropic這家公司的聯合創始人之一為Claude Staple,任首席技術官(CTO)。
然而這個名字我也一點印象也沒有,已經不太相信AI的我,于是遍歷了anthropic官網,又找ChatGPT問了一遍,經過多輪核實,確定了Claude Staple只是AI瞎編出來的一個虛構人物。
幸好幸好,碰巧因為我做過20年IT,對香農多少有點了解,因此才對ai的回答產生了懷疑。
自己主動去核實了,才發現了AI的錯誤,而且還是一錯錯一片。
這也再次加深了我對這款AI產品現階段的不信任。
以后搜集資料我是肯定不會用它了。因為核實它給我的資料是否準確,比我自己查百度更要費勁,時間上是一點也沒節省。
2 AI為什么不好用
AI博主們告訴我們,只要學會AI,就能讓人在職場里如虎添翼,什么腦圖,PPT,商業計劃,工作匯報,通過一個命令就可以一鍵生成,確實很震撼。
以至于不趕緊學點啥,就覺得馬上要被職場淘汰,要被同行給卷死了。產生了恐慌、害怕的情緒,可以理解。
然而,照著這些AI達人們演示的步驟一步步學下來,我們總是又會驚訝的發現一個事實:
那些AI博主演示的強大的AI生產力工具,一到我們手里用起來變得稀爛,這是怎么一回事?
舉個例子,比如用AI做PPT。
看AI達人的演示,只要寫那么一句話,一個商業方案,一個工作匯報,立馬就刷刷刷的全自動生成出來了。設計排版精美,內容詳實豐富。
有了它,一鍵發給老板,3天的活兒5分鐘搞定下班。
等我們去操作的時候,確實也是刷刷刷全出來了,然而內容都是看似華美,實則空洞,怎么也無法和自己的工作結合上。這是為什么呢?
最可能的原因之一,就是這些博主有個共性,都很年輕,沒怎么上過班,他們真相信,用AI生成的PPT,真的拿來就能用,能糊弄領導,糊弄客戶。
當然,這只是看問題看表面,背后還有更深層次的原因。
講AI的人和學AI的人,都把AI的位置擺的太高了,認為AI是1,人是后邊的0;但現實是,人應該是1,AI才是后面的那些0。
比如兩個人,分別代表A、B公司,他們平時都用AI協助自己工作,那么,當他們在一塊溝通需求的時候,是兩個人在溝通呢,還是人背后的兩個AI在溝通呢?
答案很明顯,是人在溝通。這時候:
如果你本身業務能力就強,技能儲備多,AI越能幫到你,往你后邊加0,把你這個1變成10,變成100,變成10000,對你的技能成倍放大;
如果你是剛上班,工作經驗少,太依賴AI,就相當于在1前面擺放0,擺了再多的0,結果還是1。
比如有些朋友原來就不會制作PPT,不懂PPT排版布局原理,也不會寫商業計劃方案,給你生成再精美的PPT也沒用。
因為一你不會寫方案,不會寫也就不會改AI生成的方案,一個字都動不了;二你不會做PPT,不會做PPT也就不會改AI生成的PPT。
就像前文里我和AI的一場對話,碰巧因為我正好知道那個知識點,才沒有被AI誤導。
假使我不了解這塊內容,直接把它的結果拿來就用會怎樣?后果不堪設想。
發到網上頂多被懂的朋友笑話,刪了隱藏了也就罷了;
如果是是工作中不假思索的引用到商業方案里,被甲方懂的人發現了,不僅會讓甲方覺得這家公司不專業取消合作;
甚至單子丟了老板還要把你開掉,一毛錢賠償都沒有,因為你犯錯失職了。
這時候你該怎么辦呢?可以像AI回答我一樣,輕飄飄的說一句,是AI給錯了答案,把鍋甩給AI嗎?
抱歉,可能沒有機會了。
這里還可以再舉一個例子,我昨天剛寫了一篇關于manus和通義千問合作的分析文章,評論區有位網友從別處截屏了一篇文章,想證明我講錯了,和通義千問合作的manus是一家荷蘭芯片巨頭公司。
這事明明錯的離譜,但他就相信了,信誓旦旦的拿來和我對質,這說明了什么?
這個信息正好是他的知識盲區,但他就相信了,這是不是很可怕呢?
3 結論
所有AI產品的背后,都存在著一個相同的邏輯:都是從互聯網爬取內容,喂給它啥就吐出來啥。
一旦源頭信息錯了,后面就全錯了。
這就像人一樣,吃了不干凈的東西,好漢也架不住三泡稀。
所以,判別AI信息真假、對錯,應用到工作生活里效果怎么樣,最后都取決于你,你這個人。
在你還不夠強大以前,AI幫不了你。
沒有一個穩定的內核,會用多少AI工具并不會給你帶來巨大競爭的優勢;
反而可能會誤導你,對自己、對別人產生很多錯誤的判斷。
所以,我們更應該用更多時間,理解自己,包容自己,鍛煉自己,提升自己,等待自己;
而不是把命運拱手交給一臺黑盒子機器。
觀自在菩薩,行深般若波羅蜜多時,照見五蘊皆空。
#烈焰童子說#
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.