人工智能爆火,大模型的未來在哪?5月8日,在投中網舉辦的第18屆中國投資年會?年度峰會上,金沙江創投朱嘯虎和獵豹移動董事長傅盛圍繞“智辯未來——大模型的終極形態及價值發掘”進行了一場超級對話。投資作業本課代表(微信ID:touzizuoyeben)整理了朱嘯虎的核心觀點,分享給大家:
1、中國VC和美國VC很大差別似乎是美國VC過去幾十年很明確,基本是十年一個周期,中國的VC過去20年都習慣短周期——每三年一個周期......(將來)中國的VC可能要習慣十年的長周期期限。
2、我們一直在關注AI的應用,且只關注能夠商業化、實現PMF的AIGC應用,而且明年這個時間點上AI應用肯定會大爆發。
3、確實每一個周期一開始都是硬件和基礎設施賺的錢多一點,但到后面就是應用,應用賺的錢是前面的十倍以上。
4、邊緣端的開源小模型必然是未來方向,這里面商業機會特別多。
5、Sam Altman在吹牛逼,GPT-5肯定沒那么驚艷,或者驚艷與否不重要了。GPT-4已經滿足了絕大部分的商業需求了。
朱嘯虎是金沙江創投主管合伙人,作為知名投資人,曾投出阿里、京東、美團、拼多多。此前4月份,朱嘯虎的一個采訪報道引發熱議,朱嘯虎直言別下牌桌,他表示,今年二級市場看高分紅,一級同樣看分紅,且5年靠分紅拿回本金,關于“5年靠分紅拿回本金”的說法,經緯創投張穎意見不同,他認為美元LP未必認可。對于“五年回本靠分紅”的說法,朱嘯虎對此也有了進一步的解釋。
以下是投資作業本課代表(微信ID:touzizuoyeben)整理的精華內容,分享給大家:
五年靠分紅回本,說的是消費項目
主持人(投中網董力瀚):上回您說風險投資,我們五年回本,靠的是分紅。此話一出,很多人認為,朱總又在發他的暴論了,對此主要的反問有兩個,一是,如果企業現金流這么好,為什么要拿你錢?二是經緯創投張穎老師認為,作為美元基金,美元LP一定不會為你這個說法買單。朱總怎么看?
朱嘯虎 :我所說的分紅主要是指消費項目的投資。現在消費行業投資分紅已經是行業慣例。而且我說的分紅還是“很溫柔”的。我要求的分紅只是按照股東股權比例的分紅,現在很多投消費的PE分紅條款非常復雜。我看了后,都要算半小時,才算出它的公式是怎么樣的。
所以,說實話目前很多PE按照非對稱分紅,比如創始人占大股份,雖然比例很高,但只能分紅20%。
剩下80%的利潤是給投資人的分紅,它是一種非常復雜的非對稱分紅的公式。五年拿回本金還是有可能性的。
當然這有很多假設條件,比如利潤是每年增長50%,但核心問題是必須給投資人LP有持續穩定的現金流,這是最基礎的假設。
現在政府也在講耐心資本,那如何才有耐心資本?必須每年有持續穩定性現金流,大家才會相信你。
比如我投了你一個億,十年卻一分錢沒有回來,我都不知道,你到底是不是騙子,資產是真是假,但是每年有穩定的現金流,大家都會比較放心,才有會有耐心建立長期投資。
中國VC要習慣從之前的3年周期變為10年周期
現在中國VC和美國VC很大差別似乎是美國VC過去幾十年很明確,基本是十年一個周期。2000年泡沫破裂慢慢回來。到2009年又是金融危機,再慢慢回來。
中國的VC過去20年都習慣短周期——每三年一個周期,所以每兩三年就會講一次,冬天來了,信心為王,那時候冬天來了,大家不慌,因為周期很短,堅持一兩年,泡沫又來了。
所以中國的VC過去20年都是"拿住",大家不舍得賣,后面還有更高的商品都不舍得賣,一定要拿住。
實際上過去五年任何一個賣出都是正確的,沒有人后悔,誰堅持誰是傻瓜。基本上都是上市逃生的機會。這是很好的案例。
即中國的VC可能要習慣十年的長周期期限。如果是十年,那你對現金流的預測要重新調整。如果你十年以后才能退出,那你今天拿分紅,實際上對LP來說,可能是更好的選擇。
所以現在我們和人民幣LP溝通下來,大家都很喜歡這個概念。出乎意料,我們和美元LP溝通,美元IP也覺得這挺好的,他們每年需要支出,有出資壓力,如果十年沒有現金回流,他們支出從哪里來?所以大家現在對分紅都沒有那么排斥。
當然,雖然我們要了分紅,但也不放棄夢想。萬一大環境變化了以后,有IPO機會,那么肯定還是有upside(好的一面)。但是先靠分紅,即使不拿回100%,拿回50%,大家都會很開心。
問:張穎老師上次提及,美元LP一定不會為你這番話買單?朱總對此,如何回應?
朱嘯虎 :我們現在和美元LP溝通,他現在開始接受了,人民幣LP也都非常歡迎。
現在大家看不出最初的希望,比如投了1000萬美金,十年不到0.1-不到10%的DPI。你說不要分紅,我覺得是自欺欺人。
AI應用明年絕對爆發
我個人對AI應用,尤其明年爆發是非常樂觀的。
先是Llama-3出來,5月7日晚,iPad Pro發布,又搭載了M4芯片,也非常有意思,以后,一個幾百億參數的小模型可能在端側就可以直接跑了。今年下半年的iphone可能也類似,我覺得明年在應用層絕對會爆發。
問:您是在特別緊盯iphone裝大模型的這個節點嗎?
我們一直在關注AI的應用,我們一直在說,我們只關注能夠商業化的,能夠達到實現了PMF的AIGC應用(PMF即Product/Market Fit,產品/市場匹配)。
而且明年這個時間點上肯定會AI應用會大爆發的,所以我們目前在密切關注這方面的應用。
大模型商業模式很差,比發電廠還差
問 :傅盛總聊過一個問題,國內大模型公司的未來,下限是AI四小龍,(傅盛認為AI四小龍商業模式很差),您怎么看?
朱嘯虎 :我比他還要更激進一點。我覺得AI四小龍不是下限,是上限。四小龍運氣很好,碰上了安防大建設的巨大紅利,中國政府投了幾千億甚至上萬億建攝像頭,所以它是有很快有收入的。
但我們投資人都知道,實際上政府項目現金流很長,所以雖然有很多收入,現金流可能都會比較難一點。但是他同時碰到了資本泡沫。
所以有政府的收入不斷墊他的現金流。四小龍實際上運氣非常好的。
我們當年為什么不投四小龍?就覺得這東西的技術沒有門檻,最多領先別人半年時間。實際上就是這樣。
為什么四小龍今天還是競爭這么激烈,就是技術上沒什么差異點。
那大模型更是一樣,我覺得更差。問題是技術沒有差異點,而且每一代技術比如3.5可能就要幾千萬美金,4.0可能要幾億美金,5.0可能要幾十億美金,每一代模型你都要重新去砸錢,而且你變現周期可能就兩三年,這比發電廠還要差。
比如發電廠,在投了基建以后,基本上不需要再投入很多錢,但大模型是要每兩三年就要砸更多的錢去升級,而且變現的周期可能就兩三年。說實話這個商業模式是非常差的商業模式。
Sam Altman在吹牛逼,GPT-5肯定沒那么驚艷
而且我個人感覺,Sam Altman在吹牛逼,我覺得GPT-5肯定沒那么驚艷,或者驚艷與否不重要了。
GPT-4已經滿足了絕大部分的商業需求了,這實際上和X86會很像,X86到586以后的升級幾乎都是邊緣化。那些升級對本身商業模式已經沒有什么大的變化了。
一直到可能在586以后的差不多十年,推出新的多核,那是一個本質性升級,當中這十年的升級都沒啥意思,我覺得GPT-4以后,說實話我對GP5沒有那么期待。
邊緣端的開源小模型必然是未來方向
問:傅盛總現在就是專攻百億大模型,你覺得這路子對嗎?
朱嘯虎:我覺得特別好,邊緣端的開源小模型必然是未來方向,而且這里面商業機會特別多。我前兩天和朋友舉例,在日本最近出來了一個賣特別貴的玩偶,賣一兩萬元人民幣,賣的特別好,但其實很笨的,加一個邊緣的大模型,可以做得很智能的,而且可以賣幾千人幣,肯定賣爆,這種機會很多很多。
傅總最近一直在嘗試在邊緣端側的小模型的在商業化應用。我非常看好這個方向,在未來一兩年肯定會爆發,而且很多人在嘗試。現在開始必須開始聚焦這方面要做的事情,機會很多。比如機器人,陪伴機器、情感機器基本都需要端側小模型在這些具體應用場景。
百億大模型是專科生,干了大部分活兒
大部分的工作都不需要清華本科哈佛博士,只需要一個專科的學生就足夠了,這是現實情況。百億小模型就是一個專科的學生,但他能干了絕大部分的活了。
中國的VC和創投界說邊緣計算,說了十多年了,我覺得這次真的要迎來春天,迎來機會點了。
每個周期的最后,都是應用賺錢,賺前面的10倍
問:假設今年您30歲,您是95后投資人,正在上升期,之前出了一些成績,現在大模型有機會,你投不投?
朱嘯虎:我們稍微記憶長一點,我們一直在反復復盤,從PC互聯網到移動互聯網都是應用賺最多的錢。
確實每一個周期一開始都是硬件和基礎設施賺的錢多一點,但到后面就是應用,應用賺的錢是前面的十倍以上。
這次大模型肯定也是的,而且這次速度比較快,PC互聯網可能迭代速度是十年為周期的,這次是以年為周期的。
所以我為什么很樂觀,明年應用絕對爆發,因為開源模型已經到了足夠的智能水平了。
Llama 3兩個小模型就足夠到智能水平了, Llama 3-400B版本如果在6、7月份能出來,那我覺得會更智能一點。
包括端側的算力,M4芯片推出,所以我們對明年的應用爆發是很樂觀的。所以我們現在很看好明年應用投資的機會點。
董力瀚:所以你的意思就是說,即便你年輕,你也等明年。
朱嘯虎 :對,讓子彈飛一會,不是一個話題選擇,而是個更好的選擇。
本文不構成個人投資建議,市場有風險,投資需謹慎,請獨立判斷和決策。
覺得好看,請點“在看”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.