99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

對話CMU李磊:好的AI學者絕不只搞“純學術”,大廠AI Lab請集中資源干大事

0
分享至


作者 | 王兆洋
郵箱 | wangzhaoyang@pingwest.com

李磊總是出現在某股浪潮的開端。

2002年,在拿下中國高校第一個ACM(計算機領域最頂尖的程序設計大賽)金牌后,上海交大設立了“ACM班”,這個用最高競賽命名的班級后來人盡皆知,成為中國AI人才的重要陣地。

也在那年,李磊成為ACM班第一屆的學生。在ACM班他第一次意識到,“原來計算機能幫助解決人類的這么多問題。”

盡管從ACM走出的AI公司企業家不少,但繼續鉆研學術是創辦者俞勇對這個實驗班弟子們寄托的執念。2024年斯隆獎獲得者楊笛一, TVM、XGBoost作者、卡內基梅隆大學助理教授陳天奇,關注度極高的年輕學者紐約大學助理教授謝賽寧等都從這里走出。

不過,在過去十年里,工業界和學術界的邊界隨著AI技術演進的夸張速度而變得模糊。

2014年,在深度學習被科技公司們率先看到潛力后,李磊加入當時的百度美國研究院,這個研究院在此之前剛剛差點把Geoffrey Hinton招入麾下。而一股科技公司創立AI實驗室的浪潮也正式開啟。兩年后,李磊加入年輕的字節跳動,參與創立了字節的AI實驗室。這些組織繼續一路演變為今天大模型競爭里的最主要玩家。

2021年,李磊離開工業界。也在那一年他參與的《Vocabulary Learning via Optimal Transport for Neural Machine Translation》拿下自然語言處理(NLP)領域頂級學術會議 ACL的最佳論文。現在他回到了讀博士的母校卡耐基梅隆大學(CMU),在著名的LTI(語言技術研究所)擔任助理教授。這里被稱為AI研究天花板和殿堂級的研究機構,走出一眾知名學者。


隨著LLM(大語言模型)因ChatGPT而徹底成為今天最收斂的技術路線,許多過往一直在挑戰的任務有了新的解法。李磊的研究方向之一,就是語言翻譯任務。在最近的一篇李磊自己很重視的論文里,他和團隊把LLM的許多思路用在處理實時同傳上,將翻譯視為一個類似與ChatGPT聊天對話的任務,從而通過架構等技術創新實現了“無限”長度的實時翻譯。


這篇論文名為《InfiniSST: Simultaneous Translation of Unbounded Speech with Large Language Model》,也已經被ACL收錄。在它的概要中它這樣寫道:

“我們提出了一種名為 InfiniSST 的新方法。該方法將語音到文本翻譯(SST)構建為一個多輪對話任務,從而實現了對不間斷語音的無縫翻譯。我們在訓練過程中,利用 MuST-C 數據集構建了翻譯軌跡和魯棒的語音片段,并輔以多延遲增強技術。同時,我們還開發了一種鍵值(KV)緩存管理策略,以支持高效的推理過程。在 MuST-C 的英語-西班牙語、英語-德語和英語-中文數據集上進行的實驗表明,與基線模型相比,InfiniSST 在保持相同翻譯質量的同時,將計算感知延遲降低了0.5到1秒。”

最近我有機會在加州灣區和李磊做了一次對話,聊了聊他最新的研究、今天學術界在關注的技術方向,他對今天LLM大行其道的想法,以及他對工業界與學術界關系的思考。

以下為對話實錄。

把同傳理解成一個跟ChatGPT聊天的過程,然后實現流式的持續實時翻譯

硅星人: 先來介紹一下您最新的這個研究吧。

李磊:好的。我們的研究是這樣的。首先,語音同傳這個領域其實已經發展了比較長的時間,過去20年一直在做。整個核心目標是希望達到非常高的翻譯質量,并且能夠實時。準確和實時這兩個要求同時滿足就非常困難。

我們所說的實時同傳,是希望延遲非常非常小,小到你幾乎感覺不到。一般人一句話大約是10到20個詞,耗時5到10秒。如果我們要等10秒,這個延遲是能明顯感覺到的。但如果我們能把延遲控制在一秒以內,也就是說,在說話人講出兩三個詞之后,我們就能立刻翻譯出來,并且質量非常高,這就非常有用了。所以,我們做的是能夠將實時延遲控制在一到兩秒之內,并且翻譯質量非常高,幾乎接近離線翻譯的質量。

硅星人: 就是同傳的方式,達到接近交傳的質量。

李磊: 這個就是目標。當然,過去五年,大家的技術一直想做到這一點,但都還沒有完全做到。

硅星人: 也不光是過去五年,我感覺很早就開始有這個想法了。

李磊: 沒錯,一直都在做。但是之前的技術很難同時做到實時并且質量非常高。我們新的這篇論文 InfiniSST,首先結合了語音和文本兩個模態各自的預訓練模型。這兩個模型本身已經預訓練好了,所以我們有一個基于大量數據預訓練好的語音模型,還有一個基于 LLaMA 或 DeepSeek這樣的大語言模型。

硅星人: 這次選的是 LLaMA?

李磊: 對。但我們也可以接入別的模型,技術上是共通的。關鍵是找到一個預訓練好的模型。這樣一來,它生成文本的能力和語音作為輸入的能力都比較強。但是,如果只是簡單地把這兩個模型拼接起來,是無法完成從語音到文本的翻譯任務的。

硅星人: 大家比較了解預訓練的語言模型,那預訓練的語音模型是怎樣的?

李磊: 預訓練的語音模型現在也有非常好的,比如以Wave2vec為代表的一類模型,就是比較好的一個例子。它的核心想法是用Transformer Encoder這種架構,直接對輸入的語音進行處理,輸出就是一個嵌入。當然,它的訓練是需要預訓練的,這個預訓練里面有各種技術,包括用對比學習 (contrastive training) 的方法,也包括用一些編譯 (compilation) 的方法去做,這些技術也都用上了。

它的一個缺陷在于,這種架構因為是Encoder架構,所以它是雙向的,只能做離線 (offline) 處理。也就是說,我需要一段話全部輸入完成之后,才能一次性處理。它不能做增量式的、流式的處理。所以,為了適應這種實時語音翻譯的需求,我們需要在預訓練模型的基礎上做修改,然后再進行一些額外的訓練,把它改造成適合我們做流式翻譯的模型。

硅星人: 簡單拼接起來不夠,要兩個模態的融合。

李磊: 沒錯。我們的模型最核心的有幾個創新點。第一,我們能夠實現語音到文本的轉換,并且語音是源語言,文本是目標語言。我們能夠做到這種跨模態、跨語言的轉換和翻譯,把整個流程連接起來,保證了翻譯的高質量。

第二個創新點是實時性。實時要怎么做呢?因為在計算的時候,我們不能等一段完整的輸入都接收完畢。我們必須做到,進來一段聲音,哪怕只有一秒鐘,甚至幾十毫秒,就要立刻進行計算。每一個幾十毫秒都要不斷地計算。我們開發了流式計算技術,使得它能夠流式地、并且非常快速地進行計算。

第三個隨之而來的挑戰是,人在講話的時候,內容可能會非常非常長。因為是實時翻譯,講話可能不會停頓,可能會持續十分鐘,甚至像我們現在開會討論,可能長達一個小時。這么長的內容都需要翻譯出來。作為輸入,這個序列會變得非常非常長。我們還專門針對這種長輸入做了長上下文 (long context) 處理技術。這三個創新點結合起來,最終我們實現了這種實時的高質量翻譯。


硅星人: 我昨天仔細看了論文,你們提到了其他一些以前的工作,和這次的區別好像在于他們用的是segment(分段)的方法,而你們現在是要做infinite(無限的)。

李磊: 對,我們叫 InfiniSST 的原因就是要做非常非常長的上下文。

硅星人: 所以剛才您說的那三個關鍵點,就是這次用來解決這個問題的創新的地方。

李磊: 是的,要解決非常長的這種流式語音輸入的實時高質量翻譯問題。

硅星人: 語言模型和語音模型兩個領域的融合,那您認為這到底算是一個SST的新方法,還是LLM解決了一個新問題?

李磊: 它不是解決LLM內部的新問題,而是解決了跨模態——從語音到文本這種跨模態大模型生成的問題。因為傳統的LLM主要是處理文本,我們這里還涉及到語音到文本的跨模態問題,并且是長上下文。

硅星人: 現在大家經常看到幾家公司,尤其是Google講多模態講得比較多,但他們主要涉及文本和圖片。

李磊: 我們的多模態要處理語音。

硅星人: 那你們這個算不算最近很多人在說的,一種端到端的方法?

李磊: 我們就是端到端的。所謂的端到端和級聯 (cascaded) 模型的區別在于,是用一個模型來解決問題,還是分步驟來解決;是解碼一次還是解碼兩次。我們現在只需要解碼一次。

硅星人: 就是前面提到的那兩個模態的模型變成一體的了?

李磊: 是一體的。我們整個是一個統一的模型,只需要最后做一遍解碼,不需要做兩遍。如果是級聯模型,它需要做兩遍解碼。

硅星人: 這里面您覺得,在提到的那幾個創新點里,比較難的地方在哪里?

李磊技術難點也是剛才的三個點。一是跨模態如何融合。因為語音模型出來的嵌入 (embedding) 不是LLM想要的,不是LLaMA想要的。LLaMA需要的是文本的嵌入,但語音出來的嵌入是另一種形式,這兩者怎么匹配起來?

二是,我們這個模型,它原來的預訓練語音模型,并不是為增量式計算設計的,它不能做這種增量式的流式計算。我們對模型架構做了改變,讓它能夠進行這種增量流式計算。

三是,在這種情況下,如果上下文非常非常長,我們怎么樣讓它能夠處理這種長上下文,并且在開始給它一個指令后,它不會忘記這個指令。

硅星人: 剛才我提到那個問題,到底是一個SST的新方法,還是LLM又解決了一個新問題,就是因為這三個創意都很容易讓人聯想到LLM里面的一些技術,比如Transformer里的Attention機制,包括看你們論文里用到一些移動窗口之類的,而且是LLM做長上下文處理的那些技術。

李磊: 沒錯。LLM里面處理長上下文的技術,在這里面都有用到的。當然,我們針對同傳做了一些特殊的設計,針對性的設計。整個這三個方面的架構都有重新設計。

硅星人所以這讓我有兩個好奇。一個是,我也跟很多人聊過,尤其是一直在做語音的研究者,您剛才也提到這個領域有20年的歷史了。在LLM這么火之前,大家可能是在研究語音本身的一些技術的突破,而今天的方法都在向語言模型靠攏,就因為LLM今天太強大了。比如像您剛才提到的,語音識別出來的embedding不是LLM想要的,難道這個就必須得是它想要的?

李磊: 那么我們就要講,在這之前大家用什么方法。在這之前,我們組包括整個學術界其實都在探索,無論是離線的還是實時的同傳模型。這種模型一般是基于Transformer Decoder這種架構,單獨訓練的。這種模型在一定的、有限的領域內能夠做得很好,比如在中英文這種數據量比較大的語向上,它可以做得比較好。但是,它對于口語化的內容,翻譯效果還是不如LLM,尤其是LLM加上一些雙語數據進行微調之后,LLM可以做得更強。

那么這就很自然地引出一個結論:我們要把效果做得更好,就要用LLM,而且一定是需要預訓練的模型。之前是沒有預訓練模型的,現在的一個重要啟示就是,我們一定要用預訓練的模型。文本要用LLM,語音也要用預訓練的語音模型,這兩者都重要。但是,當你把預訓練的大模型結合起來去做的時候,如果只是簡單拼接,你會發現它非常非常慢,不適合用來做實時語音同傳,因為實時同傳對性能要求很高。這個時候,你就需要對模型結構、訓練方法以及整個推理 (inference) 的處理過程進行優化,才能夠達到比較高的質量,同時延遲又非常低。

所以我們用了很多LLM的思路。它們其實就是一個語音家庭 (speech family),所以本質上LLM里面用得成功的技術,我們當然都會借鑒過來。


硅星人: 另一個好奇是,剛才我們強調的長上下文,感覺對于LLM這種熱度不停變化的領域,它是上一個階段比較熱的一個討論話題了。然后現在像R1和o3出來以后,推理是今天最重要的能力,這部分是不是也可以用在這里?比如我在想,我去做同傳的時候,我會一邊聽一邊猜測對方大概要說什么,甚至不只是您說的流式處理,不只是等對方說兩三個詞我才開始想,而是我甚至能想到他后面可能要說的內容。

李磊你說的這個問題非常好。首先這里有兩個問題。一個是說推理能不能用上。我覺得這個非常值得研究,我們目前這個研究里還沒有用到,但是我覺得后面我們可能很快會看到相關的進展。然后你還說到了另外一個問題,就是人在說話的時候,可能只說了半句,后面半句還沒說,但是我們是不是可能預測出來?我們今年另外一篇論文,剛剛被NAACL錄用的,叫TAF (Translation with Anticipating Future),就是做這個預測的。當我要做翻譯的時候,你前面中文這句話只說了半句,還有半句沒說,我先去預測你后面半句可能是什么。如果我的置信度非常高,我非常確信你有可能說出這個句子,好,那我就可以不等你說完,直接把這個預測的信息拿過來,預先進行翻譯。

硅星人: 這樣速度就更快了。

李磊: 沒錯,速度更快了,而且還節省了很多算力,我們就做了一個預測未來的工作。

為語言和科學研究去做生成式AI的算法

硅星人: 可以聊聊您現在整個的研究方向和您這個組在做的一些事情。

李磊用一句話來概括我們做的核心,就是為語言和科學研究去做生成式AI的算法。英文的話叫 Generative AI for Language and Science。

我們現在有四個我們認為非常非常重要的方向:

第一個是做這種語言通訊 (communication) 的技術,包括我剛才說的同傳技術,也包括我們做的基于文本的翻譯技術。最終的目標,我們希望能解決世界上大約80%-90%的語言溝通問題。

這大概需要覆蓋多少語言呢?其實如果我們能夠覆蓋500到1000個語言,基本上就能解決世界上絕大部分人的交流問題了。當然,現在業界可能還處在覆蓋100個語言的階段。

硅星人: 所以像之前Gemini展示了一個很少見的語種的翻譯,就讓人覺得很厲害了。

李磊: 對,你要做到覆蓋500個語言是很難的,1000個就更難。全世界一共有大約7000種語言,我們并不需要做到7000種,但如果我們能夠解決1000種語言的翻譯和理解問題,就能夠幫助人們基本無障礙地交流。這是第一個我們覺得非常重要的方向。

第二個方向是智能體AI (Agentic AI)。我們要做的是用AI來進行推理,并且幫助人們完成一些任務,生成一些程序和代碼,幫助人們完成一些任務。

第三塊,我們還很關注生成式AI和LLM在安全、隱私和版權保護方面的問題,包括Safety和Security。我們正在做大模型上加水印的工作。我們在LLM的文本上做了水印,使得能夠識別AI生成的文本,并且知道是哪個模型生成的。我們還能夠去保護模型本身。假如說我要部署這個模型,部署之后別人可能會來“蒸餾”(distill)我的模型,我加上水印之后,就能夠防止別人來蒸餾。

硅星人:或者至少能把成果歸屬弄清楚。

李磊:對,然后我們最近還有一些工作是去識別在預訓練階段,模型有沒有使用某些特定的、受版權保護的數據,這個也很重要。還有就是保護用戶的隱私,在訓練過程中如何確保不使用任何與用戶隱私相關的信息去訓練。這是第三個方向。

硅星人:都很好啊。

李磊最后一個方向是AI賦能科學研究 (AI for Science)。具體來說,AI for Science的范圍也很大,我們的核心是用生成式AI的算法去做分子,包括小分子和蛋白質的設計。這是一個設計問題。

為什么做這個設計問題呢?我們認為分子是一個離散的結構。只要是離散結構,其實它和語言就非常非常像。我們說一句話,它是一個離散的序列。分子首先也可以表達成離散的序列,也可以表達成一個離散的圖。有了這種離散結構之后,我們就可以用生成式AI的技術和模型,去做很好的生成。比如,我要設計一種能夠加速某種化學反應的酶,如何去設計?我們最近就有一系列的工作,能夠設計出三千種酶。一個模型能夠針對這三千種酶,全部都去做設計。你只需要告訴它,我需要這三千種酶里面的哪一種,給它一些初始信息,它就能夠生成對應的、符合這種酶功能的蛋白質序列。


硅星人: 我剛剛還想問為什么是“語言”和“AI賦能科學”,現在就說得通了。

李磊所以我們都是說,我們設計的是生成式人工智能的模型、算法和系統,用來處理離散結構的數據。語言是離散結構,分子也是離散結構,它們其實底層是相通的。

硅星人: 所以您給這個組或者您自己的研究興趣,其實是基于對這個技術本質的理解,然后結合它擅長的地方去決定可能適合它的一些具體的、對行業和世界都很重要的話題。

李磊: 沒錯,完全準確。我們從兩個角度去決定選擇什么問題去做研究。一個是從基礎技術角度,什么樣的技術是比較通用,并且未來會非常有價值的,這是我們要去做的技術探索。另一個方面是從應用角度,什么樣的應用是重要的,并且它會需要什么樣的技術來處理。

工業界和學術界不是二元對立的

硅星人: 這很有意思。這讓我想到在這篇論文里面,我看到你們除了講新的技術路線,其實還有很大部分是講它的效率提升,當把效率提到一定的程度以后,它甚至可以在端側,在一些參數量很小的模型上去用。

李磊: 是的。

硅星人: 但我不覺得所有的學術研究者都會這樣去想。

李磊: 對,沒錯。

硅星人: 所以這么看下來,你會鼓勵大家做研究時候有點像是一個產品經理一樣在做。

李磊: 沒錯。我要看看用戶在怎么用。今天好的研究員,必須還得是好的產品經理了。

硅星人: 可能跟您過往的背景有關。

李磊: 沒錯,沒錯。

硅星人: 大家都說Connect the Dots,您可以簡單講講您一路過來,在工業界和學術界的經歷,以及這些經歷如何影響您現在做的一些事情嗎?

李磊我之前很長一段時間是在學術界,然后中間有大概七年在工業界工作。這些經歷,我覺得對我現在做研究、選擇哪些是重要的方向,是非常非常關鍵的。我個人認為,我們一定不能只做純學術的研究,尤其是現在AI是一個以應用為導向的領域。我們通常稱之為use-inspired research(應用啟發式研究)。

什么叫應用啟發式研究呢?就是我先去看應用場景。如果我要解決溝通的問題,那么它是在這種人與人的交互,有語音有文本的交互中,我要去看這里面關鍵的技術問題是什么。如果我要去做一個藥物,設計一個藥物,那我也要看這個設計藥物的過程,針對什么疾病,需要什么樣的藥物,這些藥物可以變成一個什么樣的學術問題。把這些歸納出來之后,我們再去說我們做一些基礎性的、通用性的一些方法,使得它在這些問題上,一旦基礎方法有突破之后,在這些應用上面也會有非常大的突破,而且它能夠比較通用,不僅僅解決一個非常具體的問題,而是可以通用到這一類的問題都能解決。

硅星人這兩天咱倆都有跟很多還沒畢業的學生交流。我覺得有個年輕人提得問題特別有意思,他說現在是不是已經變成工業界在決定研究什么,然后學術界去跟進?之前也有一些人會更極端地表達,說好像學術界在免費給工業界打工。比如GPT出來,我不用去做安全研究,會有人跟上去幫我做這個研究。這些您怎么看?因為您兩邊的經歷都有。

李磊我認為學術界和工業界它不是對立的。大家是有一些競爭,但更多的是合作,同時又是在不斷共同推動這個領域去進展。

從學術界來說,當然,對于做通用的、基礎的這些研究,理解問題,做出重大的發現是最感興趣的。但是,我們同時也要看到,這些技術研究出來,這些科學發現,新的算法發明出來,最終是要用到實際的應用當中去的。那怎么樣用到應用當中去呢?最終歸根到底還是要靠工業界,靠公司,靠這些初創企業,靠這些工程師和研究員,他們把這些東西放到技術、放到產品里面去,做出真正用戶會來用的東西。

通過這個過程,它作為一個商業模式可以持續并且盈利。盈利之后,它還能夠來反饋給學術界。反饋有兩個方面:一個是說它反饋給學術界什么技術才是核心技術,需要去做突破的,那我們可以去更多地做研究;第二就是說它可能還會來資助學術界的研究,我們可以做一些前沿探索性的支持。

硅星人:不是二元論。

李磊:我舉一個例子,就是說現在大家覺得,哦,ChatGPT都是OpenAI發明的,我們好像不需要學術界的研究,似乎工業界就可以了。其實不是。

我們要去追溯這個研究,它不是一下子出來的。就以神經網絡為基礎的語言模型的訓練來說,它最早最早的一篇論文是98、99年一個研究員,當時他還是CMU的一個研究生,叫徐偉(后參與創辦地平線機器人),也是我以前的老板,和他的導師Alex Waibel,他們最早發表了一篇論文,這篇論文現在還能讀到。

他們是第一個把神經網絡用過來去預測語言模型里面下一個詞應該是什么,并且做了訓練,展示了這個最早的想法。現在我們知道,我們可以把神經網絡的規模做得非常非常大之后,它的預測能力會非常非常強。但這個起點的想法,最早的研究想法是這樣出來的。

作為學術界其實非常適合去做一些非常前沿的探索,也許里面的有些想法它不一定成功,但也一些想法出來之后會發展成整個AI一個大的分支。


硅星人:今天看起來最聰明的頭腦都在研究生成式AI,會不會太多的hype導致太多的注意力、太多的資源都集中在這里于是可能影響了AI的一些長期存在的、其他可能也有潛力的方向,甚至是除了AI以外的整個科學領域的其他一些領域。畢竟資源是有限的,你會有這種感覺嗎?或者說一些反思?

李磊: 這個hype在任何一個時期它都會有。我想科學,你去看任何一個科學的領域,科學的分支,它的發展可能都是螺旋式上升的。AI在過去50年都是這樣,螺旋式上升。這一輪,當然我們現在沒有看到螺旋往下,它好像一直在上升。我認為適度的hype是有價值的。

我現在認為,科學研究你不能像做數學那樣精確地規劃好,說我只看只做這一個方向或者只做那個方向,我規劃好。因為研究它的風險是比較高的,在沒有出來之前,你并不知道這個方向會成功還是那個方向會成功。

所以我們應該像強化學習里面強調的探索 (exploration) 和利用 (exploitation) 這種概念一樣,我應該做一些廣泛的探索,但是當我有一定的發現之后,我又可以縮小范圍 (narrow down),說針對某一些非常有前景 (promising) 的方向,可以收斂,更多地集中資源去做。

當然,集中也不意味著其他的方向我就不做了。這種就是學術界和工業界可以去配合,可以去合作。工業界可以說,我在已驗證的方法上證明了這個方向是有效的 。那么它可以集中資源,現在就是大語言模型,那顯然有效,我把規模 (scaling) 提上去,數據提上去,計算提上去,模型規模提上去,我一定是會有效的。好,那我集中投入資源去做,這是可以的。

那么學術界它其實可以說,我不僅僅看現在已經證明有效的,我還可以去探索一些其他的,比如說我可以看多智能體 (Multi-agent),我不僅僅有一個AI模型,我可以有很多的AI模型,大家可以一起來協作,大家相互競爭或者相互合作來解決一些復雜的問題。


硅星人:今天一切變化都很快發生,不光是技術在融合。其實剛才我們聊到的一個很重要的話題,就是可能工業界跟學術界又在融合,這里面的關系其實也是在一直變化。您自己也經歷過。其中體現出來一個很重要的形式,就是工業界嘗試去辦一些類似實驗室形式的東西,然后去嘗試做本是學術界在做的一些前沿的突破。你自己觀察說這些接下來的一些新的組織形態會是什么樣子?會不會工業界不滿足于說反饋給學術界,而是自己做了閉環?

李磊: 工業界的這種研究實驗室 (research lab) 應該以什么樣的形式組織?

我個人認為這應該是一個動態變化的過程,不應該以一個固定的模式,而應該審時度勢,與時俱進。就是你要看當前這個行業,以及從具體的公司、具體的業務的需求,以及公司擁有的人才團隊出發,去看什么樣的組織形式最好。

大家當然知道貝爾實驗室 (Bell Labs) 他們這種工業研究實驗室非常非常成功,他們也有劃時代的發現,都有諾獎級別的發現,當然非常非常好。但是他們這種組織形式是不是一定適合現在的,現在最新的這種新時代的每一個公司都可以用這種形式呢?其實不是。那包括貝爾實驗室之后也有各種公司它嘗試不同的形態嘛,包括像微軟研究院 (Microsoft Research),Google的形式,Google它也有不同的形式,Google Research,后來叫Google Brain,現在叫DeepMind,這些也有不同的形式。對,然后包括Meta,他們有這種Meta Research, FAIR,他們現在又有GenAI的這種組織形式。那這種形式當然是不一樣的。我想不能說就是套一個公式說,哎,這個就一定是最好的,所以我所有公司在不管什么時候我都用這種,那可能是沒有的。可能只能說我們要去借鑒。

但我覺得對于公司來說,應該去找適合公司發展的、并且適合這個公司團隊以及適合公司業務需求的這種組織形式。那在一定情況下可能需要做一些開放式的前沿探索,那如果有這樣的機制,它可能會產生像DeepMind的AlphaFold這樣劃時代的、諾獎級的工作,這個當然是非常非常好,對吧?但是你也不能說我所有的資源都投入去做這種,那公司就不盈利了,對吧?

所以我想最后可能就是說,他們需要更多地去做那種目標導向的、非常明確的、并且集中資源干大事的這種研究。


點個愛心,再走 吧

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
2025年上合峰會為何選址天津?王毅外長的硬核官宣,你讀懂了嗎?

2025年上合峰會為何選址天津?王毅外長的硬核官宣,你讀懂了嗎?

春序娛樂
2025-06-05 14:03:28
王思聰帶懶懶坐私人飛機,懶懶曬的合照有意思,原來他也是這待遇

王思聰帶懶懶坐私人飛機,懶懶曬的合照有意思,原來他也是這待遇

凌薇看電影
2025-06-05 15:58:38
山東失蹤男孩已去世!只是去鄰居家拿了根黃瓜,知情人透更多細節

山東失蹤男孩已去世!只是去鄰居家拿了根黃瓜,知情人透更多細節

觀察鑒娛
2025-06-05 12:24:20
李嘉格婚禮當天,媽媽和婆婆冷戰,全程無溝通

李嘉格婚禮當天,媽媽和婆婆冷戰,全程無溝通

娛樂故事
2025-06-06 01:05:03
高昉潔2-1逆轉宮崎友花,晉級女單8強,將戰王祉怡

高昉潔2-1逆轉宮崎友花,晉級女單8強,將戰王祉怡

懂球帝
2025-06-06 00:09:36
朝鮮高官被一鍋端!金正恩親自砍向自家后院,這次真下死手了?

朝鮮高官被一鍋端!金正恩親自砍向自家后院,這次真下死手了?

Ck的蜜糖
2025-06-02 10:49:21
國軍連長率部起義,乞討走完長征,1952年毛主席認出他:你去哪了

國軍連長率部起義,乞討走完長征,1952年毛主席認出他:你去哪了

胖仔說娛
2025-05-30 11:32:06
張若昀倫敦撒狗糧,任嘉倫告白妻子,紅了不忘本的男星個個深情

張若昀倫敦撒狗糧,任嘉倫告白妻子,紅了不忘本的男星個個深情

FancyMusic
2025-06-05 16:30:04
樊振東向湖南家鄉祠堂捐20萬,竟被當地人指責:太少了,不是捐款

樊振東向湖南家鄉祠堂捐20萬,竟被當地人指責:太少了,不是捐款

八斗小先生
2025-06-05 20:11:32
研究發現:若晚餐經常吃太早,不超半年,胰腺或迎來6種不良變化

研究發現:若晚餐經常吃太早,不超半年,胰腺或迎來6種不良變化

除夕煙火燦爛
2025-04-20 15:02:22
國足生死戰!0-1印尼球員評分:兩罪將被揪出,武磊王大雷留遺憾

國足生死戰!0-1印尼球員評分:兩罪將被揪出,武磊王大雷留遺憾

野渡舟山人
2025-06-06 00:11:15
F-15J:為什么現代戰機追不上中國無人機?

F-15J:為什么現代戰機追不上中國無人機?

Hi秒懂科普
2025-06-06 04:16:08
美國宣布暫停中國留學生簽證,紐約時報:中國幾乎沒有任何籌碼。

美國宣布暫停中國留學生簽證,紐約時報:中國幾乎沒有任何籌碼。

百態人間
2025-06-02 11:58:19
媒體人:蔣光太不是剛受傷的,他隨國足出征對球隊是心理支撐

媒體人:蔣光太不是剛受傷的,他隨國足出征對球隊是心理支撐

懂球帝
2025-06-05 17:34:33
“難怪小學女老師,十個有九個單身”,一段聊天記錄,揭露了真相

“難怪小學女老師,十個有九個單身”,一段聊天記錄,揭露了真相

妍妍教育日記
2025-06-03 20:00:38
印度偷送中國導彈殘骸給日本!專家拆開后傻眼:中國早埋了雷

印度偷送中國導彈殘骸給日本!專家拆開后傻眼:中國早埋了雷

起喜電影
2025-05-29 09:15:17
王皓周日考編,可能和王楚欽當同事

王皓周日考編,可能和王楚欽當同事

極目新聞
2025-06-05 16:19:30
樸槿惠又出來了!這次她穿衣打扮更顯年輕,知己柳榮夏寸步不離

樸槿惠又出來了!這次她穿衣打扮更顯年輕,知己柳榮夏寸步不離

陳意小可愛
2025-06-05 08:56:14
四川3名副廳級干部任新職

四川3名副廳級干部任新職

金臺資訊
2025-06-05 10:49:15
中國“進口車”銷量成績:進口冠軍車型,今年一季度銷量超2萬臺

中國“進口車”銷量成績:進口冠軍車型,今年一季度銷量超2萬臺

柳先說
2025-06-05 19:25:10
2025-06-06 05:04:49
硅星人 incentive-icons
硅星人
硅(Si)是創造未來的基礎,歡迎來到這個星球。
2236文章數 10341關注度
往期回顧 全部

科技要聞

對話盛景網聯彭志強:跳出SaaS虧損黑洞!從“賣工具”到“賣結果”的AI RaaS轉型法則

頭條要聞

特朗普:我要求馬斯克離開 馬斯克瘋了

頭條要聞

特朗普:我要求馬斯克離開 馬斯克瘋了

體育要聞

提前無緣美加墨世界杯 國足眾將賽后落淚

娛樂要聞

陳赫宴請好友,李乃文攜妻子罕見亮相

財經要聞

習近平同美國總統特朗普通電話

汽車要聞

旗艦+大六座+百萬級 阿維塔全新SUV預計明年量產

態度原創

藝術
健康
手機
教育
軍事航空

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

減重專家破解減肥九大謠言!

手機要聞

領先蘋果iPhone 17 Air!華為Mate XTs三折疊將國內首發eSIM

教育要聞

期末考試終于敲定!南京中小學暑假延長了?

軍事要聞

普京明確:沒有人會與“恐怖分子”談判

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 肃南| 云阳县| 西华县| 长泰县| 尉犁县| 沧州市| 湄潭县| 都江堰市| 北碚区| 高雄市| 济源市| 呼伦贝尔市| 六安市| 玉溪市| 乌鲁木齐市| 岱山县| 安仁县| 富源县| 澄迈县| 景洪市| 北碚区| 莱阳市| 濮阳县| 通海县| 钟祥市| 沈阳市| 溧水县| 闵行区| 牡丹江市| 洪泽县| 皋兰县| 墨脱县| 巴中市| 岳阳市| 福安市| 集安市| 买车| 龙胜| 蓝田县| 九龙坡区| 满洲里市|