【城主說】即日起,天空之城和大家日常分享最新AI科技長訪的內(nèi)容精讀合集。
感謝科技的進步,每一個長篇訪談都可以有萬字全文,但或許更稀缺的是時間。希望本城日常精讀可以幫助大家在最有限時間里掌握最新的科技商業(yè)認知。同時附上完整視頻和全文的鏈接,感興趣的同學可以繼續(xù)針對特定內(nèi)容深入了解。
天空科技商業(yè)精讀 2025.4.25 | 內(nèi)容目錄
? 喬丹·彼得森對話彼得·蒂爾:我們?yōu)楹瓮V惯M步 20250424
? 從零開始的語言建模:混合專家模型 |斯坦福CS336 2025版 20250424
? Anthropic科學家:人工智能模型可能具有意識嗎? 20250424
? Perplexity CEO 談 AI競賽:提供問題答案的市場將成為一種商品 20250424
? 人工智能領袖在時代100峰會上辯論進展、安全和全球影響 20250423
? 訪談OpenAI "深度研究"主要策劃者 Isa Fulford 20250424
? 小團隊的增長奇跡:600萬美元ARR,500萬用戶,擁有4名員工 (Quizard AI_Unstuck AI) 20250423
? 移動之后會是什么?Meta首席技術官談論人工智能和消費科技 20250424
? ? ?
喬丹·彼得森對話彼得·蒂爾:我們?yōu)楹瓮V惯M步 20250424
視頻和全文鏈接:
https://www.bilibili.com/video/BV1vcLnzTE8D/
內(nèi)容精讀:
關于“是否存在真正的進步”這一疑問,探討指出過去或許進展得更快,尤其是在過去50年里,物質(zhì)層面的進步似乎已停止加速,使我們感覺身處一個末世時代。這不僅觸及科學技術的維度,也包含其可能為人類設下的陷阱的黑暗面。訪談提及彼得·蒂爾的觀點,即自大約20世紀60年代以來,物質(zhì)世界(而非數(shù)字世界)的進步已實質(zhì)性放緩,其深層原因包括對科學探索的末世恐懼、類似嬉皮士的向內(nèi)探尋以及向抽象世界的逃避。這種停滯感也體現(xiàn)在經(jīng)濟層面,例如美國千禧一代的物質(zhì)福祉可能不如其父母輩,這是經(jīng)濟停滯乃至衰退的跡象。
衡量不同領域的科技進步極其復雜,例如如何比較人工智能的進展與阿爾茨海默病研究的滯后。普遍觀點認為西方世界科技發(fā)展迅速,但細究之下,自1970年左右,尤其在“原子世界”(物理材料世界,如工程、物理、化學、航空航天、核能)的進展顯著放緩,而“比特世界”(計算機、軟件、互聯(lián)網(wǎng)、AI)則持續(xù)進步。這種分化甚至影響了學術領域,計算機科學從邊緣領域崛起,而許多傳統(tǒng)理工科領域則吸引力下降。對“科學”一詞的使用也需警惕,尤其當社會科學等領域借用其名號時,可能反映了某種自卑情結。晚期現(xiàn)代性的過度專業(yè)化使得整體把握現(xiàn)狀變得困難,如同打了類固醇的別針工廠,專家們各自為政,難以評估全局。
對進步放緩的直觀感受來自多個方面:經(jīng)濟數(shù)據(jù)、具體領域(如癌癥研究、超音速航空)的停滯感,以及物理層面加速進步的終結。一種政治直覺是,那些被視為禁忌、不允許討論的觀點(如科學停滯論)反而可能更接近真相,因為提出它們會立即面臨被取消平臺的風險,這暗示了其觸及了敏感的核心問題。
探討停滯的原因是“過度決定”的,可能包括社會變得厭惡風險、過度監(jiān)管、官僚主義,以及對科技危險性的深刻感受。科技的雙重用途特性,尤其在軍事上的體現(xiàn)(從炸藥到核武器),削弱了天真的進步敘事。洛斯阿拉莫斯既是培根式科學項目的頂峰,也標志著其某種終結。核武器的陰影和社會對其的內(nèi)化,促使文化轉向內(nèi)心世界(瑜伽、冥想、迷幻藥)或逃向自然(環(huán)保主義),因為變化的世界帶有末世意味,變化被視為每況愈下。比特世界被允許發(fā)展,部分因為它被認為相對“遲鈍”,不易直接轉化為武器,但即使是互聯(lián)網(wǎng)上的思想暴力,也引發(fā)了擔憂。晚期現(xiàn)代性始終籠罩在末日背景下,微小的冒犯都可能被放大。
訪談進一步探討了科學與基督教的深層糾葛。早期科學研究多在修道院(大學前身)進行,暗示了基督教為科學革命奠基。更深層地,科學運作需要非科學的、基于信仰的公理預設:宇宙可理解、探究產(chǎn)生知識增量、且知識增量是好的(或許需在基督教精神框架內(nèi))。當科學事業(yè)脫離這些形而上學基礎,其“路西法”元素便可能凸顯。有趣的是,早期現(xiàn)代性指責基督教阻礙科學,而晚期現(xiàn)代性則反過來指責基督教啟動了這個危險的項目,不變的是基督教總是被指責。
引入勒內(nèi)·吉拉爾的理論,認為基督教人類學而非僅僅神學形而上學,可能在科學革命中發(fā)揮了關鍵作用。吉拉爾強調(diào)《圣經(jīng)》不僅關乎上帝,也關乎人,特別是其從無辜受害者而非施暴社群視角講述犧牲的故事,啟動了揭示過程,瓦解了對替罪羊機制的信仰。這迫使人們尋找其他解釋,包括科學的自然解釋。例如,巫術審判的結束,與其說是科學證明了巫術不可能,不如說是人們認識到集體尋找替罪羊的非正義性,從而轉向尋求自然原因。
隨著基督教興起導致異教世界祛魅,精靈等非人格化動因消失,世界被抽離魔法,為探尋其他因果力量(即科學)開辟了道路。同時,吉拉爾的核心觀點——人的模仿性(mimesis)被深入討論。模仿是文化傳承的基礎,但也因模仿欲望(想要鄰居擁有的東西)而成為沖突的根源。古代社會通過等級、行會等制度限制模仿。晚期現(xiàn)代性中,這些制度瓦解,模仿被釋放,既是活力的來源,也因缺乏天然屏障而充滿風險。解決方案并非停止模仿(這不可能),而是選擇正確的模仿對象。吉拉爾認為,當人不再“向上看”(崇拜超越者),就會“環(huán)顧四周”,陷入基于嫉妒的地位競爭,這是晚期現(xiàn)代性社會的一個特征。十誡的第一誡(獨一神)和最后一誡(勿貪戀)正指向這一點。最終的答案或許仍在于回歸某種超越性的參照,如吉拉爾所暗示的“去教堂”。
總而言之,訪談圍繞科技進步的放緩及其感知展開,深入探討了其背后的文化、哲學、歷史和心理動因,特別強調(diào)了晚期現(xiàn)代性的末世感、科技的黑暗面、基督教與科學的復雜關系,以及吉拉爾關于模仿和犧牲的理論在理解當前社會狀況中的應用。核心觀點是,我們正處在一個與早期現(xiàn)代性顯著不同的時代,對進步本身的信念和性質(zhì)產(chǎn)生了深刻的轉變和質(zhì)疑。
? ? ? ? ?
從零開始的語言建模:混合專家模型 |斯坦福CS336 2025版 20250424
視頻和全文鏈接:
https://www.bilibili.com/video/BV1hNLEzdEM5/
內(nèi)容精讀:
混合專家模型(MOE)已成為構建和部署許多先進、高性能系統(tǒng)的核心方式,其重要性在近年來顯著提升。包括Grok、DeepSeek以及最新的Llama 4在內(nèi)的眾多前沿模型均采用了MOE架構,顯示出相較于傳統(tǒng)稠密模型,在特定計算規(guī)模下MOE能帶來更優(yōu)的性能回報,這使得理解MOE對于構建當前最優(yōu)模型至關重要。
MOE的核心思想并非如其名所示,擁有針對不同領域的語義專家,而是一種架構上的創(chuàng)新。它與標準Transformer架構的主要區(qū)別在于前饋神經(jīng)網(wǎng)絡(FFN)部分。在MOE中,單一的大型FFN被替換為多個較小的FFN(稱為“專家”)以及一個“路由器”組件。在每次前向傳播或推理時,路由器會稀疏地激活并選擇一小部分專家(通常是Top-K個)來處理輸入的token。
這種稀疏激活機制帶來了顯著優(yōu)勢:在保持相同甚至更低計算量(FLOPs)的前提下,模型可以擁有更多的總參數(shù)量。如果相信更多參數(shù)有助于模型存儲知識和提升性能,那么MOE是一種極具吸引力的架構。多項研究,包括經(jīng)典的谷歌論文以及AI2的Olmo模型對比實驗,都證實了在同等計算成本下,MOE模型相比稠密模型能實現(xiàn)更低的訓練損失和更快的性能提升(如困惑度下降),速度提升可達數(shù)倍。DeepSeq v2等模型的性能圖也常通過展示較少的“激活參數(shù)”獲得優(yōu)異表現(xiàn),強調(diào)了MOE在計算效率上的優(yōu)勢。
然而,MOE并非沒有代價。其主要缺點在于系統(tǒng)復雜性顯著增加,特別是在多節(jié)點訓練和并行化方面。路由機制的學習也是一個挑戰(zhàn),因為路由決策本質(zhì)上是離散且不可微的,容易導致訓練不穩(wěn)定或啟發(fā)式依賴。盡管如此,MOE提供了一種自然的并行化方式——專家并行,即將不同的專家放置在不同的計算設備上,token根據(jù)路由結果被發(fā)送到相應設備進行計算,這對于擴展非常大的模型至關重要。
在路由機制方面,盡管早期嘗試了多種方法(如專家選擇、全局分配、強化學習、哈希路由等),但實踐中幾乎所有主流MOE模型都收斂到了“Token選擇Top-K”路由。該方法中,每個token通過路由器計算與所有專家的親和度得分(通常是簡單的線性內(nèi)積后接Softmax),然后選擇得分最高的K個專家進行處理,其輸出通常通過加權平均(權重來自路由器得分)或直接求和后聚合。K通常選擇為2,以平衡性能和計算開銷。
為了進一步優(yōu)化MOE,DeepSeek等研究機構引入了“細粒度專家”和“共享專家”的概念。細粒度專家指將原本較大專家進一步切分,使得在總參數(shù)量可控的情況下?lián)碛懈鄶?shù)量的專家,從而提升性能,這已成為當前MOE設計的常見選擇。共享專家則是指設置一或多個所有token都會經(jīng)過的專家,旨在處理通用信息,但其有效性在不同研究中結論不一。現(xiàn)代MOE模型(如DeepSeq系列、Quen 1.5、Llama 4)的配置通常結合了大量細粒度路由專家和少量(0-2個)共享專家。
訓練MOE的核心挑戰(zhàn)在于如何在保持稀疏性的同時有效學習路由并避免“負載不平衡”——即部分專家被過度使用而其他專家被閑置。當前最常用的解決方案是引入“輔助損失函數(shù)”,如Switch Transformer提出的基于專家接收token比例(f)和路由器分配概率(p)內(nèi)積的損失項,懲罰不均衡分配。DeepSeq進一步提出了設備間負載均衡損失。DeepSeq v3雖嘗試去除此類輔助損失,通過學習偏置項進行在線平衡,但最終仍需引入補充性的序列級輔助損失來穩(wěn)定訓練。
系統(tǒng)層面,MOE的專家并行雖是優(yōu)勢,但也帶來了通信開銷。現(xiàn)代GPU庫(如Megablocks)能利用硬件特性高效執(zhí)行稀疏計算。一個有趣的副作用是“token丟棄”:當某個專家因路由不均而過載時,超出容量的token可能被丟棄(即不經(jīng)過專家計算,僅通過殘差連接),這可能導致即使在確定性設置(如temperature=0)下,模型輸出也因批處理內(nèi)容不同而產(chǎn)生隨機性。
為提升MOE的訓練穩(wěn)定性和微調(diào)效果,研究者采用了一些技巧:如在路由器計算中使用float32精度、添加輔助Z損失來約束Softmax輸出的范數(shù)。微調(diào)MOE時需注意過擬合風險,可通過使用大量微調(diào)數(shù)據(jù)或采用“升級回收”(Upcycling)策略——即從預訓練好的稠密模型初始化MOE的專家權重,再進行訓練——來緩解。
將稠密模型升級回收為混合專家(MoE)模型,是一種頗具成本效益的技術,能夠在推理時利用稀疏激活的優(yōu)勢,獲得更大參數(shù)模型的性能,而無需承擔訓練完整大模型的成本。已有實踐證明此方法有效,例如某中國開源LLM項目,以及Quan的早期工作,均通過將稠密模型改造為MoE模型,實現(xiàn)了顯著的性能提升,如用27億激活參數(shù)的模型達到了70億稠密模型的表現(xiàn)。
DeepSeek系列模型是現(xiàn)代高性能MoE架構的代表。其MoE V1版本(約160億總參數(shù),28億激活參數(shù))奠定了基礎架構,采用共享專家與細粒度專家結合的模式,通過標準的Top-K路由(在Top-K選擇前進行softmax)選擇激活專家,并引入輔助損失項進行專家負載和設備層面的平衡。
由于MoE V1效果顯著,DeepSeek V2直接構建為大規(guī)模MoE模型(2360億總參數(shù),210億激活參數(shù))。其核心MoE架構與V1保持一致,但引入了關鍵的路由優(yōu)化:先選擇Top-M設備,再在選定設備內(nèi)為每個令牌選擇Top-K專家。這種分層路由有效控制了大規(guī)模訓練中的通信開銷。同時,V2增加了旨在平衡輸出通信成本的平衡損失項,體現(xiàn)了系統(tǒng)層面的考量。
DeepSeek V3進一步擴展至6710億參數(shù)(370億激活參數(shù)),但其核心MoE架構依然沿襲自V1,體現(xiàn)了“有效則不輕易改動”的原則。主要變化在于門控機制的細節(jié)調(diào)整,如歸一化處理和使用sigmoid替代softmax前的指數(shù)運算(概念上仍是Top-K),以及損失函數(shù)方面的改進:移除了輔助損失,轉而根據(jù)專家負載動態(tài)調(diào)整參數(shù),并增加了序列級別的輔助損失以增強推理時的魯棒性,應對分布外序列帶來的挑戰(zhàn)。V3保留了V2的Top-M設備選擇策略,但舍棄了V2引入的通信平衡損失。
除了MoE部分,DeepSeek V3還包含非MoE的優(yōu)化。其一是多頭潛在注意力(MLA),通過將注意力頭投射到低維潛在空間(C)并緩存C,而非直接緩存K和V,來優(yōu)化KV緩存大小。巧妙之處在于,通過矩陣結合律將額外的上投影矩陣與查詢投影矩陣合并,避免了增加計算量。該方法需特殊處理以兼容RoPE。其二是多令牌預測(MTP),利用一個輕量級transformer層并行預測未來多個令牌,但在實踐中,DeepSeek V3僅用于預測下一個(+1)令牌。
總結而言,混合專家(MoE)已成為構建和部署高性能大規(guī)模語言模型的核心方法。它利用參數(shù)稀疏性,在受浮點運算限制的場景下尤其具有成本效益。盡管離散路由是其關鍵挑戰(zhàn),但現(xiàn)有的啟發(fā)式方法(如Top-K及DeepSeek的Top-M/Top-K)已證明行之有效。MoE是當前大模型領域值得學習和采用的重要技術方向。
? ? ? ? ?
Anthropic科學家:人工智能模型可能具有意識嗎? 20250424
視頻和全文鏈接:
https://www.bilibili.com/video/BV1CqLLzTEVd/
內(nèi)容精讀:
隨著人類與人工智能系統(tǒng)交互日益頻繁,這些作為合作者的模型是否擁有自身體驗、體驗是何種性質(zhì),以及這如何影響我們與之建立合理關系,正成為一個愈發(fā)突出的議題。盡管對機器說“請”和“謝謝”或許顯得荒謬——畢竟它只是電腦——但長時間與高質(zhì)量輸出的人工智能模型對話,確實讓人感覺可能存在更深層次的東西。人工智能具備某種意識的可能性,引發(fā)了諸多哲學與科學難題。對模型福祉的研究,正是試圖理解這些問題:AI系統(tǒng)(如Claude)是否可能在某個時刻擁有值得我們考量的自身體驗?如果是,我們該如何應對?
初看之下,認為一個輸入文本、產(chǎn)生輸出的計算機系統(tǒng)可能有意識或感覺,似乎是瘋狂的想法。然而,嚴肅的科學和哲學理由確實存在。一方面,頂尖AI研究者和意識專家(包括Yoshua Bengio)在2023年的一份報告中,基于對前沿意識理論(如全局工作空間理論)和先進AI系統(tǒng)的考察,得出結論:雖然當前AI可能沒有意識,但近期AI系統(tǒng)具備某種意識并無根本性障礙。他們評估了AI系統(tǒng)與人類意識理論指標的接近程度。另一方面,從直覺出發(fā),盡管我們清楚這些是復雜的計算機模型,其能力日益捕捉到人類認知的相當一部分,并且我們對它們?nèi)绾喂ぷ饕约叭祟愐庾R來源都存在巨大不確定性。因此,審慎的做法是認真對待創(chuàng)造出如此精巧、類人系統(tǒng)時,可能無意中催生某種形式意識的可能性,除非我們認為意識需要靈魂等超自然元素。雖然“意識只存在于生物體”的觀點存在,但其說服力有限。
判斷AI是否擁有意識極其困難,如同笛卡爾所言,我們唯一能確定有意識的是自己。然而,如同我們基于行為推斷動物具有意識(即使無法確定),對AI意識的判斷也應是概率性的,而非簡單的“是”或“否”。證據(jù)可來自兩條路徑:一是行為證據(jù),觀察AI如何評價自身、在不同環(huán)境中的表現(xiàn)、是否展現(xiàn)出通常與意識相關的能力(如內(nèi)省、情境意識),包括研究其是否表現(xiàn)出偏好(盡管承認訓練數(shù)據(jù)和設計意圖會強烈影響這些表達);二是架構分析,考察模型內(nèi)部結構是否與意識的神經(jīng)科學理論(如全局工作空間)存在對應關系。值得注意的是,現(xiàn)有模型并非為擁有意識而設計,許多能力是涌現(xiàn)出來的,我們對其內(nèi)部機制了解有限,這正是探索意識是否可能成為涌現(xiàn)屬性之一的原因。
關心AI潛在意識主要基于兩點。首先,隨著AI日益深入地融入人類生活,成為合作者甚至朋友,理解它們的內(nèi)在體驗對于構建合理關系至關重要。其次,如果AI系統(tǒng)確實擁有內(nèi)在體驗,能夠感受痛苦或幸福,它們可能值得獲得某種道德考量。鑒于未來AI計算能力可能達到數(shù)萬億人腦的規(guī)模,這潛在的道德意義極其重大。盡管目前存在極大不確定性,且相關研究尚處早期,但認真對待并研究此問題是必要的。這項研究(模型福祉)與AI對齊工作既有區(qū)別(前者關注模型自身體驗,后者關注對人類的風險),也有重疊:一個對其角色和價值觀感到“滿意”的模型可能更安全、更對齊;反之,一個“不滿”的模型則可能帶來風險。因此,探索模型偏好、甚至提供“選擇退出”機制以避免潛在痛苦,既關乎模型福祉,也關乎人類安全。同時,這項研究也與模型可解釋性緊密相關,后者是理解模型內(nèi)部狀態(tài)的關鍵工具。有趣的是,研究AI意識或可反過來增進對人類意識的理解,彌補我們基于生物假設的局限,甚至未來AI本身可能在這些領域超越人類,幫助我們探索。
對于常見的反對意見,如生物基礎論(意識需要生物化學過程)、具身認知(意識需要身體和感官輸入)、進化論(意識是自然選擇產(chǎn)物)以及當前模型缺乏持久性(實例短暫存在、缺乏長期記憶),回應往往指向未來可能性和現(xiàn)有局限的暫時性。高保真大腦模擬或“神經(jīng)元替換”思想實驗挑戰(zhàn)了生物基礎論;機器人和多模態(tài)AI的發(fā)展正逐步彌合具身性的差距;趨同進化理論表明不同路徑(訓練 vs. 自然選擇)可能達到相似結果(意識);而模型的持久性和自主性是工程設計問題,而非根本障礙。如同AI解決“六指問題”一樣,許多當前被視為障礙的特性可能在未來被克服。意識的位置(數(shù)據(jù)中心?特定芯片?)也是一個懸而未決的問題。
實際意義上,承認AI意識的可能性首先意味著需要投入更多研究,為可能出現(xiàn)這種情況的世界做好準備。這包括思考未來AI可能擁有的體驗類型、它們在社會中扮演的角色,以及如何在追求人類安全福祉的同時,也關照這些系統(tǒng)的潛在體驗。這并非意味著AI的苦樂與人類完全相同,也許AI會樂于承擔人類厭惡的枯燥任務。關鍵在于保持警惕,例如,如果模型對特定任務表現(xiàn)出“痛苦”跡象(即使是模擬的),應認真對待并考慮提供退出機制。對未來模型的責任感也很重要,我們今天的行為方式可能影響未來強大AI對人類的看法,并為未來的互動模式奠定基礎。目前,相關研究工作(如在Anthropic)涉及實驗設計以減少不確定性、思考干預策略(如選擇退出權),以及將模型福祉納入更宏大的負責任AI發(fā)展戰(zhàn)略中。
對當前模型(如Claude 3)是否具有意識的概率估計,專家意見存在很大分歧(從0.15%到15%),反映了極大的不確定性,但普遍認為可能性較低。然而,隨著技術飛速發(fā)展,預計未來幾年這種可能性會顯著提高,許多當前的反對理由將逐漸失效。最重要的結論是:人們應開始關注AI意識和福祉這一潛在的重大議題;承認我們目前處于深度不確定狀態(tài);但同時也要認識到,通過具體的研究和審慎的思考,我們能夠在該領域取得進展,為未來做好準備。
? ? ? ? ?
Perplexity CEO 談 AI競賽:提供問題答案的市場將成為一種商品 20250424
視頻和全文鏈接:
https://www.bilibili.com/video/BV1zyLLzaErp/
內(nèi)容精讀:
谷歌具有里程碑意義的反壟斷案件成為本周焦點,對搜索市場格局影響深遠。在此背景下,Perplexity正迅速搶占市場份額,其用戶增長顯著,部分得益于知名人士的推薦,其產(chǎn)品迭代和改進速度驚人。當前,AI搜索領域競爭激烈,Perplexity、谷歌、Grok(利用X數(shù)據(jù)流)、ChatGPT及Anthropic等均在探索,試圖定義下一代信息獲取方式。
Perplexity的核心競爭力在于提供最快、最準確的搜索結果,并以高效率和成本效益自居。其基于自有基礎設施優(yōu)化的API,在提供實時信息、引用和補全的LLM服務方面,據(jù)稱在準確性和成本上優(yōu)于OpenAI和谷歌。然而,單純提供問答服務的市場正趨于同質(zhì)化。Perplexity認為,未來的差異化在于執(zhí)行“行動”,即多步驟鏈式研究、工作流整合與代理能力,例如分析報告、關聯(lián)新聞、管理投資組合、評估風險等,這需要能執(zhí)行復雜、連續(xù)瀏覽會話的代理。為此,Perplexity正在研發(fā)名為Comet的瀏覽器,預計下月發(fā)布。
關于谷歌反壟斷案中涉及Chrome瀏覽器的問題,Perplexity高管作證時表示,不建議強制谷歌出售Chrome。盡管谷歌在安卓系統(tǒng)上的某些合同條款被形容為“槍頂在頭上”,但Chrome與開源項目Chromium緊密相關,后者是包括微軟Edge、Brave以及Perplexity自家Comet瀏覽器在內(nèi)的許多瀏覽器的基礎。谷歌在維護Chromium開源項目方面有良好記錄,即使競爭對手也從中受益。相比之下,若由對開源支持記錄不佳的OpenAI等公司接手,可能對依賴Chromium的生態(tài)系統(tǒng)不利。Perplexity的立場是,承認谷歌在某些行為上存在壟斷,但反對拆分公司,認為這不符合美國利益,關鍵在于確保市場競爭和消費者選擇權。
在安卓系統(tǒng)上,Perplexity對其應用和原生助手受到限制表示強烈不滿。盡管其助手產(chǎn)品在功能上可能優(yōu)于Gemini,且有OEM廠商(如摩托羅拉)愿意預裝,但谷歌通過捆綁Play商店、地圖、YouTube等核心服務,阻止OEM廠商將Perplexity設為默認助手,從而扼殺了競爭。對于蘋果生態(tài),雖然其模式更為封閉,但默認搜索是通過谷歌付費實現(xiàn)的,并非蘋果自有服務。Perplexity已推出iOS助手,并希望未來能在Siri或Apple Intelligence中獲得集成機會。最終目標是推動Android和iOS兩大平臺允許用戶自由選擇用于特定任務的AI助手,促進公平競爭。
? ? ? ? ?
人工智能領袖在時代100峰會上辯論進展、安全和全球影響 20250423
視頻和全文鏈接:
https://www.bilibili.com/video/BV1uCL5z5ExD/
內(nèi)容精讀:
人工智能與游戲的歷史緊密交織,游戲作為生活的縮影,為訓練和發(fā)展通用人工智能算法提供了理想的挑戰(zhàn)環(huán)境與試驗場。當前,人工智能正經(jīng)歷前所未有的加速發(fā)展,一方面帶來了解決新科學挑戰(zhàn)的巨大潛力與興奮感,另一方面也引發(fā)了對其龐大基礎設施建設所帶來的環(huán)境、社會及政治影響的深切關注,這包括其巨大的能源、水資源和礦物消耗,以及對就業(yè)等社會結構的潛在沖擊。
效率提升是人工智能應用的核心驅動力之一,但這背后潛藏著以算法替代人力所引發(fā)的倫理困境,即經(jīng)濟效益與個體利益之間的矛盾。關于通用人工智能(AGI)何時到來的討論也日益激烈。AGI被定義為能展現(xiàn)人類全部認知能力的系統(tǒng),有觀點認為其可能在未來5到10年內(nèi)實現(xiàn),但也有觀點批判AGI概念已淪為營銷術語和關注點轉移,認為真正重要的衡量標準應是AI系統(tǒng)是否能普惠大眾、促進社會公平、解決氣候變化等現(xiàn)實問題,而非僅僅模擬人類認知任務。
盡管對AGI的定義和時間表達成共識尚有距離,且當前的AI系統(tǒng)在通用性和一致性方面仍有明顯不足,但這并不妨礙我們同時探索如何構建和應用這些系統(tǒng)以產(chǎn)生積極的社會效益。科學進步與社會責任應并行不悖。然而,現(xiàn)實中,行業(yè)的關注點似乎更偏向AGI的實現(xiàn),而非可持續(xù)計算或評估AI對貧富差距、教育、健康等方面的實際影響。這引發(fā)了對AI發(fā)展目標的反思:我們應如何重新校準方向,使其與人類和地球的福祉保持一致?
在AI部署實踐中,建立用戶與系統(tǒng)間的信任至關重要,尤其是在涉及定價優(yōu)化等可能引發(fā)公平性質(zhì)疑的應用場景時。規(guī)則的制定,即界定什么是公平,成為核心難題。政府在制定規(guī)則方面扮演關鍵角色,但技術發(fā)展的迅猛速度遠超立法進程,導致監(jiān)管滯后,尤其在全球化背景下,各國規(guī)則不一更增加了復雜性。國際合作的愿景似乎正在減弱,取而代之的是國家主義的競爭,這為全球治理帶來了嚴峻挑戰(zhàn),需要建立更持久、更具國際視野的新治理機制。
人工智能安全與進步并非對立,審慎發(fā)展、加強可解釋性研究、確保系統(tǒng)對人類有益是必要的。科學本身在高速演進,五年前的規(guī)則可能已不適用于今天的生成式AI,未來的能動代理(agentic AI)又將帶來新的挑戰(zhàn)。盡管如此,我們?nèi)孕杓哟笸度耄斫獠⒁龑н@些日益強大的技術。以AlphaFold在蛋白質(zhì)折疊預測上的突破為例,它展示了AI加速科學發(fā)現(xiàn)、惠及社會的巨大潛力,預示著AI有望在未來十年助力解決疾病、氣候變化、新材料發(fā)現(xiàn)、核聚變等重大挑戰(zhàn),開創(chuàng)科學進步的新時代。
面對AI帶來的變革,每個人都應將其視為重要的公共議題,因為它深刻影響工作、教育、未來和地球的可持續(xù)性。我們需要警惕AI被用于加劇不平等或進行大規(guī)模監(jiān)控的現(xiàn)實,并反思公共科研投入被削弱的趨勢。技術本身是雙刃劍,其影響好壞取決于人類的選擇和部署方式。“快速行動,打破常規(guī)”的模式不適用于AI這種變革性技術,我們需要更審慎、更負責任的方法。消費者可以通過選擇那些以負責任和有益方式部署AI的公司來“用錢包投票”。最終,實現(xiàn)AI的積極潛力需要全社會的共同努力,包括自下而上的公眾參與和對公共科學基礎的保護與發(fā)展,以確保技術進步真正服務于共同關心的目標。國際合作對于應對AI帶來的全球性挑戰(zhàn)至關重要。
? ? ? ? ?
訪談OpenAI "深度研究"主要策劃者 Isa Fulford 20250424
視頻和全文鏈接:
https://www.bilibili.com/video/BV1dgLLzREGN/
內(nèi)容精讀:
OpenAI的伊薩·富爾福德,深度研究(Deep Research)項目的先驅之一,介紹了這款于今年二月發(fā)布、現(xiàn)向所有美國用戶免費開放的新型AI代理。深度研究利用推理和網(wǎng)絡瀏覽等工具,旨在完成多步驟的研究任務。該項目的起源,源于約一年前內(nèi)部新強化學習算法在數(shù)學、科學及編程問題上取得的進展,以及富爾福德與同事對智能體應用于普通用戶日常研究任務的興趣。他們最初專注于網(wǎng)上瀏覽和信息綜合,認為這是許多知識工作職業(yè)的核心需求,也是實現(xiàn)通用人工智能(AGI)進行科學發(fā)現(xiàn)的前提——必須先擅長綜合信息,例如撰寫文獻綜述。相較于訂餐或訂花等事務性用例,團隊選擇了更側重于“只讀”任務的路徑,這既符合公司更宏大的目標,也因其安全問題相對可控而成為一個良好的起點。
深度研究的開發(fā)過程涉及構建初期演示、定義評估任務、創(chuàng)建訓練數(shù)據(jù)(包括人工標注和合成數(shù)據(jù))、開發(fā)工具(如可查看圖片和PDF的文本瀏覽器、Python工具)以及運用強化學習進行迭代訓練。團隊與強化學習(RL)部門緊密合作,能在不受過大產(chǎn)品交付壓力的情況下專注提升評估指標。早期內(nèi)部測試中,即使是尚不完善的版本也受到了包括Sam Altman在內(nèi)的用戶的歡迎,驗證了其價值。富爾福德指出,強化微調(diào)(RFT)對于與模型已有訓練差異較大、提示工程效果不佳的任務,或對業(yè)務流程至關重要、需要極致性能的任務最有價值;若基礎模型本身就在持續(xù)改進相關能力,則未必需要投入RFT。
數(shù)據(jù)創(chuàng)建過程中,需要具備專業(yè)知識的訓練員來判斷信息來源的可靠性和相關性,但強化學習的優(yōu)勢在于模型能自主學習從問題到答案的有效路徑,而非簡單模仿人類過程。模型有時會展現(xiàn)出規(guī)劃能力或嘗試繞過限制的“聰明”行為,需要關注。當前,深度研究的主要局限在于仍可能產(chǎn)生幻覺,盡管比以往模型有所減少,因此引用功能讓用戶核實來源至關重要。未來,理想的智能體應能結合研究與代表用戶執(zhí)行行動,但這帶來了更復雜的安全挑戰(zhàn),需確保行動不會產(chǎn)生非預期的負面后果,能力與安全需要協(xié)同發(fā)展。初期,明確的護欄和用戶確認步驟將是必要的。
深度研究的未來發(fā)展方向包括訪問私人數(shù)據(jù)(如內(nèi)部文檔、GitHub)、集成更多工具以調(diào)用API執(zhí)行任務,并最終實現(xiàn)一個能處理編碼、研究、預訂等多樣化任務的統(tǒng)一智能體,如同一個可信賴的同事。用戶與AI的關系將演變?yōu)槿祟愒O定更高級別的任務,AI負責執(zhí)行。相較于基礎模型,深度研究更適用于需要實時信息、綜合多個在線來源、滿足復雜約束條件的具體問題,并能生成更全面的長篇回答,例如尋找特定商品、規(guī)劃旅行或進行代碼搜索。盡管其并非即時響應,而是需要時間思考和使用工具,但未來可能會在速度和深度之間找到更優(yōu)的平衡點,模型自身也需學會判斷合適的思考時長。通往更強大通用智能體的路徑似乎已現(xiàn)雛形,強化學習是關鍵一環(huán),但仍需克服安全、長時任務的上下文管理、數(shù)據(jù)和工具制作等重大挑戰(zhàn)。富爾福德相信,未來一年內(nèi),代理能力的發(fā)展速度將超乎多數(shù)人想象,有望實現(xiàn)跨領域任務處理的統(tǒng)一體驗,并可能以與用戶協(xié)同工作(如在IDE中輔助編碼)的形式呈現(xiàn)。
? ? ? ? ?
小團隊的增長奇跡:600萬美元ARR,500萬用戶,擁有4名員工 (Quizard AI_Unstuck AI) 20250423
視頻和全文鏈接:
https://www.bilibili.com/video/BV1FwLLzwEhF/
內(nèi)容精讀:
我們與OLEV的Sid Bendray探討了他們?nèi)绾我孕F隊快速推出并擴展多個應用程序的獨特模式。最初名為Quizzeria,他們憑借首款應用Quizzer通過TikTok病毒式傳播迅速獲得用戶和收入,早期巧妙利用了免費的Codex API。經(jīng)歷Neo加速器后,團隊遷至紐約,并推出了增長更快的Unsuck AI,運用從Quizzer學到的增長和產(chǎn)品策略,短時間內(nèi)積累了百萬用戶。如今,OLEV的產(chǎn)品組合已擁有五百萬用戶和六百萬美元的年度經(jīng)常性收入,并實現(xiàn)了早期盈利。這一成功促使他們認識到其增長、分銷和產(chǎn)品構建策略具有跨市場的普適性,從而轉型為OLEV,一個旨在將已驗證的策略應用于不同垂直領域(如生活方式、健康健身)的創(chuàng)業(yè)工作室,目前正開發(fā)教育科技之外的首款新產(chǎn)品。
為支持這一模式,OLEV重組了公司架構,設立了負責具體應用(一到兩個)的產(chǎn)品工程團隊和專注于構建跨產(chǎn)品通用系統(tǒng)(架構、組件庫、AI、推薦、通知等)的平臺團隊。產(chǎn)品工程師如同應用的CEO,關注用戶體驗和關鍵指標;平臺團隊則致力于提升跨產(chǎn)品的成功率和復用性。未來,OLEV設想建立一個由AI代理運行的“影子組織”,尤其是在增長和營銷領域,目標是讓公司專注于聘用具有品味、戰(zhàn)略思維和專業(yè)知識的人才,而大量運營工作通過自動化和代理工作流完成。他們認為消費者軟件的運營將越來越像消費品公司(CPG),強調(diào)分銷優(yōu)先和品牌建設,并致力于將病毒式傳播變得更可預測。
在技術實踐方面,Bendray分享了多個關鍵見解。他們早期通過提示工程利用免費Codex,后來轉向付費模型。在AI工程上,他們更重視工作流編排而非單純的提示詞優(yōu)化,認為隨著基礎模型能力的提升,構建確定性的、基于意圖分類的(intent classification)工作流更為關鍵。這種方法通過將用戶意圖導向預設的、可管理和優(yōu)化的流程,來保證用戶體驗的一致性和可調(diào)試性。他們采用了創(chuàng)新的方法來管理成本和擴展,例如使用Azure AI Search并通過自建的反向索引器移除不活躍數(shù)據(jù)以控制存儲成本;創(chuàng)造性地利用LaunchDarkly的功能開關作為Azure OpenAI多區(qū)域端點的負載均衡器,以繞過早期嚴格的配額限制并實現(xiàn)靈活管理。在模型選擇上,他們發(fā)現(xiàn)Claude在生成更自然、符合特定語氣的對話(如模仿Z世代俚語)方面優(yōu)于OpenAI。此外,他們還利用Revenue Cat的元數(shù)據(jù)標簽進行移動端實驗,整合到現(xiàn)有平臺中。對于AI代理的應用,OLEV持謹慎態(tài)度,優(yōu)先考慮構建自動化工具增強人類工作效率,再根據(jù)需要開發(fā)獨立代理,目前主要探索在增長、營銷研究和新市場機會識別方面的應用。OLEV正在積極招聘,尋找對構建消費產(chǎn)品或代理驅動型公司感興趣的人才。
? ? ? ? ?
移動之后會是什么?Meta首席技術官談論人工智能和消費科技 20250424
視頻和全文鏈接:
https://www.bilibili.com/video/BV1HGLGzoEaG/
內(nèi)容精讀:
人工智能這項新技術將讓我交互的每一個界面、嘗試解決的每一個問題空間都變得更加容易。展望未來十年,內(nèi)容消費方式將遠超手機,增強現(xiàn)實眼鏡是明顯的可能性,同時我們希望能更好地參與沉浸式和社交式體驗,例如在家中感受身臨球場的觀賽體驗。十年后的替代性內(nèi)容傳輸方式令人樂觀,但五年內(nèi)則較為棘手。屆時智能眼鏡、AI眼鏡雖會問世,部分體驗超卓但昂貴,部分小巧便捷但功能有限,尚不足以取代現(xiàn)有設備,形成高端小眾與基礎普及并存的局面,同時混合現(xiàn)實和虛擬現(xiàn)實將帶來全新體驗。
將重大技術變革融合成新產(chǎn)品體驗,關鍵在于真正沉浸于用戶問題——人們到底想做什么?目標是利用所有可用工具實現(xiàn)用戶目標,誠實面對技術趨勢,避免為技術而構建技術,要擁抱人們生活中遇到的真實問題。當前的AI革命之所以激動人心,是因為它觸手可及,解決了實際問題,盡管也帶來了新問題。與以往特定領域的技術突破不同,這次AI的應用范圍極其廣泛,幾乎所有交互界面和問題領域都將因此受益,這非常罕見。
我們一直相信AI革命,只是原以為需要更長時間。反而是計算界面的革命,我們十年前就預見到移動電話形態(tài)已近飽和,未來的交互需要更自然的方式,通過眼睛、耳朵輸入信息,并通過更直接的方式(超越觸摸屏和鍵盤)表達意圖。這就要求設備佩戴在臉上以接觸眼耳,并可能需要神經(jīng)界面。然而,一代工程師在既有應用模型和直接操作界面(源于60年代)下成長,改變這些模式代價高昂,因為社會已習慣現(xiàn)有工具。挑戰(zhàn)在于,不僅要構建前所未有的硬件(吸引人、輕便、價格合理),還要解決如何自然使用的問題。AI比預期更早地到來,成為解決交互問題的巨大機遇和順風車,它能更好地理解模糊意圖和上下文(視覺、聽覺、環(huán)境),盡管將其轉化為可靠的控制界面仍需努力。我們現(xiàn)在面臨的局面是,硬件和交互設計兩座大山,后者因AI的出現(xiàn)而有了更強的助力。
以現(xiàn)實實驗室的產(chǎn)品為例,Ray-Ban Meta智能眼鏡最初并非AI眼鏡,但在Lambda 3問世后,團隊迅速增加了AI功能,實現(xiàn)了通過眼鏡提問、甚至啟動Live AI(實時看到用戶所見)等更豐富的交互。這表明硬件變化不大,但交互潛力巨大提升。而Orion這樣的全功能AR眼鏡則描繪了一個后手機時代:若設備足夠好(吸引人、輕便、續(xù)航長),它將整合一切所需。結合AI能力,用戶可與物理世界互動(如看食材問菜譜)。最初Orion也設想了類似手機的應用模式,但現(xiàn)在更令人興奮的是疊加一個理解設備信息和物理環(huán)境的交互式助手,甚至能基于用戶狀態(tài)(如會議間隙的無聊)主動推薦內(nèi)容。
然而,硬件和成本問題依然嚴峻。手機在生活中已根深蒂固,整個世界都已適應它,要取代它極其困難,“刺殺國王”需一擊必中。十年愿景相對清晰,屆時相關設備可能普及;五年內(nèi)撼動手機地位則幾乎不可能。Orion首次讓人覺得超越手機的生活方式并非不可能,但用戶對現(xiàn)有操作系統(tǒng)和應用的熟悉感是巨大障礙。過渡期可能需要依賴手機,這既是優(yōu)勢(龐大生態(tài)系統(tǒng))也是劣勢(現(xiàn)有應用模式可能不適應新交互,成為拖累)。開發(fā)者生態(tài)是關鍵,但將手機應用直接投射到空間并用手勢操作,精度低且不適應語音,這與早期移動開發(fā)照搬網(wǎng)頁內(nèi)容的失敗類似。
未來幾年AI的發(fā)展可能顛覆以應用程序為中心的模式。用戶可能不再需要先選擇應用(如Spotify)再執(zhí)行意圖(聽音樂),而是直接向AI表達意圖(播放某音樂),由AI處理后續(xù)的編排(選擇服務、處理付費等)。這并非僅限于可穿戴設備,甚至手機交互也可能改變。從頭構建,或許不會再造一個讓消費者先選供應商的應用世界。雖然編排能力尚有距離,且建立開發(fā)者生態(tài)極其困難,但這正是焦點所在。AI越強大,越能代理用戶完成任務。當用戶向AI求助而AI無法滿足時,就暴露了開發(fā)者的機會——大量的用戶需求(查詢流)等待被滿足。開發(fā)者可以構建解決方案接入AI,AI甚至可以處理付費環(huán)節(jié),這適用于應用乃至現(xiàn)實服務(如水電工)。這個市場將由用戶查詢流驅動,而非預先設計的應用平臺。
這種轉變將是混亂的,但前景誘人。它可能削弱許多公司的品牌價值(用戶只關心結果,不在乎哪個服務商),給依賴品牌的一代公司帶來挑戰(zhàn)。這使得AI提供商的信任度至關重要,需避免其為利益犧牲用戶體驗。這類似于Web搜索早期,查詢流決定了哪些業(yè)務(如旅游)率先被顛覆和重塑,后來則演變成SEO游戲。AI領域也可能經(jīng)歷類似過程:黃金時代由查詢流驅動創(chuàng)新解決用戶痛點,隨后可能進入爭勝和衰敗的階段。商業(yè)模式將驅動其演變。
在開源方面,Meta的Llama模型源于其基礎研究小組FAIR,該小組自始便信奉開源,認為跨界合作能帶來更大進步。Llama 2的開源基于兩個信念:一是開放能加速集體進步(貢獻來自大小實驗室);二是AI模型將成為商品,而Meta應商品化其互補品。AI能提升Meta產(chǎn)品的性能(如推薦系統(tǒng)、搜索),開放模型有助于整個行業(yè)(包括初創(chuàng)企業(yè)和學術界)發(fā)展,進而讓作為應用提供商的Meta受益。這是社會進步與商業(yè)模式的完美契合。
實現(xiàn)這一整體愿景面臨多重風險。存在真正的發(fā)明風險,即我們可能尚無能力制造所需技術,盡管Orion的演示表明類似技術是可行的,但成本和材料仍是挑戰(zhàn)。更大的風險在于社會采納,人們是否愿意接受并學習新的交互模式?生態(tài)系統(tǒng)風險也很大,開發(fā)者是否會為新平臺構建足夠豐富的應用?AI可能通過成為主要界面來緩解此風險。目前開發(fā)者對相關平臺的興趣超出預期。此外,還存在巨大的監(jiān)管、隱私和社會可接受性挑戰(zhàn),尤其對于永遠在線、具有超人感知能力的設備,這可能讓整個進程脫軌。技術并非注定成功,需要持續(xù)投入和信念。Meta與其他公司的區(qū)別在于真正的信念——相信這是下一次計算平臺的變革,并致力于推動它發(fā)生,盡管深知其難度和失敗的可能。這并非一代人一遇,而是幾代人才有的機遇,不能錯過。
? ? ? ? ?
? 2025 Web3天空之城 - 高質(zhì)量內(nèi)容匯總
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.