快節奏的 AI 領域從不缺乏頭條新聞。例如,去年 11 月,Cerebras 宣稱他們制造了世界上最快的 AI 推理芯片。今年 4 月,OpenAI 推出了其稱為全新“巨型”且“昂貴”的模型,該模型“讓人感覺仿佛在與一位深思熟慮的人對話”。
然而,在這些喧囂的表象下,企業團隊內部正發生著某種變化。
當許多 CEO 紛紛大談經過精細調試的助手、多模態奇跡和巨資投資時,那些常常深陷在 AI 真正生死攸關的數據戰場中的工程師,卻在觀察著他們的儀表板亮起異常信號:查詢時間飆升、數據管道堵塞、模型停滯。
生成式 AI 的熱潮引發了一場擴展更大模型的競賽,其中 OpenAI CEO Sam Altman 是最為直言不諱的擁護者。然而,在這股炒作浪潮中,潛藏的數據分析瓶頸正在削弱許多企業的 AI 目標。
大多數組織仍在努力理解龐大而混亂的數據集。盡管 GPU 已極大地加速了模型訓練,但數據準備 — 這一不太引人注目的確保輸入準確性的工作 — 仍然停留在以 CPU 為主的架構上,而這些架構從未為這種規模設計。
簡單地說,數據量的增長速度遠快于我們處理數據的能力。
正如 NeuroBlade 的 CEO 兼聯合創始人 Elad Sity 在一次采訪中指出的:“盡管業界長期以來依賴 CPU 進行數據準備,但它們已經成為瓶頸 — 消耗了 AI 流程中超過 30% 的資源。”
結果如何?數據管道運行緩慢,成本急劇上升,企業的 AI 目標與實際投資回報率之間的差距不斷擴大。
正如 Sity 所解釋的,這種壓力促使了思維方式的重大轉變,業內正積極尋求解決方案。他表示:“這正推動著一場靜默的革命,正在重塑數據分析 — 從依賴人工洞察轉向由 AI 模型消耗并基于不斷增長的數據集采取行動,從而加速數據采集和處理的循環。”
由 Sity 聯合創立的以色列半導體初創公司 NeuroBlade 認為,答案在于一種專為加速數據分析而設計的新型硬件。他們的 Analytics Accelerator 不僅僅是一塊更快的 CPU — 而是一種根本不同的架構,專門用于處理現代數據庫工作負載。
但它能否實質性地重塑企業 AI 的經濟模式呢?
數據準備為何拖慢了 AI 的發展 企業正在發現,AI 的瓶頸并不總是出現在模型上,而是在上游的數據本身。正如 Pragmatic Institute 的一份報告顯示的那樣:“數據從業者將 80% 的寶貴時間花在尋找、清洗和組織數據上。”
雖然對數據科學家在清洗和準備數據上所花時間的估計各不相同,但業界共識十分明確:數據科學家在數據準備上投入的時間遠遠超過分析和建模。
數據準備工作包括提取、轉換和聯結大量結構化和半結構化數據,而這些數據常常分布在龐大的 lakehouse 環境中。這構成了問題,因為大部分工作仍然依賴通用型 CPU 運作。
根據 AMD 的數據,當前市場大約支持 200 萬個 CPU 插槽用于數據分析工作負載,預計到 2027 年這一數字將增至 400-500 萬。這實在是大量通用硬件在支撐著那些并非為 PB 級規模運行而設計的查詢。
正如 Sity 所解釋的:“企業在傳統 CPU 擴展方面已經遇到了瓶頸。我們看到超大規模數據中心和云服務提供商每年花費數十億美元僅僅為了維護其數據分析基礎設施,但回報卻趨于平緩。”
增加更多的 CPU 只能帶來有限的提升,因為擴展集群會呈指數級增加節點之間的通信開銷 — 這會引發性能、功耗和成本的障礙。在某個臨界點之后,成本(包括硬件、能源和數據中心場地費用)開始超過性能收益。這種情況在對延遲十分敏感且陳舊數據會降低模型準確度的 AI 環境中尤為嚴重。
專用數據分析處理器的崛起 NeuroBlade 的 Accelerator 大幅提升性能并縮短查詢時間,從而釋放數據分析平臺的全部潛力。通過將操作從 CPU 卸載到專用硬件上 — 這一過程稱為 pushdown — 它提升了每臺服務器的計算能力,使得比起僅依賴 CPU 的部署,使用更小規模的集群也能更快速地處理大規模數據集。
正如 Sity 指出的:“通用型 CPU 無法足夠迅速地擴展以應對不斷增長的性能需求和數據量,這迫使組織不得不擴大集群規模。”
“專用硬件通過提升每臺服務器在數據分析上的計算能力,減少了對大型集群的依賴,并有助于避免諸如網絡開銷、功率限制和操作復雜性等瓶頸。”
在 TPC-H 基準測試 ( 用于評估決策支持系統的標準 ) 中,Sity 指出 NeuroBlade 的 Accelerator 其性能約比領先的向量化 CPU 實現 ( 例如 Presto-Velox ) 快 4 倍左右。
NeuroBlade 的主張是,通過將數據分析任務從 CPU 卸載至專用硅芯片,企業可以通過更少的基礎設施獲得更優的性能 — 從而一步到位地降低成本、能耗和復雜性。
云服務商也開始關注 這種轉變并非孤立發生。NeuroBlade 已與 Amazon Web Services 緊密合作,將其 Analytics Accelerator 集成到 AWS EC2 F2 實例中,使云端客戶也能使用這一產品 — 尤其適用于金融數據分析或 AI 模型更新等領域。
Sity 告訴我:“這種朝著定制數據分析處理方向的轉變,與我們曾見證 GPU 在 AI 中的崛起非常相似。首先是超大規模數據中心先行跟進,然后更廣泛的市場便會隨之而來。”
主要的半導體廠商也在紛紛涉足這一領域。隨著 Nvidia 在 AI 加速器市場的統治地位不斷加強,像 Intel 和 AMD 等公司正尋求在相關計算領域站穩腳跟。這意味著,專用數據分析硬件可能成為下一個重要的 AI 競爭戰場。
AI 與數據分析的融合 不久之前,AI 和數據分析分別運行在不同的系統上。但如今,多虧稱為 data lakehouse 的平臺,公司可以利用單一數據源同時支持儀表板和機器學習模型。
盡管這種設置可以提高效率,但也帶來了新的風險。如果 lakehouse 中的數據混亂或過時,可能會拖慢一切進程 — 從業務報告到 AI 性能均受影響。
傳統的商業智能工具是為人工操作而構建,并且通常按照預定時間表運行。而 AI 系統則始終在線,需要持續不斷的數據 — 實時、大規模的數據。
這就是為何加快數據準備和處理速度不再是可有可無的選擇,而是保持模型新鮮、洞察力相關以及決策迅速的關鍵所在。
Sity 解釋道:“通過減少數據準備和查詢所需的時間,企業能夠更頻繁地更新模型,縮短反饋周期,并促進更好的實時決策,特別是在金融、網絡安全、醫療保健等高風險行業。”
重新思考數據分析基礎設施 需要明確的是,數據分析加速市場仍處于初期階段。因此,其普及可能還需要時間。企業在核心基礎設施上的決策往往較為緩慢,而且更換硅芯片從來都不簡單。但跡象已經初現:大型云集成、令人鼓舞的基準測試以及越來越多的共識,即 AI 的真正價值不僅取決于模型規模,還取決于你如何高效地移動和理解數據。
Sity 指出:“我們正處于專用計算新紀元的開端。正如 GPU 通過提供專為神經網絡設計的硬件而改變了 AI 一樣,數據分析處理器將通過解決查詢執行中的特定瓶頸來變革我們處理數據的方式。”
對于那些在將 AI 投資轉化為實際投資回報上苦苦掙扎的組織來說,解決數據分析瓶頸或許是第一個真正的突破口。未來的 AI 勝利不僅僅取決于更大的模型 — 而在于你能多高效地將正確的數據傳遞給它們。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.