摘要:Google AI主導了一場逆襲
作者丨鯨哥
對于Google來說,作為Transformer等核心技術的發明者,在“AI 4巨頭”的討論中沒有它,是一件很尷尬的事情。
這讓其一直憋著一口氣,決心證明自己。最近Google的系列更新就頗具看點:
發布開源模型 Gemma 3,性能超越DeepSeek V3、o3mini為全球第二強開源模型,但是模型大小僅為7B。
發布Gemini 2.0 Flash Experimental,動動嘴就能PS的AI文生圖產品。不僅如此,對指令理解也相當到位,能連續生成一致性圖片,并評為AI生圖的GPT時刻,這幾天在 傳瘋了。
Deep Research開放免費使用,背后是2.0 Flash Thinking Experimental 提升推理能力并擴展上下文窗口。
還有新一代 機器人 AI 模型Gemini Robotics ,對物理世界更懂了。
國外有網友評價Google這次更新,是幾乎每項到了最佳:
到底有沒有這么強呢,鯨哥認為是大差不差,有驚喜,也有吹噓。
先說這次最被熱議的更新—Gemini 2.0 Flash Experimental。 原生圖像生成功能上線,說話就能PS照片的夢想實現。通過聊天任意編輯圖像的局部或者全部,有點類似Adobe firefly 版本。
我們用英偉達CEO黃仁勛此前發布會的圖片,來試試是否可以隨意PS。
我們先要求換背景,讓黃仁勛在直播間中帶貨。這個難度不大,是不是摳圖也不好說。
“321上鏈接”,5090顯卡刀法精準,直接賣爆了,我們讓黃仁勛開心地笑起來。看得出來表情有些崩,但整體還是做到了AI改變人物表情。
再要求把臉從黃仁勛換成馬斯克,這個挺順暢完成了,馬斯克的臉部還挺逼真,表情也比較自然。一個小細節,攝像機上手機屏幕中的人物也跟著換成了馬斯克。
還有一個這兩天大家很愛玩的功能,就是這個合成圖片的功能,熊的視角略微有一些轉向,但是合成圖片中還原的還不錯。
很多人會質疑這個功能有什么用,國外有小伙,利用gemini-2.0 新推出的圖片編輯 API,連夜肝了個工具,實現白底圖到產品實拍圖的批量自動化生成。
他是這樣評價這個產品:“效果炸裂,特別是對產品的特征保留的很好,相比 ComfyUI 工作流調個半死,這不強多了。”
當然它還能給線稿上色,鯨哥生成了“猿力崛起”類似的圖片。生成效果確實還沒有Midjourney強,但是能力很連貫,這是生成式AI的體現,這是預言挑戰畫家的顛覆性一步。
Gemini-2.0不僅改圖能力強,還能生成連續性的圖片故事集,效果也不錯。以下是鯨哥測試的成果。
“生成一個關于爆炒羊雜教程系列圖片。對于每個場景,生成一個圖像和一段介紹文字。”Google生成的教程顯示有點長,我在排版時用SVG動畫顯示了,大家點擊下方即可查看。
羊雜切碎,調好備料 最關鍵是羊雜焯水
羊雜切碎,調好備料 最關鍵是羊雜焯水
放油,先炒調料 再加入羊雜爆炒
放油,先炒調料 再加入羊雜爆炒
放入蔬菜,炒至斷生 加入勾芡,炒熟裝盤
放入蔬菜,炒至斷生 加入勾芡,炒熟裝盤
感謝Google,終于知道中午做的爆炒羊雜為啥不好吃了,原來沒有先把羊雜焯水(直男落淚)。
此前的 2 月,Google Veo 2 已通過 Freepik 發布了圖像轉視頻功能,現在與2.0 Flash有很好的結合了。
這個視頻是JP博主制作,用一張AI生成的美女和商品圖結合,先是生成了帶貨圖片,然后轉成了視頻,神奇的是視頻中飲料的商標都沒有變,目前在上很火。
最后再講一個很有用的東西,應該比以上視覺工具更加落地。
是不是大家仍沒有Manus邀請碼,感覺也不用苦苦等待了。Google deep Research 現在可以免費使用,由 2.0 Flash Thinking模型提供支持,而且可以展示研究過程(chain of research),甚至支持鏈接你的搜索記錄對 Gemini 進行個性化設置。
這是我做的“中國視頻類科技商業博主起號及爆款”研究專題,要求生成30頁以內的PPT報告。
還能根據這份報告繼續提問,我問了下最適合普通人學習的博主是誰,回答結果如下,額,不知道大家怎么看這個結果。
Deep Research能羅列Researching websites,這樣你可以清楚看到引用的哪些網站內容,靠不靠譜。同時這也是Google deep Research 的優勢,搜索內容的廣度上要比OpenAI 大很多,甚至能索引 YouTube 內容。
最重要的是,它輸入框底下有行字,“Gemini can make mistakes, so double-check it”,避免出錯進行了雙倍檢查。這就極大避免了幻覺率,確保提供的信息,一定范圍內的準確性。
當然問題也有,就是這個產品不太Agent,讓生成PPT最終沒有生成,估計是因為調用不了其他工具。我體驗導出報告,調用Chrome文檔也不流暢。以后使用MCP協議估計效果會更好。
在基礎語言模型方面,最大的更新是發布最新開源模型 Gemma 3 。
最大僅為27B,性能超越DeepSeek V3、o3mini,為全球第二強開源模型,僅次于DeepSeek R1,但是模型小很多,達到差不多的性能。
其他幾個模型分別為 1B、4B、12B 和 27B,微型模型意味著可在手機、電腦上跑。
雖然模型小,但是各方面能力都具備。比如增強文本和視覺能力,可理解文本、圖片、短視頻。 支持128K上下文窗口 ,支持函數調用,支持AI 代理開發,自動執行任務。
不僅是通用LLM模型更新,Google還在具身智能領域做了很大的改進。
Google DeepMind 推出基于 Gemini 2.0 研發的新一代 機器人 AI 模型Gemini Robotics 。
首先是具備泛化能力:Gemini Robotics利用Gemini 2.0的世界理解能力,機器人能夠處理未見過的新物體、新指令和新環境,甚至完成訓練中未見過的新任務。
在綜合泛化基準測試中,Gemini Robotics的性能比其他最先進的VLA模型高出一倍以上。
例如,它能完成未訓練過的任務,如扣籃一個新籃球。-
其次是交互性:它能理解日常語言指令(包括不同語言),并快速響應環境或指令的變化。例如,當物體被移動時,它能迅速重新規劃行動路徑,無需額外輸入即可繼續任務。
然后還具有靈活性與靈巧性:通過多模態推理(結合視覺、語言和動作),機器人能精確操控物體,完成多步驟任務。支持執行需要精細動作的復雜任務,如折疊紙鶴、將零食裝進拉鏈袋或輕柔放置眼鏡。
要知道,一開始,Google在大模型這波生成式AI浪潮中確實落后了。通過這兩年的蟄伏,Google還是證明了其技術儲備,完成了一場AI逆襲。
視頻內容推薦:
主理人交流:
加入AI鯨英社群,和上千CEO、資本和大牛一起共話未來!
Anthropic CEO最新預言:90%程序員的飯碗年內不保!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.