大數據文摘出品
一場 ChatGPT 對戰 Atari 2600 的象棋對局火了。
具體而言,在一場看似輕松的“AI玩具對決”里,ChatGPT輸給了Atari 2600 的象棋引擎,對手只是一臺48年前、頻率1.19 MHz的8位主機。
起初,這只是Robert Jr. Caruso的一次懷舊實驗。這位基礎架構工程師,平時和自動化、虛擬化、云計算打交道。某天,他和ChatGPT聊起象棋AI,從Stockfish講到AlphaZero,模型興致高漲,主動提出要挑戰Atari 2600上的《Video Chess》。
這款游戲發布于1979年,只有最基礎的規則判斷和1-2步深度搜索。當Caruso把棋盤和規則輸入后,ChatGPT信心滿滿:“這應該很快就能贏?!?/p>
然而,整場對局卻變成了一場鬧劇。GPT認錯棋子,把車當象,錯失雙兵叉,甚至連哪些棋子已經被吃掉都記不住。它時常建議“犧牲騎士去換兵”,還不斷要求“從頭再來”,好像換一次初始局面就能擺脫混亂。
Caruso陪它下了整整90分鐘,每一步都要人工幫它“回憶”局面。最終,GPT主動認輸,“低下了頭”,結束了這場令人啼笑皆非的對局。
Caruso在領英中表達:“它犯的錯,能讓你在小學三年級的象棋社被嘲笑一整學期?!?/p>
技術盲點:LLM 不會“記住棋盤”
為什么 GPT 會輸?因為它不是為這類任務設計的。
GPT 屬于語言模型,它通過分析大量文本,學習詞語、句子、段落之間的相關性,并基于“概率”決定接下來的輸出。這種機制在對話、寫作中極其強大——但在棋局這類離散系統中,問題變成了“狀態跟蹤”。
在象棋這類游戲里,狀態清晰、規則嚴格:64 個格子、32 個棋子,輪流行動,沒有容錯空間。每一手棋都對結果至關重要。
而 GPT 每次“發言”都是基于之前的“語言提示”,并沒有“內部記憶”去追蹤棋盤狀態。即使外部工程實現了記憶機制,它也會在多個回合后“混淆上下文”。這是因為它沒有專門為棋類構建的“狀態表達結構”,不像 Stockfish 那樣有明確定義的棋盤類、規則引擎、搜索深度控制。
有網友評論說:“你拿一個聊天機器人去玩象棋,就像用千斤頂修車?!?/p>
也有網友認為:語言模型捕捉的是序列概率,不擅長高度組合性的任務。
因此,AI 是否真的“懂得”某件事?如果它不能維持一個棋盤狀態,它是否能在更復雜的現實場景中保持一致邏輯?例如:自動駕駛的決策路徑、金融模型的風控評估、甚至是多輪對話中的情緒識別。
在 GPT 輸給 Atari Chess 的那 90 分鐘里,暴露的不只是一個模型的短板,也讓我們重新思考:我們理解的“AI 能力”,是否已經被包裝過度?
作者長期關注 AI 產業與學術,歡迎對這些方向感興趣的朋友添加微信Q1yezi,共同交流行業動態與技術趨勢!
GPU算力按需租用
A100/H100 GPU算力按需租用,
秒級計費,平均節省開支30%以上!
掃碼了解詳情?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.