DeepMind近期在國際象棋AI領域取得了新的突破,其訓練的Transformer模型在不需要搜索算法的情況下,實現(xiàn)了大師級的下棋水平。這一成果在學術界引起了廣泛討論,并推動了相關數(shù)據(jù)集和代碼的開源。
該研究最初由一位網(wǎng)友分享,引發(fā)了關于Transformer是否能進行邏輯推理的爭論。有網(wǎng)友認為這顯示了Transformer的推理和規(guī)劃能力,但也有人反駁稱,這只是模式匹配,而非真正的推理。
田淵棟指出,Transformer模型在閃電戰(zhàn)模式下的表現(xiàn)更多依賴于直覺和戰(zhàn)術反應,而非深度搜索和規(guī)劃。他認為,模型雖然Elo分數(shù)高,但未能展示出超越訓練數(shù)據(jù)的能力。
顧全全則解釋道,推理的核心在于蘊涵,而Transformer實現(xiàn)推理的關鍵在于學習推理規(guī)則。他認為,DeepMind的研究展示了Transformer學習推理規(guī)則的潛力,但仍需要更多理論研究來確認其能否像人類一樣推理。
此次研究不僅限于技術本身,還引發(fā)了關于將概率算法提煉成神經(jīng)模型的通用方法的討論。有網(wǎng)友認為這是一個重要突破,但也有學者指出模型在泛化能力上的局限性。
DeepMind于10月21日更新了論文,并推出了名為ChessBench的大規(guī)模數(shù)據(jù)集,包含1000萬個國際象棋局面及其走法與價值注釋。研究團隊還開源了數(shù)據(jù)集、模型權重以及所有訓練和評估代碼。
對于DeepMind重回棋局研究的原因,有觀點認為,這是AI大模型重做現(xiàn)有應用的一個實例,旨在進一步挖掘商業(yè)價值并提升用戶體驗。
該研究對輕量化模型的發(fā)展具有重要意義。270M參數(shù)的Transformer模型不僅能在移動設備上順暢運行,還展示了小模型在滿足業(yè)務需求方面的潛力。
這項研究還引發(fā)了一個哲學問題:AI是否正在向“直覺型思維”邁進?盡管AI的策略來自對大量數(shù)據(jù)的學習,與人類的“下意識反應”存在本質區(qū)別,但這種模擬行為為AI如何在復雜環(huán)境中進行推理提供了新的思路。