menu-icon
anue logo
澳洲房產鉅亨號鉅亨買幣
search icon
科技

谷歌機器學習獲重大突破 圍棋程序將大戰李世石

鉅亨網新聞中心 2016-01-28 09:40

新浪科技訊 1月28日上午消息,谷歌今日召開全球電話會議,旗下Deep MInd創始人戴密斯·哈薩比斯(Demis Hassabis)宣佈了谷歌在人工智能領域的重要進展:開發出一款能夠在圍棋中擊敗職業選手的程序——AlphaGo,后者能夠通過機器學習的方式掌握比賽技巧。

計算機和人類競賽在棋類比賽中已不罕見,在三子棋、跳棋和國際象棋等棋類上,計算機都先后完成了對人類的挑戰。但對擁有2500多年曆史的圍棋而言,計算機在此之前從未戰勝過人類。圍棋看起來棋盤簡單、規則不難。棋盤縱橫各19九條等距離、垂直交叉的平行,共構成19×19(361)個交叉點。比賽雙方交替落子,目的是在棋盤上佔據盡可能大的空間。

在極簡主義的游戲表象之下,圍棋具有令人難以置信的深度和微妙之處。當棋盤為空時,先手擁有361個可選方案。在游戲進行當中,它擁有遠比國際象棋更多的選擇空間,這也是為什麼人工智能、機器學習的研發者們始終希望在此取得突破的原因。

就機器學習的角度而言,圍棋的計算最大有3^361 種局面,大致的體量是10^170,而已經觀測到的宇宙中,原子的數量才10^80。國際象棋最大只有2^155種局面,稱為香農數,大致是10^47。

傳統的人工智能方法是將所有可能的走法構建成一棵搜索樹 ,但這種方法對圍棋並不適用。此次谷歌推出的AlphaGo,將高級搜索樹與深度神經網絡結合在一起。這些神經網絡通過12個處理層傳遞對棋盤的描述,處理層則包含數百萬個類似於神經的連接點。

其中一個神經網絡“決策網絡”(policy network)負責選擇下一步走法,另一個神經網絡“值網絡”(“value network)則預測比賽勝利方。谷歌方面用人類圍棋高手的三千萬步圍棋走法訓練神經網絡,與此同時,AlphaGo也自行研究新戰略,在它的神經網絡之間運行了數千局圍棋,利用反復試驗調整連接點,這個流程也稱為鞏固學習(reinforcement learning)。通過廣泛使用Google雲平台,完成了大量研究工作。

征服圍棋對於谷歌來有重要意義。AlphaGo不僅是遵循人工規則的“專家”系統,它還通過“機器學習”自行掌握如何贏得圍棋比賽。谷歌方面希望運用這些技術解決現實社會最嚴峻、最緊迫的問題——從氣候建模到複雜的災難分析。

在具體的機器訓練上,決策網絡的方式是輸入人類圍棋專家的比賽,到系統可以預測57%人類行動為止,此前最好成績是44%。此后AlphaGo通過在神經網絡內部進行比賽的方式(可以簡單理解成和自己下棋),開始學習自主探索新的圍棋策略。目前AlphaGo的決策網絡可以擊敗大多數具有龐大搜尋樹的最先進的圍棋程序。

值網絡也是通過自己和自己下棋的方式來訓練。目前值網絡可以評估每一步棋能夠有多大勝算。這在此前被認為是不可能的。

實際上,目前AlphaGo已經成為最優秀的人工智能圍棋程序。在與其他程序的對弈中,AlphaGo用一台機器就取得了500場的勝利,甚至有過讓對手4手后獲勝的紀錄。去年10月5日-10月9日,谷歌安排AlphaGo與歐洲圍棋冠軍Fan Hui(樊麾:法國國家圍棋隊總教練)閉門比賽,谷歌以5-0取勝。

公開的比賽將在今年三月舉行,AlphaGo將在韓國首爾與韓國圍棋選手李世石九段一決高下,李世石是近10年來獲得世界第一頭銜最多的棋手,谷歌為此提供了100萬美元作為獎金。李世石表示很期待此次對決,並且有信心獲得勝利。

值得一提的是,上一次著名的人機對弈要追溯到1997年。當時IBM公司研發的超級計算機“深藍”戰勝了國際象棋冠軍卡斯巴羅夫。不過國際象棋的算法要比圍棋簡單得多。國際象棋中取勝只需“殺死”國王,而圍棋中則用數子或比目的方法計算勝負,並不是簡單地殺死對方棋子。此前,“深藍”計算機的設計人2007年發表文章指出,他相信十年內能有超級電腦在圍棋上戰勝人類。

此外,AlphaGo的發布,也是Deep MInd在2014年1月被谷歌收購以來首次發聲。在被收購之前,這家位於倫敦的人工智能領域的公司還獲得了特斯拉和SpaceX創始人馬斯克的投資。(李根 周峰 邊策)






Empty