menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

科技

人機圍棋大戰首局落定:李世石投子認輸!

鉅亨網新聞中心 2016-03-09 17:32


新浪科技訊 北京時間3月9日下午消息,今天下午谷歌人工智能AlphaGo與韓國棋手李世石的第一場比賽結束,AlphaGo獲得今日比賽的勝利。雙方在較量3個半小時后,李世石宣佈認輸。今日比賽結束后,雙方還將分別在3月10日(周四)、12日(周六)、13日(周日)、15日 (周二)的北京時間中午12點進行剩餘4場比賽。

本次比賽用時每方2小時,1分鐘讀秒三次。比賽採用中國規則,黑貼3又3/4子(黑貼7目半)。採用中國規則是因Alpha GO以中國規則為基礎開發。


比賽採用5局3勝制,最終比賽獲勝方將獲得獎金100萬美元。如果AlphaGo獲勝,獎金將捐贈給聯合國兒童基金會(UNICEF),STEM教育,以及圍棋慈善機構(Go Charity)。

AlphaGo開發者DeepMind公司在今年1月的學術雜誌《Nature》刊登封面文章,展示了圍棋人工智能領域突破性進展的詳細情況。這次對弈中,坐在李世石對面正是《Nature》封面文章作者之一黃士傑(Aja Huang),他本人來代替AlphaGo在棋盤上落子。AlphaGo一方的旗幟是英國國旗,因為這次參賽的谷歌圍棋程序AlphaGo來自英國人工智能公司DeepMind。

谷歌AlphaGo在第一次與世界頂尖圍棋手的較量中取得勝利,這是人工智能發展史上重要的里程碑,代表人工智能已經能在諸如圍棋等高度複雜的項目中發揮出超過人類的作用。

一般來,現在的職業圍棋高手喜歡下白棋,但李世石有些出人意料地第一盤選擇了執黑先行。很快李世石給出了理由,黑棋佈局走出了一個新型,阿爾法的應對不佳,有些虧損。李世石顯然研究了電腦圍棋的理論,得出了電腦在佈局階段不太擅長應對新型的推論,棋局的進行證明了這一點,李世石有備而來。

不過圍棋決定勝負的往往是中盤階段,阿爾法似乎也“意識”到了自己形勢不佳,之后的下法選擇得非常強硬,雙方早早就展開了接觸戰。電腦的下法令觀戰的職業棋手目瞪口呆,几乎招招都是最佳應對。好在戰鬥也是李世石的強項,雙方就像武林高手,猛對幾掌,然后各自退了好幾步。

不過在第一個戰役結束之后,電腦的選擇令人費解。正常高手,對掌之后,總要運氣緩一下,然后再打,電腦的下法則是直接又撲上來了。過剛易折,這處的戰役,李世石抓住機會,圍住一塊大空。人族代表心裏有底了,電腦雖然在局部戰鬥表現出色,但在大局上似乎不如人類高瞻遠矚。

不過作為人類最大弱點是會受情緒波動的影響,取得優勢后,李世石的心態似乎發生了變化,右下角黑棋下得太過保守,白棋左右逢源,角部做活,大龍也及時補棋,黑棋一無所得,此前的優勢消失殆盡。各路講解的職業棋手判斷也出現了分歧,不過隨棋局進入官子階段,大家發現李世石其實敗局已定。

最終李世石投子認負,表情上看上去不是很痛苦,不知是不是找到了電腦的弱點?

谷歌為何要做人工智能圍棋程序AlphaGo

谷歌並不只是想做一個棋類程序,而是想做一個通用的智能計算系統。如果解決了圍棋問題,谷歌希望能把這套人工智能算法用於災害預測、風險控制、醫療健康和機器人等複雜領域。也就是谷歌的目的還是為了更好的服務人類,沒有任何惡意。DeepMind(AlphaGo的研究公司)創始人哈薩比斯:公對人工智能的警示掩蓋了人工智能帶來的幫助。距離人腦水平的人工智能仍然相當遙遠,可能還需要幾十年。

在昨天的賽前發布會上,谷歌董事長施密特表示,輸贏都是人類的勝利。因為正是人類的努力才讓人工智能有了現在的突破。

但並不是所有人都會對人工智能持樂觀態度。諸如特斯拉CEO馬斯克、理論物理學家霍金等科技界的名人就對此生了擔憂。

圍棋複雜度超過宇宙原子總數

圍棋棋盤橫豎各有19條,共有361個落子點,雙方交替落子,這意味圍棋總共可能有10^171(1后面有171個零)種可能性。這個數字到底有多大,你可能沒有感覺。我們可以告訴你,宇宙中的原子總數是10^80(1后面80個零),即使窮盡整個宇宙的物質也不能存下圍棋的所有可能性。

19年前,IBM公司的“深藍”計算機戰勝了國際象棋世界冠軍卡斯帕羅夫,引起了巨大轟動。但是因圍棋的複雜度,直到近期,人類才在圍棋人工智能項目上取得重大突破。

由於圍棋的可能性如此之多,根本就沒有什麼套路可言。下贏圍棋的唯一的辦法就是讓電腦也學會“學習”,而不是死記硬背。為了在圍棋上戰勝人類,硅谷的兩家科技公司——Facebook和谷歌開始研究,希望有朝一日能讓計算機戰勝人類圍棋冠軍。

李世石簡介

李世石是李昌鎬之后,韓國最具代表性的棋手,他在2003年獲第16屆富士通杯冠軍后升為九段棋手。自2002年加冕富士通杯以來,十年時間裏他共獲18個世界冠軍。李世石屬於典型的力戰型棋風,善於敏地抓住對手的弱處主動出擊,以強大的力量擊垮對手,他的攻擊可以用“穩,準,狠”來形容,經常能在劣勢下完成逆轉。

AlphaGo去年10月擊敗歐洲冠軍

谷歌曾於2014年以4億歐元收購人工智能公司DeepMind。由DeepMind研發的AlphaGo項目已有兩年曆史,AlphaGo曾在去年戰勝了歐洲圍棋冠軍樊麾(職業二段)。

去年10月5日-10月9日,谷歌AlphaGo在比賽中以5:0的比分完勝了歐洲冠軍。除了戰勝人類外,AlphaGo還與其他的圍棋程序對戰,獲得了500場勝利。

AlphaGo原理簡介

傳統的人工智能方法是將所有可能的走法構建成一棵搜索樹 ,但這種方法對圍棋並不適用。此次谷歌推出的AlphaGo,將高級搜索樹與深度神經網絡結合在一起。這些神經網絡通過12個處理層傳遞對棋盤的描述,處理層則包含數百萬個類似於神經的連接點。

其中一個神經網絡“決策網絡”(policy network)負責選擇下一步走法,另一個神經網絡“值網絡”(“value network)則預測比賽勝利方。谷歌方面用人類圍棋高手的三千萬步圍棋走法訓練神經網絡,與此同時,AlphaGo也自行研究新戰略,在它的神經網絡 之間運行了數千局圍棋,利用反復試驗調整連接點,這個流程也稱為鞏固學習(reinforcement learning)。通過廣泛使用Google雲平台,完成了大量研究工作。

AlphaGo在與人的對弈中用了“兩個大腦”來解決問題:“決策網絡”和“值網絡”。通俗來就是,一個大腦用來決策當前應該如何落子,另一個大腦來預測比賽最終的勝利方。

值得一提的是,李世石也是第一次與機器對戰,所以他無法像和人類對戰那樣,先研究對方的棋譜和下棋風格。李世石所能做的就是和自己對弈。谷歌AlphaGo也是通過這種方式鍛煉自己,真正做到了“人工智能”。(邊策 周游)

文章標籤


Empty