據外媒報道,英國DeepMind團隊的人工智能研究取得了新進展:他們開發(fā)出了新一代的圍棋AI-ALphaGo Zero。使用了強化學習技術的ALphaGo Zero,棋力大幅度增長,可輕松擊敗曾經戰(zhàn)勝柯潔、李世石的ALphaGo。
戰(zhàn)勝柯潔之后,ALphaGo可以說在圍棋界里已是“獨孤求敗”的境界了,幾乎沒有人類是它的對手。但是這并不代表ALphaGo就已經對圍棋領域的認知達到了頂峰。因此,ALphaGo想要再上一層樓追求圍棋知識的上限,顯然只有它自己能成為自己的老師。
而在過去,AlphaGo都是使用業(yè)余和專業(yè)人類棋手的對局數據來進行訓練。雖然使用人類棋手的數據可以讓ALphaGo學習到人類的圍棋技巧,但是人類專家的數據通常難以獲得且很昂貴,加上人類并不是機器,難免會出現失誤情況,失誤產生的數據則可能降低ALphaGo的棋力。因此,ALphaGo Zero采用了強化學習技術,從隨即對局開始,不依靠任何人類專家的對局數據或者人工監(jiān)管,而是讓其通過自我對弈來提升棋藝。
那么到底什么是強化學習技術呢?簡單地說,強化學習就是讓AI從中學習到能夠獲得最大回報的策略。AlphaGo Zero的強化學習主要包含兩個部分,蒙特卡洛樹搜索算法與神經網絡算法。在這兩種算法中,神經網絡算法可根據當前棋面形勢給出落子方案,以及預測當前形勢下哪一方的贏面較大;蒙特卡洛樹搜索算法則可以看成是一個對于當前落子步法的評價和改進工具,它能夠模擬出AlphaGo Zero將棋子落在哪些地方可以獲得更高的勝率。假如AlphaGoZero的神經網絡算法計算出的落子方案與蒙特卡洛樹搜索算法輸出的結果越接近,則勝率越大,即回報越高。因此,每落一顆子,AlphaGo Zero都要優(yōu)化神經網絡算法中的參數,使其計算出的落子方案更接近蒙特卡洛樹搜索算法的結果,同時盡量減少勝者預測的偏差。
AlphaGo Zero的自我強化學習,圖片源自Nature
剛開始,AlphaGoZero的神經網絡完全不懂圍棋,只能盲目落子。但經歷無數盤“左右互搏”般的對局后,AlphaGo Zero終于從從圍棋菜鳥成長為了棋神般的存在。
DeepMind團隊表示,他們發(fā)現AlphaGo Zero自我對弈僅幾十天,就掌握了人類幾百年來來研究出來的圍棋技術。由于整個對弈過程沒有采用人類的數據,因此ALphaGo Zero的棋路獨特,不再拘泥于人類現有的圍棋理論,
DeepMind團隊還表示,這個項目不僅僅是為了獲得對圍棋更深的認識,AlphaGoZero向人們展示了即使不用人類的數據,人工智能也能夠取得進步。最終這些技術進展應該被用于解決現實問題,如蛋白質折疊或者新材料設計。這將會增進人類的認知,從而改善每個人的生活。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )