AAAI 2022大獎出爐:中科院德州撲克程序AlphaHoldem獲卓越論文獎
近日,人工智能國際頂會AAAI 2022 正在召開,大會論文獎也陸續公佈。AI科技評論獲知,中國科學院自動化所的興軍亮教授團隊獲得AAAI 2022 的卓越論文獎(Distinguished Paper)!AAAI 的英文全稱是“Association for the Advance of Artificial Intelligence”(美國人工智能協會)。該協會是人工智能領域的主要學術組織之一,具有一定的學術權威性。
興軍亮團隊此次獲獎的工作是他們所開發的輕量型德州撲克AI 程序——AlphaHoldem。據介紹,該系統的決策速度較DeepStack 的速度提升超1000倍,與高水平德州撲克選手對抗的結果表明其已經達到了人類專業玩家水平。
- 論文名稱:《AlphaHoldem: High-Performance Artificial Intelligence for Heads-Up No-Limit Poker via End-to-End Reinforcement Learning》
- 作者團隊:趙恩民,閆仁業,李金秋,李凱,興軍亮
德州撲克AI的意義
與圍棋任務相比,德州撲克是一項更能考驗基於信息不完備導致對手不確定的智能博弈技術。
德州撲克是國際上最為流行的撲克遊戲,由於最早起源於20世紀初美國德克薩斯州而得名。
德州撲克的規則是使用去掉王牌的一副撲克牌,共52張牌,至少2人參與,至多22人,一般參與人數為兩人和十人之間。
遊戲開始時,首先為每個玩家發兩張私有牌作為各自的“底牌”,隨後將五張公共牌依次按三張、一張、一張朝上發出。在發完兩張私有牌、三張共有牌、第四張公共牌、第五張公共牌後玩家都可以多次無限制押注,這四輪押注分別稱為“翻牌前”、“翻牌”、“轉牌”、“河牌”。圖1展示了一場德州撲克遊戲的完整流程示意。
圖1:兩人無限注德州撲克一次遊戲過程示意
經過四輪押注之後,若仍不能分出勝負,遊戲進入“攤牌”階段,所有玩家亮出各自底牌並與公共牌組合成五張牌,成牌最大者獲勝。圖2給出了德州撲克不同組合的牌型解釋和大小。
圖2:德州撲克不同牌型大小說明和比較
德州撲克博弈的問題複雜度很大,兩人無限注德州撲克的決策空間複雜度超過10的161次方;其次,德州撲克博弈過程屬於典型的回合製動態博弈過程,遊戲參與者每一步決策都依賴於上一步的決策結果,同時對後面的決策步驟產生影響;另外,德州撲克博弈屬於典型的不完美信息博弈,博弈過程中玩家各自底牌信息不公開使得每個玩家信息都不完備,玩家在每一步決策時都要充分考慮對手的各種可能情況,這就涉及到對手行為與心理建模、欺詐與反欺詐等諸多問題。
研究者認為,由於德州撲克遊戲規則又非常簡單且邊界確定,特別適合作為一個虛擬實驗環境對博弈的相關基礎理論方法和核心技術算法進行深入探究。
近年來,國際研究者在德州撲克這一大規模不完美信息博弈問題的優化求解中也取得了長足進步。
比如,之前加拿大阿爾伯特大學和美國卡內基梅隆大學的研究者就設計出AI 程序DeepStack 和Libratus,並先後在兩人無限注德州撲克中均戰勝了人類專業選手,隨後卡內基梅隆大學設計的Pluribus 又在六人無限注德州撲克中戰勝了人類專業選手。
但目前主流德州撲克AI背後的核心思想是利用反事實遺憾最小化(Counterfactual Regret Minimization, CFR)算法逼近納什均衡策略。
具體來說,首先利用抽象(Abstraction)技術[3][7]壓縮德撲的狀態和動作空間,從而減小博弈樹的規模,然後在縮減過的博弈樹上進行CFR算法迭代。
這些方法嚴重依賴於人類專家知識進行博弈樹抽象,並且CFR算法需要對博弈樹的狀態結點進行不斷地採樣遍歷和迭代優化,即使經過模型縮減後仍需要耗費大量的計算和存儲資源。例如,DeepStack使用了153萬的CPU時以及1.3萬的GPU時訓練最終AI,在對局階段需要一個GPU進行1000次CFR的迭代過程,平均每個動作的計算需耗時3秒。Libratus消耗了大於300萬的CPU時生成初始策略,每次決策需要搜索4秒以上。
這樣大量的計算和存儲資源的消耗嚴重阻礙了德撲AI的進一步研究和發展;同時,CFR框架很難直接拓展到多人德撲環境中,增加玩家數量將導致博弈樹規模呈指數增長。另外,博弈樹抽像不僅需要大量的領域知識而且會不可避免地丟失一些對決策起到至關作用的信息。
AlphaHoldem是何方神聖?
這個問題也吸引了很多中國研究者,中科院自動化所的興軍亮教授團隊便是其中之一。去年12月,他領導的博弈學習研究組針對德州撲克任務,提出了一種高水平、輕量化的兩人無限注德州撲克AI程序——AlphaHoldem。
不同於已有的基於CFR算法的德州撲克AI,中科院博弈學習研究組所提出的架構是基於端到端的深度強化學習算法(如圖4所示)。
圖4:端到端學習德州撲克AI學習框架
根據團隊介紹,AlphaHoldem採用Actor-Critic學習框架,其輸入是卡牌和動作的編碼,然後通過偽孿生網絡(結構相同參數不共享)提取特徵,並將一種改進的深度強化學習算法與一種新型的自博弈學習算法相結合,在不借助任何領域知識的情況下,直接從牌面信息端到端地學習候選動作進行決策。
他們還指出,AlphaHoldem的成功得益於其採用了一種高效的狀態編碼來完整地描述當前及歷史狀態信息、一種基於Trinal-Clip PPO損失的深度強化學習算法來大幅提高訓練過程的穩定性和收斂速度、以及一種新型的Best-K自博弈方式來有效地緩解德撲博弈中存在的策略克制問題。
AlphaHoldem 使用了1台包含8塊GPU卡的服務器,經過三天的自博弈學習後,戰勝了Slumbot和DeepStack。每次決策時,AlphaHoldem都僅用了不到3毫秒,比DeepStack速度提升超過了1000倍。同時,AlphaHoldem與四位高水平德州撲克選手對抗1萬局的結果表明其已經達到了人類專業玩家水平。團隊部分成員介紹
趙恩民,論文一作。中國科學院自動化研究所模式識別與智能係統專業博士四年級研究生,2018年於清華大學獲得工學學士學位。研究方向為計算機撲克和深度強化學習。
興軍亮,中國科學院自動化研究所研究員、博士生導師、特聘青年骨幹,中國科學院大學崗位教授,中國科學院人工智能創新研究院創新專家組專家。興教授2012年畢業於清華大學計算機科學與技術系,獲工學博士學位。
此外,他還是美國電器與電子工程學會(IEEE)高級會員、美國《科學》雜誌中國官方公眾號特邀評論員、中國計算機學會(CCF)高級會員、計算機視覺專委會委員。
他的主要研究领域为计算机视觉和计算机博弈。目前已在包括顶级国际期刊如TPAMI、IJCV、AI以及顶级国际会议上如ICCV、CVPR、AAAI、IJCAI上发表论文100多篇,Google学术引用超过10000次,出版计算机视觉译著2部,参与撰写深度学习领域著作1部、人工智能领域著作1部。
曾獲清華大學計算機系“學術新秀”、“Google學者”、多次頂級國際和國內會議最佳論文獎等榮譽和獎勵,以及十餘次在人臉識別、車輛識別、視頻識別等國際和國內挑戰賽中獲獎。
目前作為項目和課題負責人承擔多項國家重點項目,研發的視覺感知相關技術在國家廣電總局、華為、微軟等得到了多次驗證應用和落地推廣,取得了良好的經濟效益和社會價值。
近年來主要圍繞深度強化學習相關的智能感知和決策問題,研發了多款針對不同遊戲的博弈決策AI,其中研發的星際爭霸AI曾獲2017年IEEE CIG星際爭霸AI第2名,研發的德州撲克AI程序AlphaHoldem勝率超過了目前公開的最好德州撲克AI程序DeepStack,速度提升超過1000倍。開放了學界首個大規模不完美信息博弈平台OpenHoldem。AAAI 2022其他獲獎工作
傑出論文獎:
- 論文名稱:Preference-Based Fairness for Personalized Recommender Systems 的在線認證
- 作者團隊:Virginie Do,Sam Corbett-Davies,Jamal Atif, Nicolas Usunier
傑出學生論文獎:
- 論文名稱:InfoLM: A New Metric to Evaluate Summarization & Data2Text Generation
- 作者團隊:Pierre Colombo,Chloé Clavel,Pablo Piantanida
卓越論文獎:
除了中科院興軍亮團隊的AlphaHoldem,還有5 篇工作獲得AAAI 2022 “卓越論文獎”。分別如下
- 論文名稱:Certified Symmetry and Dominance Breaking for Combinatorial Optimization
作者團隊:Bart Bogaerts,Stephan Gocht,Ciaran McCreesh,Jakob Nordström
- 論文名稱:Online Elicitation of Necessarily Optimal Matchings
作者團隊:Jannik Peters
- 論文名稱:Sampling-Based Robust Control of Autonomous Systems with Non-Gaussian Noise
作者團隊:Thom S. Badings、Alessandro Abate、Nils Jansen、David Parker、Hasan A. Poonawala、Marielle Stoelinga
- 論文名稱:Subset Approximation of Pareto Regions with Bi-objective A
作者團隊:Jorge A. Baier,Carlos Hernández,Nicolás Rivera
- 論文名稱:The SoftCumulative Constrain with Quadratic Penalty
作者團隊:Yanick Ouellet,Claude-Guy Quimper
參考鏈接:
1.https://twitter.com/rao2z/status/1496866889921822721
2.https://mp.weixin.qq.com/s/OBRybZ-NwcNW-S9TCObaLA