遊戲背後的人工智能(AI)故事
很多人喜歡玩遊戲,或許還不知道,人工智能與遊戲背後的一些有趣的AI故事,喜歡玩棋牌類與遊戲的,可以與東方林語一起深入了解一下。
2019年,一場人與機器的遊戲對戰——Open AI Five以全面壓倒性的表現戰勝了Dota2世界冠軍戰隊OG。

棋類遊戲一直被視為頂級人類智力及人工智能的試金石。
人工智能與人類棋手的對抗一直在不斷上演中,從三子棋、五子棋、跳棋、象棋、軍棋、國際象棋、再到最高水平的圍棋類遊戲,計算機人工智能程序都已經打敗了人類。

人工智能取得的成績讓人側目,至少在遊戲領域,已經全面壓倒人類。
然而在這令人側目驚歎的表現背後,是人類遠遠無法企及的大數據訓練的結果,以訓練Open AI Five為例,看看它的學習過程消耗了多少資源:
12.8萬個CPU;
256塊P100;
長達數個月的訓練……

如果轉化成更容易理解的數據,就是相當于一個遊戲選手不分日夜的持續練習45000年的遊戲,才能達到同樣的戰果。
按照人類目前的壽命和思維容量,顯然這是一個永遠不可能完成的任務。
這就是目前人工智能行業,尤其是深度學習領域,當前面臨的最大問題與挑戰之一,具體主要包括包括:
大量的數據依賴;
長時間的學習與訓練;
高昂的軟硬件訓練成本……
那麼,解決方法是什麼呢?
2020年,學術界提出了因果關系的小樣本學習的概念。
如何進行小樣本學習呢?其實這個概念與幾年前楊強教授(現微衆銀行首席人工智能官)與戴文淵(現第四範式首席執行官)提出的遷移學習概念比較類似。
小樣本學習與遷移學習,都可以說是學習模仿人類,看看人類是如何快速學習各種知識的。
以玩遊戲為例:
星際争霸系列遊戲,涉及人族、神族、蟲族三個種族,數十個兵種,從戰略到戰術,可以演化為成千上萬種打法。這個遊戲,不到最後一刻,往往很難猜出誰勝誰負。因此,也成為了人工智能重點“練手”的即時策略對戰遊戲。

對于喜歡玩即時策略遊戲的人而言,如果會玩星際争霸系列遊戲,那麼其他的即時策略類遊戲,比如:暴雪的魔獸争霸,DOTA2系列;微軟的帝國時代系列等等,就很容易上手了。
因為可以運用之前的遊戲經驗,玩同類型的遊戲,其背後的思路方法是類似的,觸類旁通,舉一反三,就是這個意思。
同樣的,對于機器學習而言,在少量樣本上快速泛化的核心,就是借助先驗知識(類似人類的經驗)。
而小樣本學習就緻力于通過極少的訓練數據(1-5個樣本/類)來實現模型的泛化(機器學習算法對新鮮樣本的适應能力)。
這裡面,還要提出一個是指機器學習“預訓練”的概念。
具體來說,就是在大型數據集上,學習一個強大的神經網絡作為特征提取器,例如:
CV(計算機視覺)裡面常見的在ImageNet上預訓練的ResNet網絡;
NLP(自然語言處理)裡面在Wikipedia上預訓練的BERT;
都是代表一種特征表達的先驗知識,也就是預訓練。
遷移學習裡面,依據的“庫伯學習圈”理論,也是類似的原理。
預訓練相當于給了小樣本學習一個好的起點,就像一個人在上課前預習了大量的知識點。
當然,如果想獲得更好的效果,還要了解一下元學習(meta learning)的概念,簡單來說就是通過不斷學習,找到更好效果的機器學習方法。
所以,人工智能與機器學習,簡單來說,就是不斷學習和模仿人類思維的過程。