人工智能人人通生态雲平台

河南人民出版社有限責任公司

2019年12月28日 星期六

咨詢熱線

400-6908-558

在線學習
153 人
雲校學校
220 所
雲校老師
158 人
雲校學生
454 人
雲校家長
51 人

立即報名

寶貝成果

您的位置:币安币官网 > 學習天地 > 家長陪學

  • 人工智能離百姓越來越近 超市購物也變得時髦起來!

    人工智能離百姓越來越近 超市購物也變得時髦起來! 作為數字零售的先行者,多點Dmall與阿裡雲、騰訊智慧零售、京東超市一同參會,并首次向外界展示了物物在線、物物智能、數據驅動的多點智能物聯中台。在多點展區,應用于賣場場景的智能購物車、電子價簽、智能手持終端,和賣場入口處的智能存包櫃、客流攝像機,以及收銀體系之下的自助購設備、智能防損、派樣機等智能硬件産品家族一一亮相,多點智能硬件聯盟實力得到了參會零售從業者的高度認可。 就拿超市入口處的存包櫃來講,以前我們都是按下“存包”按鈕,機器吐出一張小紙條,抽取小紙條後自動彈開櫃門存放物品。購物過程中必須得保管好這張小紙條,如若丢失那就得求助于店員。而現在,消費者再也不用擔心這個問題了,多點智能存包櫃,支持APP掃碼開櫃存放物品,一存一取so easy。 在店内,消費者還可與AI營銷屏實時互動,隻要站在屏幕面前即可獲得精準商品推薦。另有全新升級的通道式自助購,給予消費者更為私密安全的購物結算空間,一人一通道,APP掃碼進入,有序排隊結賬,不被他人打擾。 據悉,多點智能硬件聯盟成立于2019年11月,是多點聯盟的重要組成部分,目前已有商超、便利店和智能硬件廠商等加入其中,共同建立起數字零售場景試驗室。多點Dmall搭建的智能物聯中台,已穩定連接起不同廠商的智能硬件設備,可實現用戶可追溯、數據可統計、産品可管理的統一服務标準。

  • 把你變成“積木人”

    一張照片生成積木的你!5個在校生2個月做的AI項目,李開複看了贊不絕口 一個AI創業的idea,做了兩個月,就可以商業化啦? 創新工場今年的DeeCamp,就是這種畫風,簡直辦成了創業大賽。 兩個月的時間,這些海内外名校的學生們,迅速的做出了各種軟件、硬件、解決方案、有趣的玩法……甚至還直接規劃好了商業化路線。 給人一種馬上就要去交易所敲鐘的錯覺。 這個已經連續舉辦3年、業界最著名大佬親自講課的AI夏令營,正在朝着商業+技術結合的方向飛速發展。 如果說,前幾屆DeeCamp是在培養百萬年薪的工程師,現在簡直是在培養未來獨角獸的CEO了。 一張照片,直接生成積木玩偶 全場最令人驚豔的項目「方仔照相館」,來自北京航空航天大學、清華大學、香港中文大學、奧地利科學技術研究所的同學組成的團隊,可以讓AI技術自動設計特定人物的積木玩偶。 打開它的Demo玩一玩,你就可以上傳一張人物照片,系統自動提取人物特征、匹配部件,直接生成照片上人物的積木玩偶。 比如我們熟悉的鋼鐵俠馬斯克: Tim Cook: 甚至還能直接生成拼裝圖紙: 以及零件部件圖: “那豈不是直接交給代工廠生産就行了?”一位做過定制積木玩偶禮品的人士看到之後驚歎的說。 後續,團隊還準備開發捏臉系統,可以在AI生成的基礎上自選發型等不同裝扮。 堪稱積木版《奇迹暖暖》。 而且,「方仔照相館」團隊已經設計好了商業化路徑,采取人物定制、線下「方仔照相館」設施的方式,直接實現商業化。 這看起來比商場裡的投币抽獎盲盒有趣多了。李開複評價稱,這是一個幾乎可以拿投資的商業項目。因此,這個項目也成了兩個并列總冠軍賽道項目之一,團隊成員獲得了10W元獎金。 設定背景人設,AI自動寫科幻小說 創新賽道的冠軍「AI科幻世界」項目,打造了一個可以生成科幻小說的系統。 團隊成員來自中科院、美國喬治梅森大學等高校,他們基于GPT-2模型,在百億級中文大規模語料上重新訓練後,就可以根據作者的背景設定,自動生成科幻題材的文學作品。 比如我們先編一個張三大戰外星人的背景: 輸入主角張三,和他的人設信息: 再把配角們的人設也都輸入進去: 現在,我們編一個故事的開頭 阿爾法星系的艦隊軍團正在冥王星軌道外列陣,被聯合國選中的張三正在前往發射中心的車裡,愁容滿面。 這時候,就可以生成許多種故事情節的走向,作者可以選擇自己傾向的方向: 這樣,隻要看一看,選一選,就能自己DIY一篇科幻小說。 著名科幻作家、星雲獎得主陳楸帆看到這個項目之後,覺得非常有價值,他認為雖然該項目雖然在目前算法還無法處理人物關系,但是大綱生成上能啟發作者思路,幫助構思,擺脫思維慣性和固有的禁锢,從更廣闊、彈性的空間上給予作家情節脈絡發展的創意和啟發。 看來,以後小說家們沒靈感了寫不動了,就可以把稿子帖進去,看看AI會給出什麼後續劇情的發展,激發靈感,接着填坑。 用刷短視頻的方式上網課 同樣是在家上網看視頻,上網課就令人感到匹配,看短視頻就十分輕松愉快了。 那能不能用刷短視頻的方式上網課? 教育賽道的冠軍,來自CMU和賓大的同學組成的「Teched U」團隊就做了這樣的一套産品, 他們設計了一套TopicNet算法,可以根據知識點、主題,把很長的網課視頻按照知識點拆成簡短的視頻,便于理解和吸收,如果有你已經掌握、不想再聽的知識,也可以直接跳過節省時間。 而且,把“長課”拆短之後,就有了課程大綱。 你可以從大綱裡選擇自己想聽的部分,比如把老師劃的重點選出來,重新組合,專門聽重點的課程。 另外,借助OCR等技術,這項産品還實現了視頻搜索功能。也就是說,在你聽完一門網課一段時間之後,如果突然忘記某個知識點,就可以直接搜索關鍵詞,跳到老師講這個知識點的地方,重新聽老師是如何講解這部分知識的。 這樣,不用辛苦的整理筆記,也可以随時複習了。 Teched U團隊的同學們說,他們的模型準确率達到了91.6%,高于業界44%的水平。在他們看來,教育視頻經過這樣的處理,可以大大提升用戶體驗,提升付費意願,用戶們為了優質的體驗也不再傾向于找盜版課程資源,有利于在線教育公司的發展。 目前,這個項目已經準備産品化,面向中小型在線教育公司提供SaaS服務。在個技術夏令營裡,該團隊還有一位商務同學,他表示團隊已經和字節跳動教育業務開始了合作對接,正在嘗試為字節跳動的視頻進行切割拆分。 要知道,DeeCamp兩個月前才剛剛開始,這是一個僅僅準備了2個月的項目,就已經有了商業化成功的苗頭。 要技術,也要商業落地 為什麼今年的DeeCamp,有如此濃重的商業化氛圍? 創新工場人工智能工程院執行院長王詠剛說,今年的課程設置中,有刻意引導學生從綜合層面考慮問題,這也是今年DeeCamp區别于以往的标志。 比如疫情影響下格外熱門的醫療領域,學生們直接設計了一台能夠實現心音、肺音、脈搏檢測的便攜硬件設備。 “要解決一個醫療問題,不管是跟新冠疫情有關,還是跟常見病有關,都需要從産品完整的角度,包括産品設計甚至包括軟硬件結合的角度考慮問題。” “單做一個純粹的AI技術很可能缺乏場景,我們鼓勵學生去做綜合的思考,包括技術産品和商業化”,王詠剛說。 這也是DeeCamp人工智能訓練營被發起的初衷。 自誕生起,DeeCamp人工智能訓練營就以消弭中國AI應用人才鴻溝、培養和完善中國AI應用人才生态為初衷,堅持公益屬性,将知識課程與項目實踐相結合,引導學生體驗 AI 技術如何轉化為産業應用,積累實踐案例經驗。 自2017年暑期首次開辦以來,DeeCamp總計收到來全球 1000 餘所高校超過 20000 份報名申請,已有 1000 餘名學員順利結業。 創新工場董事長兼CEO李開複博士表示:“特别驚喜地看到同學們今年的作品,跟以往線下合作在水平上沒有區别,這說明好的科研産品是可以在線上合作完成的,讓我們非常振奮。” 李開複強調:DeeCamp的初衷是用AI技術解決真實世界的問題,最頂級的技術未必會産生最大的商業價值,和傳統産業結合才能釋放AI潛力。大家一定要理解産業,找到真實場景中的落地機會。

  • 深入了解人工智能的發展階段

    人工智能是研究開發能夠模拟、延伸和擴展人類智能的理論、方法、技術及應用系統的一門新的技術科學,研究目的是促使智能機器會聽(語音識别、機器翻譯等)、會看(圖像識别、文字識别等)、會說(語音合成、人機對話等)、會思考(人機對弈、定理證明等)、會學習(機器學習、知識表示等)、會行動(機器人、自動駕駛汽車等)。 了解人工智能向何處去,首先要知道人工智能從何處來。人類首次提出“人工智能”一詞是在1956年的達特茅斯會議上,麥卡錫、明斯基等科學家在美國達特茅斯學院開會研讨“如何用機器模拟人的智能”,首次提出“人工智能(Artificial Intelligence,簡稱AI)”這一概念,這次會議确立了人工智能這一新的研究領域,标志着人工智能學科的誕生。 人工智能的發展已經走過六十三個年頭,取得了許多令人矚目的成就,給科技的進步和人們的生活都帶來了翻天覆地的變化,改變我們的社會和生活,使人類進入到一個更加高度發達和繁榮的智能時代。 然而,人工智能充滿未知的探索道路曲折起伏。如何描述人工智能自1956年以來60餘年的發展曆程,學術界可謂仁者見仁、智者見智。我們将人工智能的發展曆程劃分為以下6個階段: 五是穩步發展期:20世紀90年代中—2010年。由于網絡技術特别是互聯網技術的發展,加速了人工智能的創新研究,促使人工智能技術進一步走向實用化。1997年國際商業機器公司(簡稱IBM)深藍超級計算機戰勝了國際象棋世界冠軍卡斯帕羅夫,2008年IBM提出“智慧地球”的概念。以上都是這一時期的标志性事件。 六是蓬勃發展期:2011年至今。随着大數據、雲計算、互聯網、物聯網等信息技術的發展,泛在感知數據和圖形處理器等計算平台推動以深度神經網絡為代表的人工智能技術飛速發展,大幅跨越了科學與應用之間的“技術鴻溝”,諸如圖像分類、語音識别、知識問答、人機對弈、無人駕駛等人工智能技術實現了從“不能用、不好用”到“可以用”的技術突破,迎來爆發式增長的新高潮。 雖然現在的智能機器人和真正的人腦思維相比還有很大差距,但随着對人工智能領域的大力發展,相信人工智能時代的到來也隻是時間的問題,而随着對人工智能越來越多的應用,人們對人工智能的關注更加密切了。人工智能的每一次進步,都能為當前的生産活動帶來實際的發展作用,也會越來越多地影響我們的生活。

  • 人工智能的發展

    自從1950年,阿蘭·圖靈出版《計算機與智能》首次提出計算機智能概念,1956年約翰·麥卡錫在美國達特矛斯電腦大會上創造“人工智能”一詞以來,人類的人工智能技術發展取得了長足的進步。 先來看看,人工智能的曆史進展是怎麼樣的: 第一階段:邏輯推理時代1950-1960年代,是人工智能的“邏輯推理時代”。 1956年,美國卡内基·梅隆大學展示世界上第一個人工智能軟件的工作:邏輯理論機(LT)。這項工作旨在“讓機器自己去證明數學定理”。 這樣的想法早在17世紀G.W.Leibniz創立數理邏輯的時候就産生了,但直到計算機誕生後,才以人工智能的形式真正實現。 當時這段程序成功證明了Russel所著《數學原理》第二章52條定理中的38條,并在7年後的改進版中完成了剩餘14條的證明。 1958年,麻省理工學院的John McCarthy發明了表處理程序設計語言LISP。它不僅能處理數據,還能方便地處理各種符号,因此成為人工智能研究的重要工具。 那時,邏輯理論機的開發者Herbert Simon和Allen Newell樂觀地預言,十年之内很多事情就能靠人工智能解決。 這些事包括: 成為國際象棋世界冠軍 發現并證明有意義的數學定理 譜寫優美的樂曲 實現大多數的心理學理論 事實上,此後的10年裡,這些預言一項都沒有實現。 第二階段:專家系統時代1970-1980年代,是人工智能的“專家系統時代”。 1968年,斯坦福大學的Edward Feigenbaum和Joshua Lederberg建成了一種能幫助化學家判斷某待定物質的分子結構的系統,起名為DENDRAL。它是世界上第一例成功的專家系統,在開創這一全新領域的同時,也标志着人工智能從實驗室走了出來,開始進入實際應用。 專家系統的出現,為人工智能帶來了全新的發展。 1972年,斯坦福大學開始研制MYCIN系統,使用了人工智能的早期模拟決策系統,用來幫助醫生對住院的血液感染患者進行診斷,和推薦用于治療的抗菌素類藥物。 1973年起,卡内基·梅隆大學先後研制了自然語言理解系統HEARSAY-I和HEARSAY-II,它能把輸入的聲音信号轉換成文字,并組成單詞、合成連貫的句子,正确率高達85%。 1977年,斯坦福研究院的人工智能中心開發了探礦系統PROSPECTOR,通過模拟地質專家的知識體系和推理過程,來幫助地質學家進行礦産勘查。該系統4年後投入實際使用,取得了巨大的經濟效益。 1980年,卡内基·梅隆大學為數字設備公司(DEC)設計了一套名為XCON的專家系統,每年為公司省下4000萬美元,在這段時期,僅專家系統産業的價值就高達5億美元。 然而人們也發現,這些任務大都範疇較窄,局限性很強,稍稍超出範圍就無法應對,這與當時大家普遍想象中的人工智能的巨大潛力相去甚遠。 事實上,即使在各類機構大量研發資金的資助下,20年前設計的理想目标很多都沒有實現 這讓人們不得不承認自己确實低估了人工智能項目的難度,并開始回頭反思。 人工智能的發展進入了冰河期。 第三階段:神經網絡時代1990年代,是人工智能的“神經網絡時代”。 1975年,Paul Werbos提出BP算法,使得多層人工神經元網絡的學習成為可能。 又過了10年,以Rumelhart和McClelland為首的科學家發展了Werbos的理論,實現了BP神經網絡,解決了許多簡單感知器不能解決的問題,并在數學上給出了完整推導。 這項成果可以說是此後整個人工智能浪潮的奠基性工作。 1988年,Linsker對感知機網絡提出了新的自組織理論,并在Shanon信息論的基礎上形成了最大互信息理論,從而點燃了基于NN的信息應用理論的光芒。 90年代初,Vapnik等人提出了“支持向量機”和“VC維數”的概念。 美國國會甚至通過決議,将1990年1月開始的十年定為“腦的十年”。各個國家紛紛加大了對神經網絡研究的資助,神經網絡獲得了顯著的發展。 第四階段:機器學習時代21世紀以來,是人工智能的“機器學習時代”。 摩爾定律帶來越來越強大的計算能力,顯著提高了人工智能的研究效果。 最早的突破發生在1997年,IBM制造的電腦“深藍”擊敗了國際象棋世界冠軍加裡·卡斯帕羅夫,極大地震驚了人類。 也是從那時起,越來越多我們今天熟悉的AI形态開始初露鋒芒。 2000年,麻省理工學院的Cynthia Breazeal開發出仿人社交機器人Kismet。它的樣子十分可愛,同時具備視覺、聽覺、觸覺輸入和位置感應。然後,它還可以進行對話、甚至用表情、體态與人互動。 2006年,Geoffrey Hinton等人發表論文,提出了“深度學習”的概念。 論文發表後,大家普遍認為神經元網絡可以解決很多問題——事實也确是如此,深度學習後來陸續被成功應用于計算機視覺、語音識别、自然語言處理等領域,它的熱度直到今天也沒有消褪。 Alpha Go和中韓圍棋高手比賽取得完勝就是目前人工智能技術的典型傑出代表。 近年來,随着深度學習和深度神經網絡的發展,特别是深度學習對知識的理解比過去有了很大的進步,使得人工智能在應用端的智能化水平得到大幅提高,如保險定損、醫學影像識别、人臉識别、語音模仿、教育教學、案件推理、環境分析、翻譯和司法文本閱讀等領域,都取得了顯著的應用進步。 例如在出行領域,人工智能對自動駕駛的推動也是明顯的。 2004年,第一屆DARPA自動駕駛汽車挑戰賽在莫哈韋沙漠舉行,最終沒有一輛自動駕駛汽車跑完全部的150英裡。 次年,斯坦福大學的Sebastian Thrun(谷歌無人車之父)宣布參賽。并在與卡耐基·梅隆大學展開激烈角逐後,一舉拿下冠軍。 自此,業界對無人駕駛的态度由“一塌糊塗”轉變為“信心大增”。 雖然目前來說,完全的無人駕駛有些遙遠, 但随着機器學習算法的提升和應用的挖掘,現如今包括奧迪乃至國内數家車企推出了L3級别的自動駕駛。 6月27日,滴滴出行首次面向公衆開放自動駕駛服務。 或許在近兩年,更接地氣人機和諧共駕便指日可待。 在生活領域,曾經爆火的deep fake也是運用了人工智能 這是一種人工智能為基礎的人物圖像合成技術。 它用于使用稱為“ 生成對抗性網絡 ”的機器學習技術将現有圖像和視頻組合并疊加到源圖像或視頻上。 可以輕松實現“一鍵換臉”。 當然,此項技術不僅有可能被使用在惡作劇上,在其他領域如果被惡意使用隐患無窮,所以被迅速封殺。 還有更多生活方面的有趣應用,比如AI修複上色: 一位reddit網友利用AI訓練了一個用于修複以及上色的深度學習模型,甚至可以處理幾個世紀前的油畫和線條畫。 當然,可以修複的不止是老照片,還可以修複過往老視頻。 前段時間,一段AI修複一百年前的北京老視頻也在網絡傳播,這些都讓我們看到了人工智能的力量。 AI讓模糊圖秒變高清圖 由英偉達、阿爾托大學和麻省理工學院的研究者聯合研發的一款叫Noise2Noise的AI技術,無需查看清晰的圖像也能将模糊的圖變的高清,還能去除圖片上的文字。 甚至在畜牧業,人工智能也有意想不到的作用: 荷蘭WeTransfer 公司有位叫 Arkaitz Garro 的前端工程師,利用AI人臉識别原理,搞了個"貓臉識别"。 微軟甚至為此還出了軟硬件産品和教程。 無獨有偶,國内衆多互聯網養豬的大佬家都已經實現了AI"豬臉識别"。 在金融領域,人工智能的介入同樣影響巨大: 例如智能投顧系統。通過對個人客戶的大數據進行分析,從多個維度對用戶進行畫像,從而可以提供各類更加定制化的投資決策輔助工具和包括個性化資産配置在内的投顧服務,并實時進行動态跟蹤調整。 随着智能投顧的逐步普及,不注重最低投資金額限制,沒有達到财富淨值的普通收入用戶和中等收入用戶也能夠獲得更專業以及更理性化的投資顧問服務,将使智能投顧成為為大量長尾用戶進行低成本管理資産的主要方式,行業整體的專業性也将得到大幅度提高。 2015年以來,随着計算機機器學習、大數據技術的發展,計算機智能化投資交易技術開始由“頂尖富豪通過少量對沖基金專享”轉向了“為普羅大衆服務”。 以尊嘉金融為例,資産管理團隊擁有超過10年的數量化對沖管理經驗,并有超過20年的主動管理股票基金管理經驗。在過去十多年中,使用自主研發的投資交易策略管理着近百億的對沖基金,跨越牛熊市均取得了優秀的業績。 尊嘉将面向高淨值客戶的、追求絕對收益的對沖基金策略轉化為普羅服務大衆的“對沖”策略,精心打造了智能投顧機器人,把控風險,增值财富。 在未來的日子,相信人工智能會随着5G的應用越來越融入我們的生活。 我們就在見證着這一切的發生

  • 人工智能的正在發展中

    針對這個問題,我們邀請了微軟亞洲研究院機器學習組的首席研究員劉鐵岩博士,為大家帶來他眼中人工智能現狀,包括面臨的挑戰與機遇。 要說人工智能發展到了什麼程度,我們先來看看人工智能的曆史進程。 人工智能從1956年的達特茅斯會議開始,到現在61年的曆史,發展過程中風風雨雨,可以看到幾起幾落,至少我們經曆過兩個所謂人工智能的冬天。 每一次人工智能的崛起都是因為某種先進的技術發明,而每一次人工智能遇到了它的瓶頸,也都是因為人們對于人工智能技術的期望太高,超出了它技術能達到的水準。所以政府、基金會等撤資,導緻了研究人員沒有足夠的資金去從事研究。 那麼今天我們處在一個什麼階段呢?有人說現在是人工智能的春天,有人說是夏天,還有人悲觀一點,說是秋天,秋天的意思就是冬天馬上就來了。作為人工智能的學者,我們該怎麼看待這件事情,我們能做些什麼?不管大家怎麼預測,至少今天還是一個人工智能的黃金時代。 為什麼這麼講呢?接下來先給大家展示一些最近人工智能取得的成果,确實是之前十幾年我們完全想不到的。 首先,我們講人工智能在語音方面的突破,人工智能在語音識别,語音合成上面最近都取得了非常矚目的結果。2016年10月份由微軟美國研究院發布的一個語音識别的最新結果實現了錯誤率為5.9%的新突破,這是第一次用人工智能技術取得了跟人類似的語音識别的錯誤率。 其次,在圖像方面,人工智能也有很多長足的進步,比如圖像識别的ImageNet比賽,用計算機去識别數據集中1000個類别的圖像。在2015年,來自微軟亞洲研究院的技術——ResNet,獲得了2015年ImageNet的冠軍,錯誤率是3.5%,而人的錯誤率大概是5.1%。所以可看出在特定領域、特定類别下,其實計算機在圖像識别上的能力已經超過了人的水平。2016年我們微軟亞洲研究院再接再勵,在比圖像識别更難的一個任務——物體分割上面取得了冠軍。 除了語音和圖像以外,其實人工智能在自然語言上面也取得了很大的進展。左邊這張圖描述了各大公司都在不斷地提高各自語音機器翻譯的水準和技術,右邊這張圖展示的是去年12月微軟發布了Microsoft Translator的一個新功能,它支持50多種語言,可以實現多個人多種語言的實時翻譯,比如大家每個人可能來自不同的國家,隻要拿着手機用這個APP我們就可以互相交流。你說一句話或者輸入文字,對方聽到/看到的就是他的母語。 前面說的這些語音、圖像、語言,聽起來還都是一些感知方面的東西。大家也知道,最近這段時間,人工智能在一些傳統我們認為可能很難由機器來取得成功的領域也獲得了突破。比如左邊這張圖描述的是用人工智能技術來打遊戲,大家可以看到這個敲磚塊的遊戲,在120分鐘訓練的時候,人工智能就找到了很有效的得分的途徑。當我們繼續去訓練這個人工智能的機器人,到了240分鐘以後,它又達到了那種所謂骨灰級玩家的水準,它發現了一些平時我們自己都玩不出來的竅門。 右邊展示的是圍棋比賽,大家都知道AlphaGo非常火,使用了深度增強學習的技術,經過了非常長的訓練時間,引用了大量數據做self-play,最終是以壓倒性的優勢,4:1戰勝了當時的世界冠軍李世石。在去年的IJCAI上面,AlphaGo主要的開發人員做了一個keynote,說自戰勝了李世石之後,AlphaGo并沒有停下腳步,因為它是一個self-play的process,可以繼續訓練,隻要給他足夠的運算時間和樣例,它就可以不斷地去訓練。所以也能理解為什麼今年年初Master重新回到大家視野裡,可以對圍棋高手60連勝,因為這個差距太大了。 這些事情都是以前人們覺得人工智能不可以去企及的領域。但正是因為這些計算機科學家、人工智能科學家不斷地去模仿人的決策過程,比如他們訓練了value network,訓練了policy network,就是怎麼樣根據現在的棋局去評估勝率,去決定下一步該走什麼子,而不是走簡單的窮舉,用這些value network來對搜索樹進行有效的剪枝,從而在有限的時間内完成一個非常有意義的探索,所有這些都是人工智能技術取得的本質的進展,讓我們看到了一些不一樣的結果。 說了人工智能的這些輝煌之後,其實有很多問題是需要我們去冷靜思考和回答的。 我們的主題是開啟智能計算的研究之門,我想從一個研究者的角度跟大家讨論一下我們還能做些什麼,甚至是更有意義的是去做些什麼。人工智能表面看起來很火,其實如果把這張魔術的台布展開,你就會發現它千瘡百孔,各種各樣非常基礎的問題其實并沒有解決,甚至有很多哲學的方法論的東西從我們的角度來看可能也不準确。 面對這樣的情況,更有意義的事情可能是冷靜下來,去從事一些能夠改變人工智能現狀以及未來的很本質的基礎研究工作,甚至是去反思人工智能發展的路線圖,看看我們是不是應該重啟一條道路。這些事情才能使得我們不僅僅是随波逐流,不僅僅是變點現,騙點錢,而是在人工智能發展的真正道路上留下我們自己的足迹,過了幾十年當大家回憶的時候,另外一個人站在台上講述人工智能一百年的時候,他會在那個圖上标着一個星星,那裡面講的是你的故事。 前面這些人工智能現象的背後是什麼?說到技術層面,現在最火的兩個詞,一個叫Deep Learning(深度學習),一個叫Reinforcement Learning(增強學習)。深度學習是什麼?通俗地講,它就是一個端到端的學習,我們不需要一些feature engineering,而是用一個非常複雜的、容量很大的模型去直接拟合輸入輸出,讓模型自己探索有意義的中間表達。 什麼是增強學習?通俗地講,就是學習機器不斷地跟環境做自主的互動,在互動的過程中用長遠的收益來指導當下該做什麼決策,通過不斷的跟環境互動去調整決策的最優性。 之所以現在深度學習和增強學習能夠取得很大的成功,背後有一個很大的原因,就是基于巨大的數據和巨大的運算量訓練出的擁有巨大容量的模型,所以它們的成功離不開硬件系統,這也是為什麼現在GPU這麼火,包括雲計算、多機協作已經成了我們必不可少的環節。 這是現在人工智能的現狀。面對這樣的現狀,我們是按照大家指定的這條道路去走,多搞幾個GPU去訓練一些模型跟别人PK,還是反思一下這條路對不對,有沒有什麼問題,接下來我想跟大家讨論的就是人工智能的諸多問題。我隻列了一些其中的代表,但其實問題遠遠不止這些。 第一件事,現今的人工智能技術,尤其是以深度學習為代表的,需要大量的标注數據,來讓我們能夠訓練一個有效的模型,它不太依賴于人的先驗知識,要learning from scratch。如果想從零開始學習就需要有大量的樣本提供規律。比如,圖像分類,現在通常會用上千萬張圖像來訓練;語音識别,成千上萬小時的有标注的語音數據;機器翻譯一般都是在千萬量級的雙語語對上去做訓練,這樣的數據之前是不可想象的,但是我們這個時代是大數據時代,所以有了這些數據,就使得深度學習訓練成為了可能。但這是不是一劑萬能的靈藥呢?其實在很多領域裡是不可能或者是很難獲得類似的數據的。比如醫療上面,很多疑難雜症,全世界也沒有幾例,那怎麼能夠對這個類别搜集大數據。所以從這個意義上講,如果我們能夠找到一種方法克服對大的标注數據的需求,我們才能夠使得現在的人工智能技術突破目前數據給它劃定的邊界,才能夠深入到更多的領域裡面去。 第二個挑戰是關于模型大小以及模型訓練難度的問題,前面提到了深度神經網絡有很多層,而且一般參數都很大,幾十億的參數是家常便飯。面對這樣的網絡,至少有兩個困難,一個是我們經常提到的梯度消減和梯度爆炸的問題,當深層網絡有非常多層次的時候,輸出層和标簽之間運算出來的殘差或者是損失函數,是很難有效地傳遞到底層去的。所以在用這種反向傳播訓練的時候,底層的網絡參數通常不太容易被很有效的訓練,表現不好。人們發明了各種各樣的手段來解決它,比如加一些skip-level connection,像我們微軟亞洲研究院發明的ResNet技術就是做這件事情的,還有很多各種各樣的技巧。但這些其實都隻是去解決問題的技巧,回過頭來,原來的這個問題本身是不是必要的,是需要我們反思的。 再有就是模型爆炸。前面說了幾十億的參數是家常便飯,幾十億甚至上百億個參數意味着什麼,意味着模型本身的存儲量是非常大的。舉一個簡單的例子,如果我們用神經網絡來做語言模型,給出的訓練數據集是Clueweb整個網絡上的網頁,大概有十億個網頁的量級。 這樣的一個數據,如果要去用循環神經網絡去訓練一個語言模型,簡單計算一下就會知道,它需要用到的模型的大小大概是80G到100G的大小,聽起來好像不太大,但是現在主流的GPU闆上的存儲24G已經算是高配,換句話說,80G到100G的大小已經遠遠超過一個GPU卡的容量,那麼就一定要做分布式的運算,還要做模型并行,有很多技術難度在裡面。即便有一個GPU卡,能夠放下這80G或100G的模型,如此大的訓練數據過一遍也可能要用上百年的時間,這聽起來也相當不靠譜。到底需不需要這麼大的模型,有沒有必要我們非要把自己放在一個内存也不夠用,計算時間也非常長,也不能忍受的境地呢,這個是值得思考的問題。 說到大模型,标注數據很大,那必然要提到分布式運算,分布式運算聽起來是一個相對成熟的領域,因為系統領域已經對分布式計算研究了很多年。但是回到我們分布式機器學習這件事情上是有所不同的:這裡我們做分布式運算的目的是為了讓我們能夠用更多的資源來容納更大的模型,使得運算的時間縮短到能接受的程度,但是我們不想丢掉運算的精度。 舉個例子,原來用上百年的時間可以得到一個非常精準的語言模型,現在有100台機器,雖然算的很快,但出來的語言模型不能用了,這件得不償失。 說到分布式運算有兩個主流的方式,一個是同步的并行方式,一個是異步的并行方式。同步的并行方式是什麼,就是很多機器都分了一個子任務,大家每計算一步之後要互相等待,交換一下計算的結果,然後再往前走。這個過程能夠保證對整個分布式運算的流程是可控的,可以知道發生了什麼,在數學上可以做建模,能夠在理論上有所保證。但它的問題就是所謂的木桶原理,這個集群裡面隻要有一台機器很慢,分布式運算就會被這台機器拖垮,就不會得到好的加速比。 所以人們開始做異步的并行方式,異步的意思就是每台機器各自做自己的事情,互相不等待,把當前按照各自的數據訓練出來的模型更新推到某一個服務器上,再更新整體模型。但這時候又出現了一個新的問題,就是亂序更新的問題,這個過程是不能被我們原來的數學模型所描述的,違背了優化技術的一些基本假設。比如當我們使用随機梯度下降法的時候,可以證明當時用一個不斷減小的學習率時,優化過程是有收斂性的。這是因為我們每一次增加的那個梯度是在上一次計算的模型基礎上算出來的梯度。一旦加上去的梯度可能是舊的,不是依據前一個模型算出來的,到底優化過還能不能收斂,就不那麼清楚了,所以雖然速度快,精度卻可能沒有保證。 第四個,我把它叫做調參黑科技,難言之隐。這件事情特别有趣,我前一段時間參加過一個論壇,一位嘉賓的一句話給我印象特别深,他說大家知道為什麼現在很多公司都有深度學習實驗室嗎,以前沒聽說過有一個叫支持向量機實驗室的,為什麼?這是因為像SVM這樣的技術訓練過程非常簡單,需要調節的超參數很少,基本上隻要按部就班去做,得到的結果都差不多。 但深度學習這件事情,如果不來點調參黑科技,就得不到想要的結果。所謂深度學習實驗室,就是一批會調參的人,沒有他們深度學習就沒那麼好用。雖然是句玩笑,但是深度學習力要調的東西确實太多了,比如說訓練數據怎麼來,怎麼選,如果是分布式運算怎麼劃分,神經網絡結構怎麼設計,10層、100層還是1000層,各層之間如何連接,模型更新的規則是什麼,學習率怎麼設,如果是分布式運算各個機器運算出來的結果怎麼聚合,怎麼得到統一的模型,等等,太多需要調的東西,一個地方調不好,結果可能就大相徑庭。這就是為什麼很多論文裡的結果是不能重現的,不是說論文一定不對,但至少人家沒有把怎麼調參告訴你,他隻告訴了你模型長什麼樣而已。 下一個挑戰,叫做黑箱算法,不明就裡。這不僅僅是神經網絡的問題,更是統計機器學習多年來一直的頑疾,就是用一個表達能力很強的黑盒子來拟合想要研究的問題,裡面參數很多。這樣一個複雜的黑盒子去做拟合的時候,結果好,皆大歡喜。如果結果不好,出現了反例,該怎麼解決呢,這裡面幾億、幾十億個參數,是誰出了問題呢,其實是非常難排錯的事情。相反,以前有很多基于邏輯推理的方法,雖然效果沒有神經網絡好,但是我們知道每一步是為什麼做了決策,容易分析、排錯。所以最近幾年有一個趨勢,就是把基于統計學習的方法和基于符号計算的方法進行結合,造出一個灰盒子,它既具備很強的學習能力,又能在很大程度上是可理解、可支配、可調整的。 到現在為止,這幾件事都是現在人工智能技術層面的問題。接下來,談的是更像方法論和哲學的問題,僅為個人的觀點,跟大家一起分享。 其中一條,我叫做蠻力解法,舍本逐末。這句話什麼意思?剛才我提到過深度學習之所以這麼成功,是因為它有一個特别強的表達能力,在曆史上人們證明過深層神經網絡有universal approximation theorem,隻要隐結點的數目足夠多,任意給一個連續函數,它都可以無限逼近這個函數,換言之,有了很強的表達能力,什麼問題都可以學的很好。聽起來好像是挺美好的事,但實際上它背後存在一個問題:它拟合的是數據的表象,數據表象可以非常複雜,但是數據背後驅動的規律是不是真的那麼複雜呢,如果我們隻看到表象不去研究數據産生的本質,很可能你花了很大的力氣去拟合,但是浪費了很多時間,得到的結果也不魯棒。 舉個例子,我們發現大自然也好,人類社會也好,其實沒有想象的那麼複雜,雖然你看到的很多數據很複雜,它們背後的規律可能非常簡單。像量子力學有薛定谔方程、量子化學、流體力學、生物遺傳學、經濟學、社會學也都有類似的簡單方程,科學家發現那麼紛繁複雜的現象都可以被一個動态系統所刻劃,而動态系統背後的規律可能就是一個最高二階的偏微分方程。大家可以想象,如果不知道這些機理,不對動态系統做建模,隻對動态系統的産出數據做建模,就會覺得這個問題非常複雜,要有一個容量非常大的神經網絡去逼近這個數據。但反過來,如果目光焦點在這個動态系統身上,可能就兩三個參數的一個二階微分方程就搞定了。 下面也是一個值得思考的問題——動物智能,南轅北轍,雖然前面提到人工智能産生了很多的進步,但其實目前所做的還主要是認知的事情,做一個Pattern Recognition,聽聽聲音,看看圖像,這是動物也能做的事。今天的人工智能沒有回答一個關鍵的問題,就是動物和人的區别。可能有人會講,據說猴子的大腦比人的大腦小很多,有可能是體量的不同。但人的祖先跟大猩猩在包容量上應該沒有本質的區别,那到底為什麼經過漫長的進化,人能成為萬物之靈主宰地球了呢? 我自己的觀點是因為人類發明了很多動物界沒有的機制和規律。比如我們有文字,我們可以把我們對世界的認知,總結出來的規律寫下來,把它變成書,變成資料傳給我們的下一代。當老一輩的人去世之後,孩子們讀讀書,就掌握了之前幾百年幾千年人們對世界的認識。但是老一代大猩猩死掉之後,它的孩子就要從頭學起。另外,我們人類有強大的教育體系,人從幼兒園開始,小學,中學,一直進入大學,用了十幾年的時間,就把幾百年、幾千年的知識都掌握在身上了,可以站在巨人的肩膀上繼續往前走,這非常了不起。好的老師,會教出好的學生,教學相長,薪火相傳。 這些人類的精髓在今天的人工智能技術裡面是并沒有充分體現,而沒有它們我們怎麼能指望深度神經網絡達到人的智商呢? 前面列了很多方面,是我們對人工智能領域的一些看法,不管是從技術層面,還是方法論層面,都有很多值得進一步挖掘的點,隻有這些問題真正解決了,人工智能才可能穩穩妥妥的往前走,而不隻是昙花一現。 基于這些考慮,我所在的微軟亞洲研究院機器學習組,對研究方向做了一個相應的布局,比如對偶學習,它解決的就是沒有大規模标注數據的時候,該怎麼訓練一個神經網絡、怎麼訓練一個增強學習模型。該論文發表在去年的NIPS大會上,獲得了很大的反響。 還有,我們叫精深學習(Light Learning),為什麼叫Light?前面提到很多模型太大,放不到GPU裡,訓練時間很長,我們這個研究就是去回答是否真的需要那麼大的模型。我們展示了一個很有趣的深度學習算法,叫Light RNN,用該技術,隻需要用一個非常小的模型在幾天之内就可以把整個Clueweb數據學完,而且它得到的結果要比用大模型訓練很長時間得到的結果還要好。 并行學習,之前提到并行學習有很多同步異步之間的權衡,我們發明了一個技術,它有異步并行的效率,但是能達到同步并行的精度,中間的技術解決方案其實很簡單,在網上也有論文。我們用了泰勒展開,一個非常簡單的數學工具,把這兩者給結合在一起。 符号學習,就是想去解決黑白之間的那個灰盒子問題。 自主學習,是想去解決深度學習調參的黑科技,既然調參這麼複雜,能不能用另外一個人工智能算法來調呢,能不能用增強學習的方法來調呢,所以我們做了一系列的工作來解決怎麼去調各種各樣的參數,怎麼用另外一個機器學習來做這個機器學習。 最後一個方向,我們叫做超人類學習,我們想受大自然的啟發,受人類社會發展的啟發,去使得我們的人工智能技術接近人類,甚至超過人類,這背後是整個人工智能方法論的變化。

12345678共 39 條記錄