少兒編程 > 文章資訊 > 機器人 > 專訪百度美國研究院總監:語音和人工智能的交互是大趨勢
專訪百度美國研究院總監:語音和人工智能的交互是大趨勢
童程童美 2017-03-30
“百度硅谷人工智能研究院的目標是創建我們認為至少能夠影響1億人的人工智能技術。”百度硅谷人工智能研究院總監Adam Coates在本周舉辦的Emtech Digital大會上這樣表示,百度美國研究院的部分人工智能技術成果,實際上已經應用在了很多產品中。
摘要“百度硅谷人工智能研究院的目標是創建我們認為至少能夠影響1億人的人工智能技術。”百度硅谷人工智能研究院總監Adam Coates在本周舉辦的Emtech Digital大會上這樣表示,百度美國研究院的部分人工智能技術成果,實際上已經應用在了很多產品中。
此外,他還證實了百度即將擴大硅谷研究院規模的消息,新的辦公區就在距離目前百度美國研究院不到一英里的位置。
“人數會在目前的基礎上再擴大約一倍左右。”Coates說。目前,百度在美國研究院共有約200名員工。
(百度硅谷人工智能研究院總監Adam Coates在EmTech Digital大會上發表演講)
上周,百度首席科學家吳恩達的突然離職,令外界對百度人工智能研究的未來發展產生新的疑問。百度方面宣布,總裁張亞勤將任百度美國研究院董事長,負責百度在美國研發中心的關鍵人才吸引、品牌建設、以及美研同國內業務的戰略協同等方面的事務。
Adam Coates表示,自己在百度的工作性質并不會發生變化,依然會繼續此前的人工智能研究工作。在加入百度之前,他曾跟隨吳恩達在斯坦福大學從事人工智能方面的博士后研究。
“在出差到中國時,給我最大的感受是所有事情的變化都非常快”Coates說,“和硅谷的節奏完全不同。”
他表示,百度從事人工智能研究的大背景時,對于很多發展中國家來說,移動互聯網的發展為人工智能時代鋪平了道路。
“如果你在2017年第一次連接上互聯網,那么你很可能是從移動設備上進行連接的。”Coates說。
他認為,正是基于人們互聯網連接方式的改變,將使得人機交互的方式也在同時發生變化。移動和物聯網將變成語音和人工智能的交互。
“在移動互聯網時代,我們需要全新的人機交互界面,”Coates說,“而語音就是我們所認為的能夠影響1億人的方式。”
百度硅谷研究院在過去幾年開發了Deep Speech技術,不同于傳統的語音識別系統,Deep Speech完全運用了深度學習技術,通過成百上千小時的語音數據訓練后,實現對語音的識別。
此前,吳恩達在擔任百度首席科學家時曾經介紹過Deep Speech系統,他表示,過去對于識別不同的語言,需要做相應的針對不同語言的系統,而運用了深度學習技術的Deep Speech系統則完全不需要對不同語言進行區別對待。“學習算法的通用性已經可以不用區分不同的語言。”
目前,Deep Speech已經推出第二代,Adam Coates表示,這套系統最初全是用英語語音數據進行訓練,后來才引入了中文語音數據的訓練。
“因為這套系統完全是基于深度學習,完全取決于訓練數據,所以我們可以很快地用中文語音數據來替換,并使其成為非常強的中文語音識別引擎。”Coates說。
他介紹說,這套系統的訓練數據很龐大,加入了非常多的口音很重的中國方言數據,而這些數據的訓練效果也很好,以至于很多人耳都難以聽清的方言語音,系統都能夠成功識別出來。
如今,百度的這套主要由美國人工智能研究院所開發的系統,已經成功實現了產品化。去年10月,一款名為TalkType的手機應用登陸安卓商店,這一應用便是基于Deep Speech的技術,是被百度稱為第一款真正意義上的“語音優先”的輸入方式,而非鍵盤輸入之外的“語音輔助”的輸入選擇。
Coates認為,百度以及其他在中國從事人工智能研究的公司的最大優勢在于,中國互聯網用戶很快地接受了移動終端這樣的上網方式,無論是普通的收發郵件、瀏覽網頁,甚至是到餐館就餐,全部能夠用移動設備來完成,這些使用習慣與美國用戶完全不同,而這些給了例如語音識別等人工智能應用的廣泛的應用基礎。