作者:馬夢雪 來源于:家長學(xué)院
在第三屆世界互聯(lián)網(wǎng)大會上,搜狗公司首席執(zhí)行官王小川發(fā)表了關(guān)于人工智能的主題演講,王小川認(rèn)為,未來的人工智能有三個方向:識別、創(chuàng)造與判斷,而其中有重要意義的是在判斷。王小川相信隨著技術(shù)的突破,搜索引擎會自然而然演化成為問答引擎。
AlphaGo,作為引爆人工智能的開端,深度學(xué)習(xí)在其中承擔(dān)了最重要的責(zé)任。AlphaGo之后,最重要的突破領(lǐng)域是在語音和圖像領(lǐng)域,在文字領(lǐng)域的進展很緩慢。今天我們在機器翻譯方面取得了一些突破,但是問答和對語義的理解是不夠的?;氐綀D靈測試,上個世紀(jì)五十年代圖靈提出了問答機器推想這樣一個概念,今天我們直觀感受是語音圖像進步很快,但是自然語言的處理其實是比較慢的。
拋開技術(shù),人工智能有三個產(chǎn)品方向,一是識別——語音識別、圖像識別、視頻識別;二是圖像——我們?nèi)ドa(chǎn)圖像,生成識別;三是創(chuàng)造。大家提到了人工智能進步的層次,我想換一個方式描述——工程師在人工智能時代會處于越來越重要的位置。我們開始提到傳統(tǒng)的方法是把規(guī)則教給機器,隨著統(tǒng)計系統(tǒng)的發(fā)展,包括深度學(xué)習(xí),我們開始更容易地將答案教給機器。在數(shù)據(jù)的積累下我們就可以讓機器變得更加聰明。這里面更前沿的方式是將目標(biāo)教給機器,AlphaGo融合了幾套算法,但這樣把目標(biāo)教給機器的強化學(xué)習(xí),還并不成熟,也就是說如果沒有之前三千萬局人機對戰(zhàn)的棋譜的話,AlphaGo沒能夠做到只通過強化學(xué)習(xí)來戰(zhàn)勝人類,這是技術(shù)層面需要往下突破的重點。如果將目標(biāo)教給機器,機器能夠做自我學(xué)習(xí),這方面有新的突破,那我們離新的人工智能時代就更近了。
那么現(xiàn)在以深度學(xué)習(xí)為代表的人工智能技術(shù),還有哪些不靠譜的地方?在產(chǎn)品上不適用之處有哪些?
第一個問題,語音識別靠譜嗎?在百度、騰訊,都提到了語音識別的能力,今天我給大家的演示也用到了語音識別,這是搜狗自己的技術(shù)。在安靜的環(huán)境里面我們的識別準(zhǔn)確度已經(jīng)到了95%,甚至97%,但是一旦有噪音,準(zhǔn)確率迅速下降。當(dāng)噪音還只是汽車的引擎噪音、風(fēng)的噪音時,我們把噪音當(dāng)成原始數(shù)據(jù)進入監(jiān)督學(xué)習(xí)系統(tǒng)里去,把這種噪音變成機器見過的問題之一。但是事實上我們見到更多的情況,如果同時兩個人說話會怎樣?在今天的學(xué)術(shù)界依然無解。
那么人和機器在語音識別上的區(qū)別,究竟怎么破解?我們用機器的時候,采用立體聲的方式做定向的識別,也就是說我們做一個麥克風(fēng)矩陣,通過立體的方式知道其中一個人在說話,把另外一個人說話去掉,但人本身是這樣干的嗎?如果把一只耳朵堵上,我是否沒辦法分離出誰在說話?或者把兩個說話的聲音錄在一個單聲道里面,人可以識別嗎?人當(dāng)然是可以的,所以人的方法和機器不一樣。人怎么識別?因為人的音色不一樣,還是因為兩個人的一個聲音大一個聲音小,還是因為他們不同的語音,博士說但凡同時兩個人說話的時候,只要能夠找到差別,人就能夠把其中的一個聲音識別出來,所以人在和機器處理過程當(dāng)中有巨大的不同。語音識別最成熟的領(lǐng)域其實還是和人有很大的區(qū)別。
另外一件事情是語義靠譜嗎?對語言的理解,谷歌在之前是用知識圖譜的方法解決,現(xiàn)在遇到了瓶頸,谷歌實驗室最先進的人機對話系統(tǒng),這個系統(tǒng)可以幫助用戶訂餐訂酒店,對話過程當(dāng)中機器的表現(xiàn)非常驚艷,我們上去試,有一個環(huán)節(jié),機器問你:“你是需要停車位還是不要停車位?”這個時候我們回答要或者不要都沒問題,如果回答“我沒車”,大家知道機器會怎么樣嗎?他們完全不理解我沒車代表著我不需要停車位,因為今天的機器,在自然語言概念的理解方面,還是遠(yuǎn)遠(yuǎn)不夠的。所以自然語言處理是可以做的,但是語義理解到現(xiàn)在還是一個不靠譜的階段。谷歌也在今年發(fā)布了一套對于自然語言能夠做句子分析的引擎,把主語、謂語、賓語提出來,但是準(zhǔn)確度只有90%,提不上去了,因為這個時候光靠統(tǒng)計靠語法已經(jīng)不能支撐,往下是需要對句子當(dāng)中的具體概念有理解才能消除歧義。我們知道不能把馬路放在冰箱上面,這對于人來講非常好理解,但是對計算機的挑戰(zhàn)非常大,這是深度學(xué)習(xí)人工智能還不夠的地方。
很敏感的問題,無人駕駛靠譜嗎?今天百度在大會上也提出了發(fā)布無人駕駛汽車,但是從我的了解,如果以今天人類的技術(shù),我們確實再見過的場景和封閉場景中都可以使用。但是對于真正開放的環(huán)境,不只跑在高速上的汽車,以現(xiàn)在人類的技術(shù)是不安全的,因為這個場景只要沒見過,可能會犯嚴(yán)重的錯誤,就像AlphaGo下棋一樣會突然發(fā)瘋,所以作為輔助駕駛是可以的,無人駕駛在真正的技術(shù)突破以前還做不到。今天的深度學(xué)習(xí)缺乏推理,缺乏對符號的理解,如果沒有符號,對自然語言的理解就會成為瓶頸。
即便是這樣,我們也提到了(人工智能)能夠取代一些行業(yè),比如說棋手、醫(yī)生、司機,機器在里面都可以做很好的輔助,但是對于大家沒見過的創(chuàng)造性的事情,比如規(guī)劃、科研,其實對于機器來說還很難,今天在媒體上機器自動寫文章、自動畫圖,在科研層面展示出了一些魔力,但是還沒有到可以取代人的階段,所以在這里面我先把大家對人工智能預(yù)期降低下來。
目前有很多人比較關(guān)心,人工智能是否會出現(xiàn)第三次退潮,前兩次我們都認(rèn)為人工智能到來了,但是這次可能會比之前好,這次是人工智能第一次真正進入到了使用,切實在語言處理、聲音處理、圖象處理,和在一些高維數(shù)據(jù)空間上能夠比人做的更好。所以這次的區(qū)別就是大量資金、資本投入到了人工智能。也有大量的研究人員在畢業(yè)以后從事人工智能工作,這是和之前不一樣的。所以一方面我們開始使用這項技術(shù),另外一方面我們開始期待不斷產(chǎn)生新的突破。
目前很多公司都在做人工智能,蘋果、微軟、亞馬遜、谷歌。這里面起步最早做對話系統(tǒng)的是蘋果的Siri。但是這個系統(tǒng)并不成功,在中國用的人很少。為什么?因為現(xiàn)在技術(shù)沒有到來,對于自然語言的處理能力、自然語言的理解能力非常有限。那么為什么蘋果這樣一個追求極致的公司,會把這個系統(tǒng)發(fā)布出來呢?一種可能性是蘋果對技術(shù)了解不夠;另一種可能性是我認(rèn)為這是喬布斯的一個遺愿。我們知道發(fā)布iPhone手機的時候,喬布斯病重,只能躺在病床上看發(fā)布會,發(fā)布會完成之后,他很快就離開人世了,所以Siri就像一個早產(chǎn)的嬰兒,在iPhone4s里面發(fā)布出來,所以我認(rèn)為這樣的系統(tǒng)代表著人類終極人機交互的暢想。
事實上在大量的文學(xué)作品、科幻電影里面,都會提到問答機器人,不管是《星球大戰(zhàn)》、《超能陸戰(zhàn)隊》,還是《星際穿越》都提到了。阿西莫夫的短篇小說《最后的問題》,描繪就是人類造了一個機器,把所有的資源都用了上去。這個機器可以回答其他任何問題,卻有一個問題回答不了,就是“宇宙是怎么誕生的”,這是文學(xué)作品對問答機器的思考。
在我們討論問答技術(shù)和討論人機對話的時候,輸入法也許是最好的一個切入場景。輸入法作為一個人的分身,更容易幫助你建立思考。輸入法也會從一個拼音工具走向一個對話和問答系統(tǒng)。
搜狗有兩個核心產(chǎn)品,一個是輸入法一個是搜索,一個是搜索信息一個是表達信息。隨著AI技術(shù)的發(fā)展,我們能更好地解放人的思考。我們有一個理念,包括兩件事情:一個是做自然的交互,不只是語音,還包括語言;另外就是做知識的計算,能讓機器開始逐步建立推理的能力。搜狗輸入法在中國擁有最大的語言數(shù)據(jù)處理積累,我們有機會在這個領(lǐng)域取得突破。
期待人工智能能夠真正取得技術(shù)上的突破,給未來世界帶來便利。
上一篇: 大學(xué)生“慢就業(yè)”現(xiàn)象需理性看待
下一篇: 關(guān)于未來,還請你不要放棄希望
版權(quán)聲明:文章觀點僅代表作者觀點,作為參考,不代表本站觀點。部分文章來源于網(wǎng)絡(luò),如果網(wǎng)站中圖片和文字侵犯了您的版權(quán),請聯(lián)系我們及時刪除處理!轉(zhuǎn)載本站內(nèi)容,請注明轉(zhuǎn)載網(wǎng)址、作者和出處,避免無謂的侵權(quán)糾紛。
