丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給老王
發(fā)送

0

騰訊副總裁姚星:解密“低調(diào)”的騰訊AI部門,揭開AI真實(shí)的希望和隱憂

本文作者: 老王 2017-01-06 22:25
導(dǎo)語:姚星詳細(xì)介紹了騰訊 AI 部門所做的事,以及該如何提升機(jī)器學(xué)習(xí)的能力和對 AI 的看法。

雷鋒網(wǎng)按:今日在騰訊研究院年會中,騰訊副總裁姚星發(fā)表演講《AI 真實(shí)的希望和隱憂》,他在大會中介紹了“低調(diào)”的騰訊 AI 部門所做的事,并深入講解該如何提升機(jī)器學(xué)習(xí)的能力以及對 AI 的看法。文章由雷鋒網(wǎng)進(jìn)行編輯。雷鋒網(wǎng)

騰訊副總裁姚星:解密“低調(diào)”的騰訊AI部門,揭開AI真實(shí)的希望和隱憂

騰訊在 AI 方面確實(shí)很低調(diào),很多人問我騰訊有沒有做 AI?怎么從來沒有向外宣傳呢?

解密騰訊 AI 部門

實(shí)際上從 2016 年 4 月份開始,騰訊成立了自己的 AI 部門。目前這個部門擁有 30 多個科學(xué)家,90% 以上的人都是博士學(xué)歷,絕大多數(shù)人都是海外名校歸來,包括哈佛、康奈爾、麻省理工、哥倫比亞大學(xué)等高校。

騰訊的 AI 可能并不像其他巨頭那樣出名,比如說擁有 AlphaGo 的谷歌;擁有無人車和度秘的百度;以及擁有一些優(yōu)秀圖像識別項(xiàng)目的 Facebook 等等。

騰訊 AI 主要是集中在四個垂直領(lǐng)域:計(jì)算機(jī)視覺、OCR、語音識別、NLP。每一個領(lǐng)域里都會拓展到更多深層次的研究。在計(jì)算機(jī)視覺領(lǐng)域,除了傳統(tǒng)的圖像處理,還會涉及到 AR 以及空間定位技術(shù)等。

語音識別方向,除了傳統(tǒng)的語音識別、語音合成,還會將相關(guān)技術(shù)置入在自動翻譯當(dāng)中。另外,除了傳統(tǒng)的自然語言處理這種認(rèn)知行為的研究,騰訊還這些技術(shù)進(jìn)行落地研發(fā)聊天機(jī)器人等。

騰訊這四個 AI 研究方向,與騰訊現(xiàn)有的業(yè)務(wù)緊密結(jié)合。

騰訊作為一家社交為長的公司,會根據(jù)社交業(yè)務(wù)創(chuàng)造 AI 能力和產(chǎn)品,包括聊天機(jī)器人、智能助手,都會在社交的基礎(chǔ)上進(jìn)行研究。

與此同時,游戲是騰訊非常重要的一項(xiàng)業(yè)務(wù)。未來騰訊會在游戲里面引入更多 AI 能力,設(shè)想這樣一個場景,未來 LOL 是不是可以有 AI 參加這種世界競賽,跟人對打。騰訊也有一款很受歡迎的手游叫做王者榮耀,如果利用 AI 把這里面的能力提升,就會提高可玩性和樂趣性。

除此之外,騰訊還會提供我們很多工具類 AI,包括人臉識別、語音識別、自然語言處理,以及學(xué)習(xí)平臺等。

機(jī)器學(xué)習(xí)取得突破的三大原因

AI 在這 60 年來一直都是起起落落,然后在去年突然大爆發(fā),一直延續(xù)到現(xiàn)在。

從九十年代深藍(lán)打敗了卡斯帕羅夫,到沃森在《危險邊緣》挑戰(zhàn)賽里面取得了冠軍,再到去年 AlphaGo 擊敗李世石。AI 的整個發(fā)展史里有很多技術(shù)方面的巨大演進(jìn),第一個就是 2006 年在深度學(xué)習(xí)上的突破。早期人類想學(xué)飛翔,最初的方法是粘上羽毛,像鳥一樣。但最終真正的飛翔原理是要通過空氣動力學(xué)去解決飛鳥的原理,這就是深度學(xué)習(xí)的一個思想。之所以現(xiàn)在能在很多的這種工業(yè)上面,在很多應(yīng)用上面進(jìn)行突破才能完成,本質(zhì)上是掌握了它內(nèi)在的方法,而不是表面的方法。人工智能也如此,學(xué)習(xí)算法方式的研究是非常重要的。

第二個是模型上的提升。機(jī)器學(xué)習(xí)在八九十年代也非常火,當(dāng)時有一個叫 SVM,它已經(jīng)是一種非常厲害的機(jī)器學(xué)習(xí)算法。當(dāng)它達(dá)到幾億、幾十億規(guī)模的時候,實(shí)際上它的計(jì)算能力就會急劇下降,做一個非常復(fù)雜的復(fù)合函數(shù)去描述這種方式,它通過 BP 多層連接,達(dá)到一個指數(shù)層倍的關(guān)系,描述十億可能只需要三層一千個節(jié)點(diǎn)的連接,就能構(gòu)建十億個特征出來。所以從本身來講,模型上的提升這也是深度學(xué)習(xí)的突破。

第三是在數(shù)學(xué)層面,即 BP上面問題的解決,反向傳播的問題。首先在數(shù)學(xué)理論上進(jìn)行,反向傳播是一個非常復(fù)雜的問題,在神經(jīng)網(wǎng)絡(luò)里面當(dāng)一個東西在傳遞很多層網(wǎng)絡(luò)中時,當(dāng)它往回我們要反向收斂的時候,均要去逼近最優(yōu)質(zhì)。但是當(dāng)層數(shù)往往過多的時候,會發(fā)生一個梯度消失或者梯度膨脹的問題。通過一些方法的解決,數(shù)學(xué)理論上的解決,很好解決了這種問題,所以在數(shù)學(xué)理論上面,建立了一個比較好的基礎(chǔ)。

正因?yàn)檫@三方面的優(yōu)勢,所以才使得機(jī)器學(xué)習(xí)如此火。而且這次浪潮會持續(xù)很遠(yuǎn),在 1933 年到 2000 年左右,整個傳統(tǒng)的淺層機(jī)器學(xué)習(xí)的學(xué)習(xí)方法,它有一個比較好的下降過程,但是 2000-2010 年這十年,它進(jìn)展非???。

在方法和模型上面可能都沒有進(jìn)行,突然在 2012 年左右,微軟研究院他們最開始在工業(yè)界把機(jī)器學(xué)習(xí)用到語音識別里面去,取得了極大性的突破。整個過程機(jī)器學(xué)習(xí)的能力的確是在過往的五年當(dāng)中,發(fā)展非常非常快的。講了很多機(jī)器學(xué)習(xí)的這種,剛剛說的發(fā)展,快速的發(fā)展,它的方法也很好,模型也很好,數(shù)學(xué)算法也在突破,但是現(xiàn)狀是什么呢?

人工智能的局限性

我雖然對 AI 的抱有很大期待很,同時認(rèn)為 AI 還存在很多的局限性。

第一個就是本身深入學(xué)習(xí)的能力。AI 跟人去相比,它有較大的差距。實(shí)際上現(xiàn)在所有的機(jī)器學(xué)習(xí)方法,我們都發(fā)現(xiàn)不管這個方法有多么的新提出來,它的學(xué)習(xí)過程都是要從頭開始學(xué),都要把數(shù)據(jù)重新進(jìn)行一次訓(xùn)練的過程。

但這跟人的學(xué)習(xí)能力相比確實(shí)有很大的差距,人有很多的智能是與生俱來的,就像小孩剛出生,不需要多長時間就知道這個世界是三維的,當(dāng)你把一個東西放在一個,把一個瓶子放在電視機(jī)的后面,他是知道的,在電視機(jī)后面有一個東西的,這是一些特征是與生俱來的,這個是跟生物的進(jìn)化是相關(guān)的。

所以人的這種,靈長類的動物跟單細(xì)胞動物相比,肯定是有與生俱來的能力。但是目前深度學(xué)習(xí)方法很遺憾,科學(xué)家們不管提出了多么優(yōu)秀的模型,都要重新開始學(xué),這是第一個跟人的學(xué)習(xí)能力相比,機(jī)器非常大的缺陷。

第二是不管有多么好的學(xué)習(xí)模型,它本質(zhì)上還是通過算力,利用計(jì)算能力去解決大數(shù)據(jù),用更大的計(jì)算能力去做更好的融合。過往是整個硬件發(fā)展,是順從了摩爾定律發(fā)展,發(fā)展非常之快,但是在未來的更多的參數(shù)下面,人們還有沒有這種能力,達(dá)到計(jì)算的效果,這要打上很大的問號。

再比如說 2006 年提出來的網(wǎng)絡(luò)模型,到后面劍橋大學(xué)提出的模型,再到谷歌,再到 2015 年神經(jīng)網(wǎng)絡(luò)。每一次新的模型提出都是把模型的層數(shù)加入更多,神經(jīng)單元更復(fù)雜,訓(xùn)練結(jié)果更長,得出來的結(jié)果也最優(yōu)。但是本身這種方法是不是還能像原來的方法一樣可持續(xù),這要打一個很大的問號。另外一個剛才解決的是圖像方面的問題,下面解決感知的問題,如果要解決認(rèn)知的問題,那差距就更大了。

人的語言是一個序列問題,這個語言序列問題如果要計(jì)算的話,這個算力無論如何都解決不了。人可以很容易在對話當(dāng)中,回溯到一個很長時間語句的某個片段的關(guān)鍵詞里面,但是在機(jī)器里面它卻不一定做到。雖然在最早的模型形成到現(xiàn)在長短記憶單元的模型,到現(xiàn)在騰訊的,帶有注意力的模型,但是總之來講,這種模型的演進(jìn)都還跟人相比是非常復(fù)雜的,是遠(yuǎn)不如人的。

比如說那天我看到一個對話,是三個人在對話,兩個人在聊,中間有大段聊去哪兒吃飯,突然有人問太陽呢?人知道這是描述太陽隊(duì)的,因?yàn)榍懊婧茉缰坝腥嗽诹模烁齑脑掝},突然來個太陽大家就知道,但是機(jī)器基本上是沒辦法識別的。夏天能穿多少穿多少,冬天能穿多少穿多少,兩句基本上一樣,但是前面去描述,把少給突出來了,后面把冬天多顯出來。

第二個例子我講的是語音識別,我看了一個笑話,語音識別很難搞,您好,方便面試嗎?我在重復(fù)這句話的時候,我都不知道自己在講方便面試嗎,還是方便面是嗎,的確這是一個非常難的問題,但是人的意識里有很多東西,是由于進(jìn)行反問的時候,再慢慢把這個東西帶出來。所以說目前的 AI 情況,在圖像里面,包括人臉做的多么多么厲害,實(shí)際上它在很多的約束條件下,它可能不能通過側(cè)臉去識別人臉,戴帽子的時候也比較難。所以它是在很多約束條件下面,人臉識別率可能只達(dá)到了 9%。這些問題也體現(xiàn)在語音識別上,語音識別也是在噪音比較小、沒有風(fēng)噪、車噪的環(huán)境下,機(jī)器識別率會有一個比較好的效果。但機(jī)器與人的基本能力相比還差距很大,更別說它在認(rèn)知方面,在 NLP 方面。

如何提升機(jī)器學(xué)習(xí)的能力?

AI 與人,包括機(jī)器學(xué)習(xí)與人能力上的有些差距,怎么去補(bǔ)齊差距呢?

第一個我覺得跟人相比要創(chuàng)造,我們現(xiàn)在所有都是基于大數(shù)據(jù),這些數(shù)據(jù)從何而來,這是非常重要的。這個數(shù)據(jù)現(xiàn)在是傳統(tǒng)的獲得而來,但更多的數(shù)據(jù)是本身能創(chuàng)造出來,當(dāng)然這條方法通過剛剛主持人介紹的,包括 AlphaGo 已經(jīng)在驗(yàn)證這樣的問題,通過增強(qiáng)學(xué)習(xí)去產(chǎn)生人類從未下過的棋,這是一種創(chuàng)造數(shù)據(jù)的能力,通過創(chuàng)造數(shù)據(jù)的能力產(chǎn)生更多的數(shù)據(jù),不一定是人創(chuàng)造了這些,去把這些東西更多的窮盡出來。在未來,如果在這方面發(fā)展的話,可能在增強(qiáng)學(xué)習(xí)方面,要進(jìn)行更多的發(fā)展和突破。

第二個就是舉一反三,什么叫舉一反三,AlphaGo 下圍棋能下倒世界冠軍,但是他的下棋方法到現(xiàn)在已經(jīng)不行了。因?yàn)樗姆椒ú⒉皇菫橄缕宥鴦?chuàng)造的,他不會進(jìn)行推導(dǎo)。當(dāng)我們驗(yàn)證大數(shù)據(jù)和一個非常好的效果的時候,我們數(shù)據(jù)量很小的時候,怎么把原來的模型遷移過來,這是非常重要的研究方向。

第三個方向和人相比就是歸納總結(jié)。人是非常能進(jìn)行一些總結(jié)的,包括像牛頓的第一定律,包括牛頓的萬有引力,都是人總結(jié)出來的,包括我們很多公理,但是目前機(jī)器學(xué)習(xí)是沒辦法進(jìn)行歸納總結(jié)的,我們之所以結(jié)果好,它并沒有提煉出公理和定律的關(guān)系。所以這方面未來我們要在歸納總結(jié),特別是無監(jiān)督學(xué)習(xí)上面,分類問題是有目標(biāo)去學(xué)習(xí)的,但聚類問題沒有目標(biāo)的時候,我們怎么把它聚好。

所以在這三個能力上面,我相信這是我們未來在 AI 上面要進(jìn)行提升的。第二個就是在整個的發(fā)展方向上面,剛剛講了很多說機(jī)器學(xué)習(xí)通過數(shù)據(jù)方法,它從傳統(tǒng)的淺層學(xué)習(xí)里面,我們所有通過統(tǒng)計(jì)學(xué)的概率論,完備的統(tǒng)計(jì)學(xué)概率論理論來支撐它,我們說到求這種函數(shù)極限的問題,已有很多完備的數(shù)學(xué)公式去證明,一定能解決它的問題,但是恰恰在我們機(jī)器學(xué)習(xí)上面,雖然前面我們用了隨機(jī)去找局部最優(yōu),但是它本身數(shù)學(xué)領(lǐng)域,它只是一個框架,我們在很多上面還是一個啟發(fā)式的約束,包括我們的初始化參數(shù)多少,包括我們學(xué)習(xí)率是多少,這都是有啟發(fā)性的。

在未來如果機(jī)器學(xué)習(xí)要繼續(xù)往下走的話,我們在數(shù)學(xué)理論上面一定要有強(qiáng)大的支撐,特別傳統(tǒng)的機(jī)器學(xué)習(xí),數(shù)學(xué)完備型,要遷移到我們機(jī)器學(xué)習(xí)上來。

大家知道神經(jīng)網(wǎng)絡(luò)的提出,很多來自于原來的腦神經(jīng)學(xué)科和生物系統(tǒng),在本身這個上面,我相信未來 AI 的發(fā)展要引入更多,不光是我們數(shù)學(xué)學(xué)科、計(jì)算機(jī)學(xué)科,還要引入腦學(xué)科神經(jīng)去引,因?yàn)槟X的神經(jīng)結(jié)構(gòu)就是,剛剛我提到了蟬紗神經(jīng)網(wǎng),已經(jīng)連接腦神經(jīng)的概念了,進(jìn)行跨層連接,達(dá)到一個非常好的效果。

當(dāng)然更多的東西我希望在未來,在交叉學(xué)科上面,包括融合生物、腦神經(jīng)甚至包括哲學(xué),這樣的話整個 AI 可能才有更多完備型的發(fā)展。另外一個地方就是,在當(dāng)今世界里面,AI 對所有公司來講,對所有人來講都應(yīng)該是平等的,所以我們一定要開放。比較好的是當(dāng)今世界所有的,在 AI 領(lǐng)域里面的大公司都在做,包括騰訊也會,我們看到很多包括谷歌、FaceBook 它也開放了非常多的網(wǎng)絡(luò)模型,包括我們了解現(xiàn)在很火的 Open AI 等等這些大的這種機(jī)器學(xué)習(xí)平臺先行者。騰訊在未來也會去進(jìn)行很多開放,讓更多的人來參與,進(jìn)行測試。所以整個過程就在未來 AI 的發(fā)展,我相信第一方面就是在能力上面,要跟人去匹敵的話,要進(jìn)行提升。第二個在整個學(xué)習(xí)的完備型,數(shù)學(xué)完備,學(xué)科完備上要進(jìn)行豐富。第三個就是所有大公司,應(yīng)以更加開放的心態(tài)去面對 AI,這才是未來 AI,AI 的未來。

中國的 AI 實(shí)力不亞于美國

說到這里我又要再次強(qiáng)調(diào)一下,AI 對騰訊來講非常重要,對中國整個互聯(lián)網(wǎng)都很重要。

在互聯(lián)網(wǎng)時代,我們跟美國最強(qiáng)的公司去比,還會有一些差距。但在 AI 時代,包括騰訊在內(nèi)的各大中國公司,是完全跟世界一流的公司是有匹敵之處的。為什么?

第一我們用戶量大、數(shù)據(jù)足夠多。

第二是應(yīng)用場景,作為騰訊來講,我們有很多把 AI 這種遙不可及的技術(shù)跟落地的機(jī)會,我們可以在微信、游戲、新聞、QQ 里面去落地 AI 場景。哪怕小到一點(diǎn)語音識別、圖像、聊天機(jī)器人等等,這都是我們可以去落地的地方。

第三個地方就是人才。目前機(jī)器學(xué)習(xí)領(lǐng)域的華人是非常多的,我參加過 2016 年的 ICML,有三千人,我敢說大概 30-40% 的人都是華人。其中 40% 的文章都是華人寫出來的。人才結(jié)構(gòu)上中國是有非常好的這種人才的基礎(chǔ),說正是基于我們數(shù)據(jù)的優(yōu)勢,我們場景落地的優(yōu)勢,我們?nèi)瞬沤Y(jié)構(gòu)的優(yōu)勢,我覺得在騰訊也好,中國其它互聯(lián)網(wǎng)對AI的未來大有可為。最后講一下騰訊的AI使命。我們的AI使命,讓 AI 無所不在。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

騰訊副總裁姚星:解密“低調(diào)”的騰訊AI部門,揭開AI真實(shí)的希望和隱憂

分享:
相關(guān)文章

編輯

微信 wangyafeng123456
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說