0
本文作者: 岑大師 | 2017-10-04 23:19 |
得益于各種套件,今天的機(jī)器學(xué)習(xí)的門檻已經(jīng)越來(lái)越低。但Google顯然并不滿足于此,其最新推出了Teachable Machine項(xiàng)目,讓用戶無(wú)需編程就可以用手機(jī)、平板、計(jì)算機(jī)等設(shè)備的攝像頭采集數(shù)據(jù)進(jìn)行機(jī)器學(xué)習(xí)。這一項(xiàng)目是Google的A.I. Experiment的一部分,源代碼已經(jīng)公布在Github上。
簡(jiǎn)單的說(shuō),Teachable Machine是一個(gè)基于瀏覽器的機(jī)器學(xué)習(xí)演示實(shí)驗(yàn),用一個(gè)叫做Deeplearn.js的庫(kù)構(gòu)建,網(wǎng)頁(yè)開發(fā)者可以編寫一個(gè)簡(jiǎn)單的視覺輸入,并設(shè)定輸出和三個(gè)訓(xùn)練分類器,來(lái)在瀏覽器中訓(xùn)練新的神經(jīng)網(wǎng)絡(luò)。雷鋒網(wǎng)發(fā)現(xiàn),在視頻演示中Google沒(méi)有詳細(xì)說(shuō)明更深一步的機(jī)器學(xué)習(xí)工作原理,但足以讓大多數(shù)人對(duì)機(jī)器學(xué)習(xí)有一個(gè)最基礎(chǔ)的概念。
如下圖所示,在網(wǎng)頁(yè)中可以調(diào)用攝像頭獲得不少于30幅的圖像信息,作為訓(xùn)練的“輸入”;中間的學(xué)習(xí)框包括三個(gè)分類器,用Green、Purple、Orange表示,機(jī)器通過(guò)對(duì)你做出的動(dòng)作進(jìn)行學(xué)習(xí),從而“學(xué)會(huì)”對(duì)相應(yīng)動(dòng)作進(jìn)行識(shí)別;最后是輸出部分,分類器根據(jù)不同的輸入,按照訓(xùn)練結(jié)果進(jìn)行分類給出最右側(cè)的輸出結(jié)果。
首先訓(xùn)練Green分類器,如圖所示,訓(xùn)練者抬起手,按下“Train Green”按鈕,攝像頭自動(dòng)生成了一個(gè)包含若干個(gè)抬手圖片的訓(xùn)練集。我們可以看到,分類器可以100%識(shí)別出抬手的動(dòng)作并將其與貓關(guān)聯(lián)。
類似可以訓(xùn)練其他分類器,例如放下手訓(xùn)練Purple分類器并對(duì)應(yīng)到狗的輸出。
然后我們就可以開始調(diào)戲機(jī)器了:如果你半舉手,機(jī)器認(rèn)為你有64%的可能是抬手,35%的可能是不抬手,對(duì)應(yīng)仍然輸出貓;
如果我們舉起另一邊手呢?機(jī)器雖然沒(méi)有見過(guò)你舉起另一邊手的圖片,但是還是能100%確定應(yīng)該輸出貓。
輸出可設(shè)定為圖片、聲音或者語(yǔ)音,開發(fā)者可以很方便將這些輸出調(diào)換稱自己所需要的素材。
對(duì)于那些對(duì)機(jī)器學(xué)習(xí)一無(wú)所知的雷鋒網(wǎng)讀者來(lái)說(shuō),該實(shí)驗(yàn)可以直觀的展示解機(jī)器學(xué)習(xí)的基本概念。這一項(xiàng)目運(yùn)行在基于Java的deeplearn.js框架上,可以在大多數(shù)硬件(據(jù)反饋目前不支持iPad Pro)的大多數(shù)瀏覽器中順暢運(yùn)行。
完整的視頻演示在這里:
看了那么多,你是否已經(jīng)迫不及待要去試一下了呢?感興趣的雷鋒網(wǎng)讀者可以在Github上查看開源代碼:https://github.com/googlecreativelab/teachable-machine,自己動(dòng)手試一下吧!
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。