12
本文作者: 劉芳平 | 2015-10-11 10:00 |
人工智能(AI)有多智能呢?最近MIT的“ConceptNet”參與測(cè)試顯示其智商為4歲。4歲的孩子通常不會(huì)有什么時(shí)尚見解,但有一個(gè)創(chuàng)業(yè)團(tuán)隊(duì)正試圖使用人工智能來(lái)理解時(shí)尚,幫助普通人也能時(shí)尚起來(lái)。
這家公司叫碼隆科技,就是兩位創(chuàng)始人黃鼎隆和碼特(Matt Scott)名字的結(jié)合,這是一家中西合璧的公司,黃鼎隆是中國(guó)人,Matt來(lái)自紐約,兩人都是微軟出身的創(chuàng)業(yè)者。公司的產(chǎn)品StyleAI宣稱是“最時(shí)尚的人工智能”,目標(biāo)就是讓計(jì)算機(jī)可以理解時(shí)尚。
到底機(jī)器是怎么懂時(shí)尚的呢?雷鋒網(wǎng)編輯對(duì)Matt進(jìn)行了專訪。
雷鋒網(wǎng):時(shí)尚是藝術(shù),是一種感性的東西,機(jī)器怎么能懂呢?
Matt:過(guò)去幾年我們從學(xué)習(xí)和計(jì)算機(jī)視覺的發(fā)展中所了解到的是,電腦在模訪人類方面還是很在行的,它能根據(jù)人的反饋進(jìn)行學(xué)習(xí)。從數(shù)據(jù)驅(qū)動(dòng)的角度來(lái)看,它可以反映出人的情緒。但是藝術(shù)這種非常感性的事物電腦能給它進(jìn)行分類嗎?比如黑暗、可愛、漂亮,其實(shí)是可以的。原因是,網(wǎng)絡(luò)上存在海量的媒體內(nèi)容在討論什么是時(shí)尚和當(dāng)下流行,而通過(guò)精心設(shè)計(jì)的計(jì)算機(jī)架構(gòu)模型,能夠從人的角度去提取文章、照片的標(biāo)簽,從而進(jìn)行分類。這就是我們項(xiàng)目的一個(gè)大概想法。
雷鋒網(wǎng):但是設(shè)計(jì)一件衣服是需要?jiǎng)?chuàng)意的,機(jī)器在這方面似乎不太擅長(zhǎng)?
Matt:沒錯(cuò),我們并不是說(shuō)機(jī)器來(lái)設(shè)計(jì)衣服,但是電腦可以幫助人們選擇衣服。我們想解決的問(wèn)題是,整個(gè)世界中十分懂時(shí)尚的人是很少的,這些人多半自己就在時(shí)尚產(chǎn)業(yè)中,而大部分的人只是普通人,他們?nèi)绻兊脮r(shí)尚,通常就是通過(guò)看前面這群人寫的博客、雜志、照片之類的內(nèi)容。但是如果我們可以把這些數(shù)據(jù)(內(nèi)容)整合起來(lái)進(jìn)行分析(深度學(xué)習(xí)),或許可以找到一種新方法來(lái)做這件事,為普通人提供一款工具,幫助他們變得更時(shí)尚。
雷鋒網(wǎng):?jiǎn)栴}是,你不能只看當(dāng)下流行什么就穿什么,你得有自己的品味和個(gè)性呀?
Matt:沒錯(cuò),但我們不是說(shuō)提供一臺(tái)機(jī)器,然后一個(gè)人走進(jìn)來(lái)再出去就變時(shí)尚了。我們是想把用戶帶進(jìn)來(lái),然后讓他們來(lái)做決定。就像是用搜索引擎一樣,它只提供結(jié)果的排名,而并不強(qiáng)迫你點(diǎn)擊第一條結(jié)果。當(dāng)然,我們并不是要做搜索引擎,而是一個(gè)幫助你做決定的工具。
雷鋒網(wǎng):能不能多解釋一下產(chǎn)品背后的技術(shù),比如你們?cè)趺粗酪粋€(gè)用戶想要的是什么呢?
我們現(xiàn)在推出的產(chǎn)品還沒有這個(gè)功能,不過(guò)接下來(lái)我們會(huì)提供一個(gè)非常個(gè)性化的工具,可以了解用戶想要的是什么。
關(guān)于技術(shù)方面可以多解釋一下,雖然之前我說(shuō)我們做的不是搜索引擎,但其實(shí)和搜索引擎確實(shí)有很多相似的地方。首先,我們從網(wǎng)絡(luò)上收集關(guān)于時(shí)尚的海量數(shù)據(jù),找出一些已經(jīng)存在時(shí)尚標(biāo)簽的內(nèi)容(比如這張圖片是某位時(shí)尚明星的著裝照);然后,我們創(chuàng)造一個(gè)模型來(lái)分析這些數(shù)據(jù),用海量的數(shù)據(jù)來(lái)訓(xùn)練它,使它能夠理解圖片的色彩、紋理和Style,同時(shí)還有一小部分人可以幫忙給數(shù)據(jù)貼上標(biāo)簽;總的來(lái)說(shuō)就是用類似搜索引擎的數(shù)據(jù)加上很強(qiáng)大的AI模型,收集數(shù)據(jù)并分析這里面的時(shí)尚視覺元素。
之后,我們會(huì)把分析的結(jié)果,比如版型、類別和衣服之間的關(guān)聯(lián)等提取出來(lái),去匹配你的模型和喜好。不過(guò)這個(gè)技術(shù)目前還沒有應(yīng)用到產(chǎn)品上。
雷鋒網(wǎng):能否更加具體一些,比如針對(duì)一篇討論時(shí)尚的博文,機(jī)器如何理解它?
Matt:首先,我們會(huì)更加關(guān)注圖片內(nèi)容,我們已經(jīng)做了挺久的模型,能夠在沒有文字介紹的情況下理解一張圖片的特點(diǎn)。所以基本上只要有圖片就行,但如果這張圖是配了文字的,我們把它稱作Metadata(元數(shù)據(jù),即描述數(shù)據(jù)的數(shù)據(jù)),使用半監(jiān)督學(xué)習(xí)(Semi-Supervised)的方法,把它當(dāng)成標(biāo)簽去分析。
如何分析(Parse)則跟數(shù)據(jù)的來(lái)源有關(guān),像Pinterest、Instagram這些圖片社交網(wǎng)站有著無(wú)限的內(nèi)容,但我們不會(huì)漫無(wú)目的地去找數(shù)據(jù),而是首先判斷出高價(jià)值的內(nèi)容源,然后為它建立模型去提取出有用的數(shù)據(jù)。目前我們已經(jīng)找到了海量的數(shù)據(jù),這也是AI很火的原因,因?yàn)楝F(xiàn)在有爆炸式增長(zhǎng)的數(shù)據(jù),我們只是找到一個(gè)細(xì)分領(lǐng)域,試圖用AI去理解時(shí)尚。
雷鋒網(wǎng):機(jī)器又是如何理解一張圖片的呢?
Matt:我們用的是一項(xiàng)近期有重大突破的技術(shù),叫人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network),更準(zhǔn)確地說(shuō)就是深度學(xué)習(xí)?;旧?,我們創(chuàng)造了一臺(tái)可以自我編程的機(jī)器,可以像人一樣去理解,看到一張圖的顏色、形狀、模式,而不僅僅是像素點(diǎn)。
當(dāng)一張圖進(jìn)入我們?cè)O(shè)計(jì)的這個(gè)模型時(shí),它會(huì)給出各種各樣的信號(hào),告訴我們這是一張?jiān)鯓拥膱D,我們稱之為Semantic Extraction(語(yǔ)義提取)。
雷鋒網(wǎng):那么用戶該如何進(jìn)行交互呢?比如我想找到適合自己的時(shí)尚,是透過(guò)App、網(wǎng)站還是?
Matt:目前我們主要把精力集中在核心技術(shù)上,不過(guò)也已經(jīng)推出了幾個(gè)小應(yīng)用,包括時(shí)尚大比拼、我要穿世界,這些只是我們的技術(shù)能實(shí)現(xiàn)的部分功能。把這些功能整合起來(lái)的應(yīng)用目前還沒有推出。
StyleAI目前有時(shí)尚大比拼和我要穿世界兩款產(chǎn)品,都是通過(guò)上傳圖片來(lái)操作,前者會(huì)給圖片著裝的時(shí)尚程度打分然后和別人PK,后者可以上傳任意圖片,StyleAI會(huì)反饋幾張時(shí)裝圖片。(見下圖)
我要穿世界
如果從記者在微信公眾號(hào)和網(wǎng)頁(yè)上的功能體驗(yàn)來(lái)看,我并沒有被這所謂的“人工智能時(shí)尚”所打動(dòng),目前只能說(shuō)是一個(gè)有點(diǎn)好玩的東西。但就像Matt所說(shuō)的,最終的產(chǎn)品還沒出來(lái),記者還是有一點(diǎn)期待的。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。