丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

本文作者: 楊曉凡 編輯:郭奕欣 2018-03-15 12:06
導(dǎo)語(yǔ):給機(jī)器學(xué)習(xí)解開枷鎖

雷鋒網(wǎng) AI 科技評(píng)論按:推薦系統(tǒng)是現(xiàn)代互聯(lián)網(wǎng)服務(wù)的重要組成部分之一,不管是 YouTube 和亞馬遜,還是優(yōu)酷和淘寶,都通過推薦系統(tǒng)向用戶推薦他們可能感興趣的內(nèi)容,用戶得以看到更多自己關(guān)心的內(nèi)容、在頁(yè)面上逗留更多時(shí)間,服務(wù)提供商和網(wǎng)購(gòu)平臺(tái)的商戶們也由此獲得更多的收入。

蓋坤博士領(lǐng)導(dǎo)的阿里媽媽精準(zhǔn)定向技術(shù)團(tuán)隊(duì)就在推薦系統(tǒng)方面有諸多研究成果。之前我們就介紹過一篇來(lái)自他們的論文,他們?cè)O(shè)計(jì)的深度興趣網(wǎng)絡(luò)(Deep Interest Network,DIN)能更好地利用用戶歷史行為數(shù)據(jù),提升廣告點(diǎn)擊預(yù)測(cè)的準(zhǔn)確率。

最近蓋坤團(tuán)隊(duì)的一篇新論文《Learning Tree-based Model for Recommender Systems》也介紹了他們?cè)谕扑]系統(tǒng)算法設(shè)計(jì)方面的新進(jìn)展。雷鋒網(wǎng) AI 科技評(píng)論把論文內(nèi)容介紹如下。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

背景

對(duì)于生產(chǎn)級(jí)別的推薦系統(tǒng)來(lái)說(shuō),語(yǔ)料庫(kù)的大小其實(shí)是算法選擇的一大限制。直觀地來(lái)說(shuō),推薦系統(tǒng)需要從各項(xiàng)語(yǔ)料(商品或者視頻)中挑出和用戶最為匹配的條目作為推薦結(jié)果。當(dāng)語(yǔ)料庫(kù)較小時(shí),各種方法都可以選用;但當(dāng)語(yǔ)料庫(kù)很大時(shí),那些計(jì)算復(fù)雜度隨語(yǔ)料數(shù)量線性增加的算法就是難以接受的了。

研究人員們?cè)缙谔岢龅膮f(xié)同過濾推薦算法(collaborative filtering)就是一類能以相對(duì)小的計(jì)算能力處理大規(guī)模語(yǔ)料的算法,其中典型的基于物品的協(xié)同過濾算法 ItemCF 可以預(yù)先計(jì)算物品對(duì)之間的相似度,然后根據(jù)用戶的歷史行為選出最相似的物品。這種方法簡(jiǎn)單有效,而且已經(jīng)可以為不同的用戶提供個(gè)性化的推薦結(jié)果,但它最好情況下也只能推薦與用戶看過的商品相似的其它商品,無(wú)法真正挖掘用戶的興趣,而且推薦結(jié)果也沒有新穎性(對(duì)用戶來(lái)說(shuō)沒有驚喜度)。

隨著機(jī)器學(xué)習(xí)的興起,「學(xué)出一個(gè)推薦系統(tǒng)模型」的想法被證明不僅可行,而且推薦結(jié)果也有明顯的進(jìn)步。理論上,學(xué)到的模型應(yīng)當(dāng)為每一對(duì)「用戶 - 商品」對(duì)計(jì)算匹配度,然后把算出的匹配度排序,推薦排在前列的商品。學(xué)到的模型固然可以帶來(lái)優(yōu)秀的推薦質(zhì)量,但這樣的做法同時(shí)也會(huì)帶來(lái)線性增加的計(jì)算復(fù)雜度,用戶和商品數(shù)量大到一定程度就無(wú)法使用了。所以研究人員們也提出了一些替代方法,比如建立矩陣分解(matrix factorization)模型,把用戶 - 商品對(duì)分解為用戶向量和商品向量,然后把兩個(gè)向量的內(nèi)積或者距離作為匹配度。這樣形式的推薦問題在有限時(shí)間內(nèi)可以近似求解,比如用哈?;蛘吡炕椒ń茖ふ?k-最近鄰,所以也在工業(yè)界得到了廣泛應(yīng)用。YouTube 介紹自己的推薦系統(tǒng)的論文《Deep Neural Networks for YouTube Recommendations》中就探索了使用兩路多層網(wǎng)絡(luò)分別產(chǎn)生用戶向量和商品向量最后做內(nèi)積計(jì)算的方法。

不過向量?jī)?nèi)積方法也仍然極大地限制了模型的能力。比如點(diǎn)擊通過率(click through rate)預(yù)估中需要使用用戶歷史行為和商品的交叉特征,但大部分特征無(wú)法用內(nèi)積的形式表示。甚至于,即便只是把固定的內(nèi)積計(jì)算步驟換成一個(gè)多層前饋神經(jīng)網(wǎng)絡(luò)都能改善推薦結(jié)果。更強(qiáng)大、更自由的模型仍然大有可為。

基于樹搜索的深度推薦模型

在這樣的背景下,蓋坤團(tuán)隊(duì)希望通過新的匹配和推薦技術(shù)解開計(jì)算復(fù)雜度的枷鎖,允許在大規(guī)模語(yǔ)料庫(kù)上自由地使用各種模型。在論文中他們提出了新的基于樹搜索的深度推薦模型(tree-based deep recommendation model,TDM)。

實(shí)際上,樹形的層級(jí)化信息結(jié)構(gòu)在各種領(lǐng)域都天然地存在,比如 iPhone 這個(gè)細(xì)分商品品類就可以歸在“智能手機(jī)”這個(gè)粗粒度商品品類下面。文中提出的 TDM 就利用了這種層級(jí)化的信息結(jié)構(gòu),把推薦問題轉(zhuǎn)化為一系列層級(jí)化分類問題。利用從粗到細(xì)的逐步分類過程,TDM 不僅提高了推薦準(zhǔn)確率,而且可以把計(jì)算復(fù)雜度從關(guān)于語(yǔ)料數(shù)量線性增加降低到對(duì)數(shù)增加。

TDM 的關(guān)鍵設(shè)計(jì)可以分為新型樹結(jié)構(gòu)的設(shè)計(jì)、深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)、樹結(jié)構(gòu)的學(xué)習(xí)三部分。

新型樹結(jié)構(gòu)降低計(jì)算復(fù)雜度、降低搜索難度

對(duì)于樹結(jié)構(gòu),我們很容易想到熟悉的 hierarchical softmax 樹,其中每次分支都是一次二分類。這一面導(dǎo)致從上向下搜索時(shí)不能保證一次就找到最優(yōu)的葉子,仍然需要遍歷整個(gè)樹;另一面,在推薦系統(tǒng)的場(chǎng)景下其實(shí)我們希望找到多個(gè)相似的葉子,hierarchical softmax 就不是那么適合。

(雷鋒網(wǎng) AI 科技評(píng)論注:softmax 模型里每類的概率正比于類別自己的指數(shù)項(xiàng),但具體計(jì)算一類的概率時(shí)需要用自己的指數(shù)項(xiàng)除以一個(gè)歸一化項(xiàng),這個(gè)歸一化項(xiàng)是所有類別的指數(shù)項(xiàng)的加和。所以導(dǎo)致了對(duì)多類問題中,即使計(jì)算其中一個(gè)類別的概率,softmax 的計(jì)算復(fù)雜度也很高。Hierachical softmax 的動(dòng)機(jī)和貢獻(xiàn)是用樹狀連乘概率形式避免掉了歸一化項(xiàng)的計(jì)算,節(jié)省了計(jì)算某一類的計(jì)算量。但對(duì)于尋優(yōu)檢索問題,它的連乘概率形式不保證每層進(jìn)行貪婪搜索能找到全局最優(yōu),所以對(duì)大商品庫(kù)下推薦最好商品這個(gè)尋優(yōu)問題仍需要遍歷全部商品進(jìn)行計(jì)算。)

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

TDM 的關(guān)鍵是使用了一種新的類似最大堆(max-heap like)的樹結(jié)構(gòu),如上圖(圖中示例是一個(gè)完全二叉樹,實(shí)際中也可以不是)。設(shè)用戶 u (包含用戶身份、歷史行為等)對(duì)第 j 層的節(jié)點(diǎn) n 代表的商品品類感興趣的概率為 P(j)(n|u) ,那么每個(gè)非葉子節(jié)點(diǎn)都滿足: P(j)(n|u) 的真實(shí)值 = n 節(jié)點(diǎn)的所有子節(jié)點(diǎn) {nc}中最大的 P(j+1)(nc|u) 除以正則化項(xiàng) α(j);正則化項(xiàng) α(j) 的作用是讓第 j 層所有節(jié)點(diǎn)的概率的和為 1。

對(duì)于推薦系統(tǒng)而言,對(duì)這個(gè)樹做搜索的目標(biāo)是找到 k 個(gè)偏好概率最大的葉子。那么搜索時(shí)可以在每層中找到 k 個(gè)概率值最大的節(jié)點(diǎn),然后只有這 k 個(gè)節(jié)點(diǎn)的子節(jié)點(diǎn)會(huì)繼續(xù)向下搜索;最終找到概率值最高的 k 個(gè)葉子。根據(jù)這樣的設(shè)計(jì),搜索過程中可以不知道每個(gè)節(jié)點(diǎn)的概率的確切值,只需知道同一層節(jié)點(diǎn)之間的大小順序就可以完成搜索。據(jù)此,作者們也根據(jù)用戶的隱式反饋數(shù)據(jù)和神經(jīng)網(wǎng)絡(luò)來(lái)訓(xùn)練每個(gè)節(jié)點(diǎn)的辨別器,讓它們可以對(duì)偏好概率排序。

在訓(xùn)練時(shí),用戶實(shí)際沒有進(jìn)行互動(dòng)的節(jié)點(diǎn)也就可以隨機(jī)選擇一部分作為訓(xùn)練中的負(fù)例。這種隨機(jī)選擇作為負(fù)例的做法還有一個(gè)好處,相比 hierarchical softmax 樹中訓(xùn)練模型分辨最優(yōu)和次優(yōu)節(jié)點(diǎn),隨機(jī)選擇的負(fù)例會(huì)讓每個(gè)節(jié)點(diǎn)的辨別器都成為當(dāng)前層中的全局辨別器,即便當(dāng)上一層的辨別器出了問題、選擇了一些不好的子節(jié)點(diǎn)時(shí),下一層的辨別器也有能力把所有這些子節(jié)點(diǎn)中好的那一部分挑出來(lái)。

通過這樣的樹結(jié)構(gòu)設(shè)計(jì),尋找節(jié)點(diǎn)的過程是從高向低、層層遞進(jìn)的。對(duì)于大小為 M 的語(yǔ)料庫(kù),最多只需要 2*k*log M 次分支就可以在完全二叉樹中找到最終需要的 k 個(gè)推薦結(jié)果??s減到對(duì)數(shù)級(jí)別的計(jì)算復(fù)雜度也意味著可以在其上使用更高級(jí)的概率二分類模型。層層遞進(jìn)中每一次只需要做一個(gè)簡(jiǎn)單分類問題的設(shè)計(jì)也比傳統(tǒng)逐個(gè)搜索葉子節(jié)點(diǎn)的難度大大降低。

另外,樹結(jié)構(gòu)作為一種索引也是可以學(xué)習(xí)的,從而讓其中的商品和概念可以被更快地提取到;這同時(shí)也有助于模型的訓(xùn)練。作者們也提出了一種樹結(jié)構(gòu)的學(xué)習(xí)方法,可以合并訓(xùn)練神經(jīng)網(wǎng)絡(luò)和樹結(jié)構(gòu),見下文。

時(shí)間分片輸入、帶有注意力模塊的深度神經(jīng)網(wǎng)絡(luò)

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

受到之前在點(diǎn)擊通過率 CTR 模型方面研究的啟發(fā),作者們?cè)O(shè)計(jì)的深度神經(jīng)網(wǎng)絡(luò)模型(上圖)可以從樹中學(xué)到低維的嵌入,然后結(jié)合注意力模塊尋找相關(guān)的用戶行為,以便更好地表征用戶。網(wǎng)絡(luò)的輸入也可以接收多個(gè)塊,每個(gè)塊中包含用戶在不同時(shí)間窗口內(nèi)的行為。借助注意力模塊和后部的多層神經(jīng)網(wǎng)絡(luò),這個(gè)模型的表現(xiàn)和容量得以大幅提高,同時(shí)也不再受到前文提到過的表示為向量和向量?jī)?nèi)積的限制。

樹結(jié)構(gòu)學(xué)習(xí)

根據(jù)前面的設(shè)計(jì),學(xué)到一個(gè)好的樹對(duì)整個(gè)推薦模型發(fā)揮出良好表現(xiàn)起著重要作用。直接參照現(xiàn)有數(shù)據(jù)庫(kù)的一致性或者相似性構(gòu)建樹結(jié)構(gòu)很可能導(dǎo)致不平衡,這對(duì)訓(xùn)練和節(jié)點(diǎn)檢索都有負(fù)面影響。所以作者們也新設(shè)計(jì)了合理、可行的樹構(gòu)建和學(xué)習(xí)方法。

首先依據(jù)「相似的商品應(yīng)當(dāng)具有相近的位置」的思路對(duì)樹結(jié)構(gòu)進(jìn)行初始化。初始樹的構(gòu)建利用了商品的類別分類信息,隨機(jī)排序所有的類別后,以隨機(jī)順序把同一類的商品安排在一起;同時(shí)屬于多個(gè)品類的商品會(huì)唯一地歸為其中某一個(gè)類,從而得到一個(gè)商品的有序列表。然后反復(fù)對(duì)有序列表做二分割,直到讓每個(gè)集中都只含有一個(gè)商品,這樣就得到了接近完全的二叉樹。這樣基于品類的初始化方法比完全隨機(jī)的初始化方法具有更好的層次性。

然后,深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練后可以為樹中的每個(gè)葉子節(jié)點(diǎn)生成一個(gè)嵌入,那么這些嵌入向量也就可以用來(lái)聚類為一個(gè)新的樹。K-means 聚類對(duì)于大規(guī)模語(yǔ)料庫(kù)就是不錯(cuò)的選擇。在實(shí)驗(yàn)中,單臺(tái)服務(wù)器只花一個(gè)小時(shí)時(shí)間就可以完成大小為四百萬(wàn)的語(yǔ)料庫(kù)的聚類成樹。

最后,新生成的樹還可以用來(lái)繼續(xù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)。通過交替生成新的樹以及訓(xùn)練神經(jīng)網(wǎng)絡(luò),兩者得以合并訓(xùn)練,樹結(jié)構(gòu)和網(wǎng)絡(luò)表現(xiàn)都得以繼續(xù)優(yōu)化。

模型表現(xiàn)

作者們?cè)?nbsp;MovieLens-20M 數(shù)據(jù)集上,以及根據(jù)部分真實(shí)淘寶用戶進(jìn)行了測(cè)試。數(shù)據(jù)規(guī)模如下圖。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

參與對(duì)比的基準(zhǔn)模型包括 FM 矩陣分解、BPR-MF 隱式反饋推薦矩陣分解、 ItemCF 基于物品的協(xié)同過濾算法、YouTube product-DNN。TDM 的變種則包括去掉注意力模塊、使用和 YouTube product-DNN 同樣的內(nèi)積方法的 TDM product-DNN,僅去掉激活模塊的 TDM DNN,以及使用 hierarchical softmax 樹的 TDM attention-DNN-HS。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

上圖測(cè)試結(jié)果不僅反映出了所提的 TDM 模型的有效性,幾個(gè)變體之間的對(duì)比也分別體現(xiàn)了注意力模塊帶來(lái)的 10% 的召回率提升和去掉內(nèi)積限制的巨大作用。使用 hierarchical softmax 樹的 TDM attention-DNN-HS 則帶來(lái)的最差了表現(xiàn),也表明了它不適合推薦任務(wù)。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

前面我們也提到了推薦結(jié)果需要有一定的新穎性。上圖的測(cè)試中限定了推薦結(jié)果必須來(lái)自用戶沒有行為過的類目下的商品,作為推薦準(zhǔn)確率和新穎性的結(jié)合度量。TDM 的表現(xiàn)自然一騎絕塵。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

針對(duì)樹學(xué)習(xí)的單項(xiàng)測(cè)試也表明了它帶來(lái)的可見提升。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

作者們也在淘寶 app 的真實(shí)訪問流量上進(jìn)行了測(cè)試。對(duì)比的基準(zhǔn)方法是通過邏輯回歸挑選出用戶有過互動(dòng)的商品聚類,這是一個(gè)表現(xiàn)很好的基準(zhǔn)線,而 TDM 模型的點(diǎn)擊通過率及廣告收入仍然有顯著提升。這還僅僅是 TDM 的首個(gè)版本實(shí)現(xiàn),后續(xù)相信還有不小提升空間。

最后,作者們也關(guān)注了模型的運(yùn)行速度。對(duì)于淘寶的廣告展示系統(tǒng),TDM 的神經(jīng)網(wǎng)絡(luò)平均只需要 6 毫秒就可以完成一次推薦,不僅不構(gòu)成整個(gè)推薦系統(tǒng)的性能瓶頸,甚至還比后續(xù)的點(diǎn)擊通過率預(yù)測(cè)模型運(yùn)行還快。

結(jié)論

這篇論文中作者們首先探究了基于模型的系統(tǒng)應(yīng)用于大規(guī)模語(yǔ)料推薦場(chǎng)景存在的問題,并提出了基于樹結(jié)構(gòu)的新的匹配與推薦算法范式,希望借此在推薦系統(tǒng)中應(yīng)用任意的模型。作者們提出的樹學(xué)習(xí)方法和 TDM 模型也在測(cè)試中獲得了良好表現(xiàn),召回率和新穎性都有大幅提高。蓋坤博士表示:「雖然初期很令人興奮,但我們深知這個(gè)技術(shù)并不完美,還有很多工作要做。并且解決匹配問題也不意味著解決推薦中的所有問題。歡迎更多人來(lái)探討交流?!?/p>

論文地址:https://arxiv.org/abs/1801.02294 

雷鋒網(wǎng) AI 科技評(píng)論編譯,感謝蓋坤博士的審閱指正。更多人工智能、機(jī)器學(xué)習(xí)前沿技術(shù)及應(yīng)用,請(qǐng)繼續(xù)關(guān)注雷鋒網(wǎng) AI 科技評(píng)論。

相關(guān)文章:

AI能看懂英文,阿里巴巴奪實(shí)體發(fā)現(xiàn)測(cè)評(píng)全球第一

阿里巴巴年度技術(shù)總結(jié):人工智能在搜索的應(yīng)用和實(shí)踐

阿里巴巴WSDM Cup 2018奪得第二名,獲獎(jiǎng)?wù)撐娜庾x

阿里巴巴人工智能進(jìn)入時(shí)尚界 發(fā)起全球首個(gè)時(shí)尚AI算法大賽

阿里蓋坤團(tuán)隊(duì)提出深度興趣網(wǎng)絡(luò),更懂用戶什么時(shí)候會(huì)剁手

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

怎么給海量商品設(shè)計(jì)推薦系統(tǒng)?阿里蓋坤團(tuán)隊(duì)提出深層樹結(jié)構(gòu)檢索模型

分享:
相關(guān)文章

讀論文為生

日常笑點(diǎn)滴,學(xué)術(shù)死腦筋
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)