0
本文作者: 楊曉凡 | 2019-05-07 23:28 |
雷鋒網(wǎng) AI 科技評論按:香港科技大學(xué)講席教授、微眾銀行首席人工智能官(CAIO)楊強(qiáng)教授是機(jī)器學(xué)習(xí)領(lǐng)域內(nèi)活動積極的學(xué)者,也是大家非常熟悉的機(jī)器學(xué)習(xí)研究人員之一。
楊強(qiáng)教授對于數(shù)據(jù)運(yùn)用的問題有較多研究,比如他經(jīng)常在公眾場合談及的「遷移學(xué)習(xí)」(Transfer Learning),其作用就是幫助只有小數(shù)據(jù)的任務(wù)運(yùn)用來自其他相關(guān)任務(wù)的大數(shù)據(jù),從而獲得更好的表現(xiàn),應(yīng)用例子比如貸款風(fēng)控策略在不同用戶類別間的遷移、推薦系統(tǒng)的策略遷移、輿情分析中的遷移學(xué)習(xí)等。
近幾年,領(lǐng)域發(fā)現(xiàn)還存在另一種與遷移學(xué)習(xí)相似,但更有挑戰(zhàn)性、也更有應(yīng)用價(jià)值的問題,但無法直接用遷移學(xué)習(xí)的方法解決:現(xiàn)代組織機(jī)構(gòu)雖然數(shù)據(jù)多,但是互相之間數(shù)據(jù)不共享,比如不同的視頻網(wǎng)站都會收集各自用戶的數(shù)據(jù),各自持有分別的數(shù)據(jù)庫,用于各自的推薦系統(tǒng)模型訓(xùn)練。即便這些不同機(jī)構(gòu)的數(shù)據(jù)全部加在一起形成一個(gè)大數(shù)據(jù)庫后訓(xùn)練的模型有更好的表現(xiàn),但受制于隱私、安全等問題,他們不可以這樣做;實(shí)際上 2018 年 5 月歐盟提出的 GDPR 也對用戶隱私保護(hù)作出了明確的要求。而且,由于不同機(jī)構(gòu)的模型設(shè)計(jì)和針對的目標(biāo)有所不同,他們也無法直接交換、共享模型。
楊強(qiáng)教授帶領(lǐng)微眾銀行 AI 團(tuán)隊(duì)針對這類問題研究了「聯(lián)邦學(xué)習(xí)」(Federated Learning)的解決方案。在 2018 年 12 月的「新一代人工智能院士高峰論壇」演講中,楊強(qiáng)教授也簡單介紹過聯(lián)邦學(xué)習(xí)的兩種模式:縱向聯(lián)邦學(xué)習(xí),不同的數(shù)據(jù)庫中有部分?jǐn)?shù)據(jù)特征是相同的,A 方和 B 方都持有模型的一部分,通過同態(tài)加密技術(shù)傳遞重要的參數(shù);第二種模式,橫向聯(lián)邦學(xué)習(xí),在 A 方、B 方各自更新模型并上傳,云端服務(wù)器根據(jù)一定的策略統(tǒng)一更新他們的模型。
通過近期的三篇論文,微眾 AI 團(tuán)隊(duì)介紹了聯(lián)邦學(xué)習(xí)思路下針對有安全需求的有監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、決策樹的具體方法:安全的聯(lián)邦遷移學(xué)習(xí)、聯(lián)邦強(qiáng)化學(xué)習(xí)以及 SecureBoost 安全樹模型。
聯(lián)邦遷移學(xué)習(xí)(FTL)針對的是有標(biāo)簽學(xué)習(xí)(監(jiān)督學(xué)習(xí))任務(wù),利用一整個(gè)數(shù)據(jù)聯(lián)邦內(nèi)的數(shù)據(jù)資源,提高每個(gè)成員的模型的表現(xiàn)。通過聯(lián)邦遷移學(xué)習(xí)框架,聯(lián)邦內(nèi)不同的成員之間可以在嚴(yán)守?cái)?shù)據(jù)隱私的前提下共同挖掘數(shù)據(jù)的價(jià)值,而且可以在網(wǎng)絡(luò)內(nèi)轉(zhuǎn)移補(bǔ)充性的數(shù)據(jù)。這樣,通過利用整個(gè)數(shù)據(jù)聯(lián)邦的大量有標(biāo)簽數(shù)據(jù),聯(lián)邦內(nèi)的每個(gè)成員都可以構(gòu)建出更靈活、更強(qiáng)大的模型;只需要對模型做微小的調(diào)整就可以看到準(zhǔn)確率的明顯提升,甚至可以比擬完全不考慮隱私、直接在全部數(shù)據(jù)上訓(xùn)練的表現(xiàn)。
安全性是這篇論文所提方法的重要考慮因素,安全保護(hù)涵蓋了訓(xùn)練、評估、交叉驗(yàn)證的全過程。安全的遷移交叉驗(yàn)證機(jī)制確保數(shù)據(jù)能為聯(lián)邦內(nèi)的成員帶來性能提升(相比于傳統(tǒng)的考慮到安全因素的方法會帶來準(zhǔn)確率損失)。作者們還提出的可拓展、靈活的方法,為神經(jīng)網(wǎng)絡(luò)模型提供額外的同態(tài)加密功能,只需要對模型做微小的調(diào)整。聯(lián)邦遷移學(xué)習(xí)框架非常靈活,可以高效地應(yīng)用在許多現(xiàn)實(shí)世界的機(jī)器學(xué)習(xí)任務(wù)中,提供安全的多方性能提升。
聯(lián)邦強(qiáng)化學(xué)習(xí)框架示意圖
在強(qiáng)化學(xué)習(xí)領(lǐng)域中,當(dāng)狀態(tài)的特征空間很小、訓(xùn)練數(shù)據(jù)有限時(shí),構(gòu)建高質(zhì)量的策略是很有挑戰(zhàn)性的。由于數(shù)據(jù)和模型的隱私限制,直接從一個(gè)智能體遷移數(shù)據(jù)或者知識到另一個(gè)智能體是不行的。具體來說,作者們假設(shè)智能體不會分享它自己的部分觀察結(jié)果,而且也有一些智能體無法獲得反饋;這樣的設(shè)定就和多智能體強(qiáng)化學(xué)習(xí)、以及多智能體環(huán)境下的遷移學(xué)習(xí)都有明顯的區(qū)別。
在這篇論文中,作者們提出了一種新的強(qiáng)化學(xué)習(xí)方案,它考慮到了上述的隱私要求,然后在其它智能體的幫助下為每個(gè)智能體構(gòu)建新的 Q 網(wǎng)絡(luò)。這就是聯(lián)邦強(qiáng)化學(xué)習(xí)(FRL)。
聯(lián)邦強(qiáng)化學(xué)習(xí)以三個(gè)步驟運(yùn)行。首先,每個(gè)智能體都有一個(gè) Q 網(wǎng)絡(luò),而且這個(gè) Q 網(wǎng)絡(luò)的輸出是通過高斯差分方法加密保護(hù)的,每個(gè)智能體也都會收集其他智能體的 Q 網(wǎng)絡(luò)輸出;然后,智能體會構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),比如多層感知機(jī)模型,根據(jù)收集的其它智能體的輸出和自己的 Q 網(wǎng)絡(luò)輸出計(jì)算全局的 Q 網(wǎng)絡(luò)輸出;最后,它會基于全局 Q 網(wǎng)絡(luò)的輸出同時(shí)更新剛才的多層感知機(jī)模型和自己的 Q 網(wǎng)絡(luò)。值得注意的是,多層感知機(jī)模型是在所有智能體之間共享的,而智能體自己的 Q 網(wǎng)絡(luò)對其他智能體都是不可見的,而且也是無法通過訓(xùn)練過程中共享的那個(gè) Q 網(wǎng)絡(luò)的加密輸出進(jìn)行推斷的。
為了保護(hù)數(shù)據(jù)和模型的隱私,在不同的智能體之間共享信息、更新本地模型時(shí)都會對信息使用高斯差分保護(hù)。作者們在 Grid-world (多種不同尺寸)和 Text2Action 兩個(gè)截然不同的任務(wù)中評估了聯(lián)邦強(qiáng)化學(xué)習(xí)方法,不僅比所有同樣使用了部分觀察結(jié)果的方法表現(xiàn)更好,甚至和直接把所有信息作為輸入的方法取得了同等的表現(xiàn)。
這篇論文中作者們提出了一個(gè)基于聯(lián)邦學(xué)習(xí)的,新的無損、保護(hù)隱私的提升樹(tree-boosting)系統(tǒng) SecureBoost 安全樹模型。它可以讓多個(gè)機(jī)構(gòu)的學(xué)習(xí)過程共同進(jìn)行,用戶樣本只需要有一部分相同,但可以使用完全不同的特征集,相當(dāng)于對應(yīng)了不同的垂直分組的虛擬數(shù)據(jù)集。SecureBoost 安全樹模型的優(yōu)點(diǎn)是,它在訓(xùn)練數(shù)據(jù)保持多方相互保密的前提下,可以達(dá)到和不保護(hù)隱私的方法相同的性能;而且這個(gè)過程還不需要一個(gè)共同信任的第三方參與。
作者們從理論上證明了 SecureBoost 安全樹模型框架和其它的把數(shù)據(jù)合并成一整數(shù)據(jù)集的傳統(tǒng)(非聯(lián)邦)梯度提升樹方法有相同的準(zhǔn)確率,是無損(lossless)的。由于 SecureBoost 安全樹模型框架由保護(hù)隱私的實(shí)體對齊以及安全的聯(lián)邦提升樹系統(tǒng)兩部分構(gòu)成,作者們也分別研究了兩者的可拓展性。除此之外,作者們還證明了方法的安全性,并且討論了如何讓使用到的協(xié)議完全安全。
目前 FTL 和 Secureboost 已經(jīng)開源,開源項(xiàng)目屬于微眾銀行 AI 團(tuán)隊(duì)的聯(lián)盟 AI 解決方案項(xiàng)目 FATE(Federated AI Technology Enabler)。這是一個(gè)為聯(lián)邦 AI 生態(tài)及應(yīng)用提供支持的開源庫,可以部署在單機(jī)或者計(jì)算機(jī)集群上,提供了基于同態(tài)加密的安全計(jì)算協(xié)議、多種聯(lián)邦學(xué)習(xí)架構(gòu),以及支持包括邏輯回歸、樹算法、深度學(xué)習(xí)、遷移學(xué)習(xí)等在內(nèi)的多種機(jī)器學(xué)習(xí)算法的安全計(jì)算。具體介紹以及解決方案示例可以參見 https://www.fedai.org/。
面向?qū)嶋H問題的解決方案需要考慮加密和安全性、以及考慮只有部分信息時(shí)如何處理,這三篇帶著對安全和隱私的考慮進(jìn)行研究的聯(lián)邦學(xué)習(xí)論文正展現(xiàn)了這一點(diǎn)。讓數(shù)據(jù)帶來更高效用、讓不同機(jī)構(gòu)的數(shù)據(jù)不再是「數(shù)據(jù)孤島」,聯(lián)邦學(xué)習(xí)能帶來明顯的幫助,相關(guān)技術(shù)也值得繼續(xù)深入挖掘。
另外,在即將于今年 8 月舉行的人工智能頂會 IJCAI 2019 上,楊強(qiáng)教授領(lǐng)銜的微眾銀行 AI 團(tuán)隊(duì)將聯(lián)合 Google、IBM 等公司舉辦聯(lián)邦學(xué)習(xí)技術(shù)相關(guān)的國際研討會(FML 2019: The 1st International Workshop on Federated Machine Learning for User Privacy and Data Confidentiality)。屆時(shí),在研討會上主辦方將會展示聯(lián)邦學(xué)習(xí)在隱私保護(hù)、安全機(jī)器學(xué)習(xí)以及人工智能領(lǐng)域的原創(chuàng)性學(xué)術(shù)成果,如果對聯(lián)邦學(xué)習(xí)想要有進(jìn)一步深入了解,可以關(guān)注 FML 2019 活動,并向會議主辦方投稿。更多細(xì)節(jié)參見活動頁面 http://fml2019.algorithmic-crowdsourcing.com 。
詳細(xì)閱讀論文原文參見:
《Secure Federated Transfer Learning》
《Federated Reinforcement Learning》
《SecureBoost: A Lossless Federated Learning Framework》
雷鋒網(wǎng) AI 科技評論報(bào)道。
雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。