0
本文作者: 我在思考中 | 2021-09-14 10:33 |
AI科技評論報道
代碼鏈接:https://github.com/KaiyangZhou/CoOp
結(jié)合視覺和語言的預(yù)訓(xùn)練方法(Vision-Language Pretraining)最近成為了視覺表征學(xué)習(xí)的一種有前景的方向。區(qū)別于使用圖像和離散標(biāo)簽進(jìn)行學(xué)習(xí)的傳統(tǒng)分類器,以CLIP為代表的視覺語言預(yù)訓(xùn)練模型利用了兩個獨(dú)立的編碼器來對齊圖像和原始文本。在這種范式下,監(jiān)督來源變得更加靈活多樣且容易獲取(如圖片評論或網(wǎng)絡(luò)配圖文案都可以做圖片監(jiān)督)。更重要的是,模型變得十分容易零樣本(zero-shot)遷移到下游任務(wù)。這是因?yàn)橄掠稳蝿?wù)的類別不必一定屬于訓(xùn)練中離散標(biāo)簽的一種。只要提供下游任務(wù)的標(biāo)簽信息,通過適當(dāng)提詞器(prompt)生成的文本向量可以直接代替固定的離散標(biāo)簽。下圖展示了CLIP模型結(jié)構(gòu)。
我們發(fā)現(xiàn)了在實(shí)踐中部署此類模型的主要挑戰(zhàn)是對提詞器的設(shè)計,這是因?yàn)樵O(shè)計合適的提詞器需要專業(yè)領(lǐng)域的知識,尤其是針對專業(yè)類別名要設(shè)計專門的語境(或稱作上下文,context)。同時,提詞器的設(shè)計也需要花費(fèi)大量時間來調(diào)整,因?yàn)槲⑿〉拇朕o變化可能會對性能產(chǎn)生巨大影響(例如下圖a,在“a photo of [CLASS]”中的[CLASS]前加個“a”直接漲了將近6個點(diǎn)??。。?。此外,不同的下游任務(wù)需要的不同設(shè)計(例如圖b-d中的“flower”,“texture”,和“satellite”)也進(jìn)一步阻礙了部署的效率。
為了克服這一挑戰(zhàn),我們提出了一種名為上下文優(yōu)化 (Context Optimization,英文名:CoOp,中文名:琥珀) 的新方法。琥珀的主要思想是對提詞器中的上下文(context)用連續(xù)向量進(jìn)行建模,而整個訓(xùn)練過程將僅僅端到端優(yōu)化這幾個上下文詞向量,而保持預(yù)訓(xùn)練參數(shù)不變。此舉完全自動化了提詞器的設(shè)計過程。下圖展示了琥珀的模型結(jié)構(gòu)。
實(shí)驗(yàn)里我們使用了11個視覺數(shù)據(jù)集來驗(yàn)證琥珀的有效性:結(jié)果表明琥珀是一個十分高效的小樣本學(xué)習(xí)方法,平均每個類別只需要一到兩張圖片就可以擊敗基于手工提詞器的零樣本識別模型。當(dāng)每個類別的圖片有16張時,琥珀比手工提詞器平均高出了大約17個百分點(diǎn)(最高可達(dá)50個百分點(diǎn)?)。不僅如此,琥珀還對領(lǐng)域泛化表現(xiàn)出了極強(qiáng)的魯棒性(見下圖,M指代琥珀的提詞器長度)。
此時,讀者一定與我們一樣對琥珀學(xué)到的提詞器充滿興趣??上У氖?,當(dāng)我們在詞空間中尋找與優(yōu)化得到的詞向量距離最近的現(xiàn)實(shí)詞匯時,我們很難找到有實(shí)際含義的詞,因?yàn)槲覀儼l(fā)現(xiàn)即便是最臨近的現(xiàn)實(shí)詞匯,其距離與優(yōu)化得到的詞向量仍然相距甚遠(yuǎn),并且在詞空間中,臨近的詞向量不一定具有相似的含義。下圖展示了5個數(shù)據(jù)集對應(yīng)的距離最優(yōu)解最近的16詞提詞器。這進(jìn)一步展示了人工設(shè)計的提詞器可能始終無法達(dá)到琥珀的效果。
鑒于以上提詞器可視化的結(jié)果,我們大膽的推測,在一些數(shù)據(jù)集上,一些無厘頭的提詞器,例如“makka pakka akka yakka ikka akka [class]”甚至可能比“a photo of a [class]”在某些數(shù)據(jù)集上有更好的效果?。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。