0
雷鋒網(wǎng)AI開發(fā)者按,如果你曾經(jīng)使用過諸如 CIFAR、MNIST、ImageNet 或 IMDB 之類的數(shù)據(jù)集,那么你可能會假設類標簽是正確的。令人吃驚的是,ImageNet 中可能至少有 10 萬個標簽有問題。為什么我們不早點找到它們?在海量數(shù)據(jù)集中描述和發(fā)現(xiàn)標簽錯誤的原則性方法非常具有挑戰(zhàn)性,解決方案也很有限。
在這篇文章中,作者討論了一個新興的、原則性的框架,用于識別標簽錯誤、描述標簽噪聲,并使用被稱為置信學習(CL)的噪聲標簽進行學習,該框架是開源的 cleanlab Python 包。
cleanlab 是一個帶有標簽錯誤的機器學習和深度學習框架,和 PyTorch 類似。在 cleanlab 文檔中了解更多信息。
cleanlab 加上 confidentlearning-reproduce repo 就可以重現(xiàn) CL 論文中的結果。
2012 年 ILSVRC ImageNet 訓練集中通過置信學習確定的前 32 個標簽問題。標簽錯誤用紅色框表示,綠色表示本體論問題,藍色表示多標簽圖像
上圖顯示了使用置信學習發(fā)現(xiàn)的 2012 ILSVRC ImageNet 訓練集中的標簽錯誤的例子。為了便于解釋,我們將使用 CL 在 ImageNet 中發(fā)現(xiàn)的標簽問題分為三類:
多標簽圖像(藍色):在圖像中有多個標簽
本體論問題(綠色):包括“是”或 “有”兩種關系,在這些情況下,數(shù)據(jù)集應該包含其中一類
標簽錯誤(紅色):數(shù)據(jù)集別的類的標簽比給定的類標簽更適合于某個示例
使用置信學習,我們可以使用任何合適的模型在任何數(shù)據(jù)集中找到標簽錯誤。下面是常見數(shù)據(jù)集中的其他三個實際示例。
在 Amazon 評論中存在的標簽錯誤的例子,使用置信學習來識別不同的數(shù)據(jù)模式和模型
什么是置信學習?
置信學習(CL)已成為監(jiān)督學習和弱監(jiān)督的一個子領域,可以被用于:
描述標簽噪聲
查找標簽錯誤
學習噪聲標簽
發(fā)現(xiàn)本體論問題
CL 基于噪聲數(shù)據(jù)剪枝的原理,通過計數(shù)對噪聲進行評估,并對實例進行排序以進行置信訓練。在這里,我們在 Angluin 和 Laird 分類噪聲的假設基礎上,將 CL 泛化到直接估計給定噪聲標簽和無噪聲標簽之間的聯(lián)合分布。
帶噪標簽與不帶噪標簽置信聯(lián)合與估計聯(lián)合分布的置信學習過程及實例,其中,y~ 表示觀察到的噪聲標簽,y* 表示潛在的未損壞標簽
從上圖可以看出,CL 需要兩個輸入:
樣本外預測概率(矩陣大?。侯惖臉颖緮?shù))
噪聲標簽(矢量長度:示例數(shù))
出于弱監(jiān)督的目的,CL 包括三個步驟:
估計給定噪聲標簽和潛在(未知)未損壞標簽的聯(lián)合分布,以充分描述類條件標簽噪聲
查找并刪除帶有標簽問題的噪音示例
去除訓練誤差,通過估計潛在先驗重新加權實例
置信學習的優(yōu)點
與大多數(shù)機器學習方法不同,置信學習不需要超參數(shù)。我們使用交叉驗證從樣本中獲得預測概率。置信學習還有許多其他優(yōu)點:
直接估計噪聲和真標簽的聯(lián)合分布
適用于多類數(shù)據(jù)集
查找標簽錯誤(錯誤按最有可能到最不可能的順序排列)
是非迭代的(在 ImageNet 中查找訓練標簽錯誤需要 3 分鐘)
在理論上是合理的(現(xiàn)實條件下準確地找到標簽誤差和聯(lián)合分布的一致估計)
不假設標簽噪聲是隨機均勻的(在實踐中通常行不通)
只需要預測概率和噪聲標簽(可以使用任何模型)
不需要任何真實(保證不損壞)的標簽
自然擴展到多標簽數(shù)據(jù)集
作為 cleanlab Python 包,它是免費、開源的,用于描述、查找和學習標簽錯誤
置信學習的原則
CL 是在處理噪音標簽的文獻中制定的原則之上建立起來的:
剪枝以搜索標簽錯誤。例如,通過損失重加權使用軟剪枝,以避免迭代重標記的收斂陷阱。
對干凈數(shù)據(jù)進行統(tǒng)計訓練,避免在不完全預測概率的情況下重新加權損失(Natarajan et al.,2017),從而避免學習模型權重中的錯誤傳播。
對訓練期間使用的示例進行排序,以允許使用不規(guī)范概率或 SVM 決策邊界距離進行學習。
置信學習的理論發(fā)現(xiàn)
有關 CL 算法、理論和證明的全部內容,請閱讀這篇論文。這里,我總結一下論文的主要觀點。
理論上,論文給出了 CL(定理 2:一般的逐例穩(wěn)健性)準確地發(fā)現(xiàn)標簽錯誤并一致地估計噪聲和真實標簽的聯(lián)合分布的現(xiàn)實條件。我們的條件允許每個例子和每個類的預測概率中有錯誤出現(xiàn)。
置信學習是如何工作的?
為了了解 CL 是如何工作的,讓我們假設我們有一個包含狗、狐貍和牛的圖像的數(shù)據(jù)集。CL 通過估計噪聲標簽和真標簽的聯(lián)合分布(下圖右側的 Q 矩陣)來工作。
左:置信計數(shù)示例,這是一個不正常的聯(lián)合估計;右:有三類數(shù)據(jù)的數(shù)據(jù)集的噪聲標簽和真標簽的聯(lián)合分布示例
繼續(xù)我們的示例,CL 統(tǒng)計 100 個標記為 dog 的圖像,這些圖像很可能屬于 dog 類,如上圖左側的 C 矩陣所示。CL 還統(tǒng)計了 56 幅高概率標記為 fox 的圖像和 32 幅高概率標記為 cow 的圖像。
你可能對它的數(shù)學過程比較好奇,好吧,這個計數(shù)過程采用的是下面的公式:
置信聯(lián)合方程
我們鼓勵閱讀論文原文來理解公式中的符號,這里的中心思想是,當一個例子的預測概率大于每個類的閾值時,我們自信地認為這個例子實際上屬于該閾值的類。每個類的閾值是該類中示例的平均預測概率。這種閾值形式將 PU 學習中眾所周知的魯棒性結果(Elkan&Noto,2008)推廣到多類弱監(jiān)督。
使用標簽噪聲的聯(lián)合分布查找標簽問題
從上圖右側的矩陣中,估計標簽問題:
將聯(lián)合分布矩陣乘以示例數(shù)。讓我們假設我們的數(shù)據(jù)集中有 100 個示例。所以,在上圖中(右邊的 Q 矩陣),有 10 個標記為 dog 的圖像實際上是狐貍的圖像。
將 10 張標記為 dog 的圖片標記為標簽問題,其中屬于 fox 類的可能性最大。
對矩陣中的所有非對角項重復此操作。
注意:雖然這簡化了本文中使用的方法,但抓住了本質。
置信學習的實際應用
在高噪音和高稀疏的情況下,平均來說,CL 提高了 10% 以上高噪聲學習水平和 30% 以上的高稀疏學習水平。
上表顯示了 CIFAR-10 上帶噪聲標簽的多類學習的 CL 與最新方法的比較。在高稀疏性(見下一段)和 40%、70% 的標簽噪聲的情況下,CL 的表現(xiàn)優(yōu)于 Google 表現(xiàn)最好的 MentorNet、Co-Teaching 和 Facebook 研究院的 Mix-up,性能超過它們 30%。在使用置信學習之前,對這一基準的改進要小得多(大約只有幾個百分點)。
稀疏性(Q 中零的分數(shù))概括了這樣一個概念,即現(xiàn)實世界中的數(shù)據(jù)集,如 ImageNet,有一些類不太可能被錯誤地標記為其他類,例如 p(tiger,oscilloscope) ~ 0 in Q。如上表中突出顯示的單元格所示,與 Mixup、MentorNet、SCE-loss 和 Co-Teaching 等最新方法相比,CL 顯著增強了對稀疏性的魯棒性。這種魯棒性來自于直接建模 Q,即噪聲和真實標簽的聯(lián)合分布。
CL 清洗 ImageNet 提高 ResNet 測試精度
在上圖中,每種方法的直線上的每個點,從左到右,描述了訓練的準確性,去除了 20%、40%…、100% 的估計標簽錯誤。黑色虛線用所有例子描述了訓練時的準確性。當移除少于 100k 個訓練示例時,使用 CL 在清洗過的 ImageNet 訓練集上訓練(不添加合成噪聲),觀察 ResNet 驗證精度的提高。當超過 100k 個訓練實例被移除時,觀察使用 CL 相對于隨機移除的改善,如紅色虛線所示。
在添加標簽噪聲的 CIFAR 中標簽噪聲的良好表征
上圖顯示了 CIFAR 中標簽噪聲聯(lián)合分布的 CL 估計,標簽噪聲增加了 40%。觀察(b)中的 CL 估計與(a)中的真實分布有多接近,以及(c)中矩陣中每個項的絕對差的低誤差。概率被放大 100 倍。
ImageNet 本體論問題中類命名問題的自動發(fā)現(xiàn)
CL 通過直接估計標簽噪聲的聯(lián)合分布,自動發(fā)現(xiàn)數(shù)據(jù)集中類的本體論問題。在上表中,我們顯示了在我們估計單類數(shù)據(jù)集 ImageNet 的標簽噪聲聯(lián)合分布時最大的偏離對角線。每行都列出了噪聲標簽、真標簽、圖像 id、計數(shù)和聯(lián)合概率。因為這些是非對角的,所以噪聲類和真類必須是不同的,但是在第 7 行中,我們看到 ImageNet 實際上有兩個不同的類,它們都被稱為 maillot。
最后的想法
論文的理論和實驗結果強調了置信學習的實用性,例如識別 ImageNet 和 CIFAR 中的許多標簽問題,并通過在清洗過的數(shù)據(jù)集上進行訓練來提高標準 ResNet 的性能。置信學習促使人們需要進一步了解數(shù)據(jù)集標簽中的不確定性估計、清洗訓練集和測試集的方法以及識別數(shù)據(jù)集中本體論問題和標簽問題的方法。
via:https://l7.curtisnorthcutt.com/confident-learning
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。