0
本文作者: 郭仁賢 | 2020-06-25 17:36 |
近日,谷歌發(fā)布了隱私保護TensorFlow工具包,可以評估各種機器學習分類器的隱私屬性。谷歌表示,它旨在成為一個隱私測試套件的基礎,不管AI開發(fā)者的技能水平高低都可以使用它。
當前,各種人工智能隱私技術仍然是社區(qū)內爭論的話題,但還沒有一個規(guī)范的指南來建立一個私有模型。而越來越多的研究表明人工智能模型可以泄露訓練數(shù)據(jù)集的敏感信息,從而產(chǎn)生隱私風險。TensorFlow隱私保護所采用的緩解方法是差分隱私,它在訓練數(shù)據(jù)中添加噪聲以隱藏單個示例。據(jù)了解,這種噪聲是以學術上最壞的情況去設計的,同時會顯著影響模型的準確性。
因此,這促使谷歌的研究人員在尋求另一種選擇。新的TensorFlow隱私模塊支持的成員推斷攻擊方法,建立分類器來推斷訓練數(shù)據(jù)集中是否存在特定樣本。分類器越精確,記憶就越多,因此模型的隱私保護就越少,做出高精度預測的攻擊者將成功找出訓練集中使用了哪些數(shù)據(jù)。
新模塊提供的測試是黑盒,這意味著它們只使用模型的輸出,而不是內部或輸入樣本。它們產(chǎn)生一個漏洞得分,確定模型是否從訓練集中泄漏信息,并且它們不需要任何再訓練,使得它們相對容易執(zhí)行。
“在內部使用成員關系推斷測試之后,我們將與開發(fā)人員共享這些測試,以幫助他們構建更多的私有模型,探索更好的架構選擇,使用正則化技術,如提前停止、退出、權重衰減和輸入增強,或收集更多數(shù)據(jù)。”谷歌Brain的雙歌和谷歌軟件工程師David Marn在TensorFlow博客上對外表示。
另外,谷歌表示:“今后,它將探索將成員推斷攻擊擴展到分類器之外的可行性,并開發(fā)新的測試。它還計劃通過將新的測試與用于部署生產(chǎn)機器學習管道的端到端平臺TensorFlow Extended(TFX)集成,探索將新的測試添加到TensorFlow生態(tài)系統(tǒng)中?!?/p>
雷鋒網(wǎng)了解到,谷歌在去年夏天開放的基礎差異隱私庫中增加了對Go和Java的支持,還提供了Beam上的隱私,基于Apache Beam(一個特定于語言的sdk模型和集合)構建的端到端差異隱私解決方案,它依賴于差異隱私庫的低級構建塊,并將它們組合成一個“開箱即用”的解決方案,該解決方案考慮了差異隱私所必需的步驟。
此外,谷歌還推出了一個新的隱私損失分配工具,用于跟蹤隱私預算,允許開發(fā)者對收集差異私人查詢的用戶隱私總成本進行估計,并更好地評估其管道的總體影響。雷鋒網(wǎng)雷鋒網(wǎng)
參考于:Google releases experimental TensorFlow module that tests the privacy of AI models
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。