丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給蔣寶尚
發(fā)送

0

揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

本文作者: 蔣寶尚 2020-04-15 15:19
導語:意為可以像實驗室中的顯微鏡一樣工作,幫助AI研究人員更好地理解神經網絡的結構和特征。


揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

作者 | 蔣寶尚

編輯 | 賈偉


躺尸接近三個月的OpenAI博客終于有了更新,這次它為AI研究者帶來的作品是“OpenAI Microscope”,中文譯名OpenAI 顯微鏡。

意為可以像實驗室中的顯微鏡一樣工作,幫助AI研究人員更好地理解神經網絡的結構和特征。

揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

博客地址:https://openai.com/blog/microscope/


說到底,這個顯微鏡更像是一個神經元可視化庫,里面包含了歷史上重要且普遍研究的計算機視覺模型,如2012年ImageNet挑戰(zhàn)賽冠軍AlexNet,2014年的ImageNet冠軍GoogleNet(又名Inception V1)和ResNet v2。

OpenAI Microscope


揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

顯微鏡地址:https://microscope.openai.com/models

如上圖所示,初始版本包含8個計算機視覺領域的神經網絡模型。每個神經網絡都用可視化的形式展示了一些重要神經元的內部結構。

OpenAI在研究中提到:現(xiàn)代神經網絡模型強大的能力來源于成千上萬個神經元相互作用,

但神經元之間的“協(xié)作”一直是個迷,OpenAI 發(fā)布的這個顯微鏡能夠幫助快速探索這些神經元。

例如,一位研究人員可能會推測:InceptionV1 4c:447 is a car detector which is built from a wheel detector (4b:373) and a window detector (4b:237)。
InceptionV1 4c:447是由車輪檢測器(4b:373)和車窗檢測器(4b:237)組成的汽車檢測器。那么,用OpenAI 顯微鏡就可以評估該推測,并發(fā)現(xiàn)新事物。

揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

如,OpenAI顯微鏡對AlexNet的觀察,如上動圖所示,從最初的一張完整圖片開始,經歷了神經網絡提取特征,最后圖片會“虛化”成一些彩色線條。

揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

(雷鋒網)

這中間發(fā)生了什么?顯然,弄清楚神經網絡中間的運行過程非常重要。

如上,點擊神經網絡的每一層,OpenAI 顯微鏡都會對處理圖片的過程進行可視化的展示,具體到每一個神經元都會對應一張?zhí)幚砗蟮膱D片。非常清晰的展示了每一張圖片的“漸進”過程。

據(jù)OpenAI介紹,這種探索神經元的過程,對另一份神經網絡可解釋性研究《Zoom In: An Introduction to Circuits》提供了意想不到的幫助。

“顯微鏡”技術基于兩個概念:模型中的位置和技術。形象一些的講,位置就是你把顯微鏡對準的地方,技術就是你給它貼上什么樣的透鏡。

模型由“節(jié)點”(神經網絡層)圖組成,這些圖通過“邊”相互連接。每個操作包含數(shù)百個“單元”,大致類似于神經元。

值得注意的是,其使用的大多數(shù)技術僅在特定分辨率下才有用。例如,特征可視化只能指向一個“單元”,而不是其父“節(jié)點”。
另外,在給出這個工具的同時,OpenAI也給出了幾點對可解釋性研究的貢獻:
1、所有的模型和可視化都已經開源,且“顯微鏡”中所有的可視化都是用lucid庫生成。
2、能夠將模型和神經元相互聯(lián)系起來,可以立即對神經元進行審查和進一步探索。
3、可訪問性,通過共享可視化研究,保持高度的可訪問性。
正如生物學家專注于研究少數(shù)“模型生物”一樣,“顯微鏡”也專注于詳細探索少數(shù)模型。OpenAI的初始版本包括九個常用的視覺模型,未來幾個月會擴展到其他模型。
也就是說,目前僅提供DeepDream和函數(shù)可視化功能,尚未支持定制模型可視化探索。

可解釋性研究:源于DeepDream



可解釋性和確定性在機器學習系統(tǒng)方面是一個寬泛的話題,設法了解神經網絡在那些層的函數(shù)中具體在做什么是一大挑戰(zhàn)。

但弄清楚應該如何選擇初始化參數(shù)這類問題,必須了解神經網絡的本質。

AI研究員們也一直朝著這個方向努力。除了Microscope下的神經元可視化之外,近年來的一些工作也試圖可視化機器學習模型。

揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

(雷鋒網)

例如,F(xiàn)acebook在去年春天推出的Captum,便嘗試了使用可視化技術來解釋機器學習模型做出的決策。作為基于 Pytorch 的一個模型解釋庫,其功能強大、靈活且易于使用,并為所有最新的算法提供了解釋性,能夠幫助研究人員及開發(fā)者更好地理解對模型預測結果產生作用的具體特征、神經元及神經網絡層。

在當時,F(xiàn)acebook也推出了Captum Insight 的試用版,基于 Captum 構建,提供了解釋性的可視化功能。

而在2019年3月,OpenAI和谷歌也曾發(fā)布用于可視化機器學習算法做出的決策的激活地圖技術(Activation Atlases);


揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

(雷鋒網)

如果將之前的研究比作在算法的視覺字母表中顯示單個字母,那么激活地圖集則提供了整個字典,它能夠顯示字母是如何組合在一起制作實際詞匯。

激活地圖集建立在特征可視化的基礎上,將關注點從單個神經元轉移到可視化這些神經元所共同代表的空間。

顯然,今天“顯微鏡”的這項工作也集成、借助了之前的激活地圖技術。

追根溯源,所有的此類可視化研究或許可以歸結為一項名為DeepDream的早期實驗,這是2015年發(fā)布的計算機視覺計劃,意圖將任何圖片變成了自身的“幻覺”版本。

DeepDream展示了google神經網絡模型對輸入圖片的理解,類似于“深度盜夢”,由于畫風詭異,其被認為在某些方面,定義了所謂人工智能美學。

或許,從那時候,AI研究人員就對神經網絡模型眼中的世界產生了好奇,開啟了可解釋性探秘之路。

正如OpenAI的Chris OlahOlah曾經說過的那樣:“在某些方面,這一切都始于DeepDream。”

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知

揭開黑盒一角!OpenAI發(fā)布“顯微鏡”,可視化神經網絡內部結構

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說