丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

1

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

本文作者: AI研習(xí)社-譯站 2018-04-12 12:07
導(dǎo)語:不會機(jī)器學(xué)習(xí),也能用的免費(fèi)開源數(shù)據(jù)集

雷鋒網(wǎng)按:本文為雷鋒字幕組編譯的技術(shù)博客,原標(biāo)題Releasing “Supervisely Person” dataset for teaching machines to segment humans,作者為Supervise.ly。

翻譯 | 郭乃嶠  汪寧  張虎    整理 |  凡江  吳璇

我們非常自豪地在這里宣布,Supervisely人像數(shù)據(jù)集正式發(fā)布。它是公開的并且免費(fèi),僅出于學(xué)術(shù)的目的。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

要讓AI全民共享, 我們不僅需要開源,還要一場強(qiáng)有力的“開放數(shù)據(jù)”運(yùn)動。——吳恩達(dá)

我們當(dāng)然同意他的看法,并讓我們擴(kuò)展一下這個想法。對于語義分割的人物,有很多深層神經(jīng)網(wǎng)絡(luò)的研究。但是,大多數(shù)情況下,收集數(shù)據(jù)要比開發(fā)和應(yīng)用算法去運(yùn)行數(shù)據(jù)更困難和昂貴。

這就是為什么我們需要專門設(shè)計的平臺,這個平臺可以覆蓋全部的機(jī)器學(xué)習(xí)的工作流,從開發(fā)訓(xùn)練數(shù)據(jù)集到訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

幾個例子來自"Supervisely人像數(shù)據(jù)集"

我們認(rèn)為,我們的工作將會幫助開發(fā)者、研究者和商人們。為了更快地創(chuàng)建大型訓(xùn)練數(shù)據(jù)集,我們的工作不僅可以看作一個公開的數(shù)據(jù)集,而且可以被視為一套創(chuàng)新的方法和工具。

接下來,我們將介紹關(guān)于如何從頭建立這個數(shù)據(jù)集,讓我來展示一些有趣的事實(shí):

  • 數(shù)據(jù)集由5711張圖片組成,有6884個高質(zhì)量的標(biāo)注的人體實(shí)例。

  • 下面的所有步驟在Supervisely內(nèi)部完成的,沒有任何編碼。

  • 更重要的是,這些步驟是被我內(nèi)部的注釋器執(zhí)行的,沒有任何機(jī)器學(xué)習(xí)專業(yè)知識。數(shù)據(jù)科學(xué)家僅僅只是控制和管理這過程。

  • 注釋組由兩名成員組成并且這整個過程只花了4天。

Supervisely 是包含數(shù)據(jù)科學(xué)的智慧機(jī)器學(xué)習(xí)平臺。它允許數(shù)據(jù)科學(xué)家專注于真正的創(chuàng)新,并將日常工作留給其他人(是的,訓(xùn)練眾所周知的神經(jīng)網(wǎng)絡(luò)架構(gòu)也是一項常規(guī)工作)。

要解決的問題

在許多真實(shí)世界的應(yīng)用中,人像檢測是分析人類圖像中的關(guān)鍵任務(wù),在動作識別、自動駕駛汽車、視頻監(jiān)控、移動應(yīng)用等方面均有使用。

我們在DeepSystems公司進(jìn)行了內(nèi)部研究,這讓我們意識到人體檢測任務(wù)缺乏數(shù)據(jù)。你會問我們:那COCO、Pascal、Mapillary 等公共數(shù)據(jù)集呢?為了回答這個問題,我會更好地向你展示幾個例子:

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)幾個來自COCO數(shù)據(jù)集的人類標(biāo)注示例

大多數(shù)公共數(shù)據(jù)集中人體檢測數(shù)據(jù)的質(zhì)量不符合我們的要求,我們必須創(chuàng)建自己的數(shù)據(jù)集,并提供高質(zhì)量的注釋,我會告訴你我們是如何做到的。

步驟0:將公共數(shù)據(jù)集上傳和準(zhǔn)備,作為初始點(diǎn)來訓(xùn)練初始神經(jīng)網(wǎng)絡(luò)

將公共數(shù)據(jù)集上傳到系統(tǒng):PascalVoc,Mapillary。我們的“導(dǎo)入”模塊支持大多數(shù)公共數(shù)據(jù)集,并將它們轉(zhuǎn)換為統(tǒng)一的基于json-based的格式,稱為Supervisely格式 :)

我們執(zhí)行DTL(“數(shù)據(jù)轉(zhuǎn)換語言”)查詢以執(zhí)行一些操作:合并數(shù)據(jù)集 - >跳過沒有人物的圖像 - >從圖像裁剪每個人 - >按寬度和高度過濾它們 - >分割為訓(xùn)練/測試集。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

合并,裁剪和過濾公共數(shù)據(jù)集后的原始數(shù)據(jù)

似乎有很多公開可用的數(shù)據(jù),但我們在前面提到過,存在一些隱藏的問題:注釋質(zhì)量低,分辨率低等等。

因此,我們構(gòu)建了第一個訓(xùn)練數(shù)據(jù)集。

步驟1:訓(xùn)練神經(jīng)網(wǎng)絡(luò)

我們將對 UNet-like 架構(gòu)進(jìn)行稍微定制

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

Unet_v2架構(gòu)

損失= 二進(jìn)制損失熵+(1 -隨機(jī)數(shù))。

該網(wǎng)絡(luò)訓(xùn)練速度快,它非常準(zhǔn)確,易于實(shí)施和定制。它允許我們進(jìn)行大量的實(shí)驗(yàn)。Supervisely可以分布在集群中的多個節(jié)點(diǎn)上。

因此我們可以同時訓(xùn)練幾個神經(jīng)網(wǎng)絡(luò)。同樣所有的神經(jīng)網(wǎng)絡(luò)都支持我們平臺上的多GPU訓(xùn)練。每個訓(xùn)練試驗(yàn)的輸入分辨率為256 * 256,且都不超過15分鐘。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

步驟2:準(zhǔn)備數(shù)據(jù)進(jìn)行注釋

我們沒有收集未標(biāo)記的圖像,所以我們決定從網(wǎng)上下載它。我們在github上實(shí)現(xiàn)了這個項目,從而可以從優(yōu)秀的照片庫中下載數(shù)據(jù) ,由Pexels完成(感謝他,這真的很酷的工作)。

因此,我們下載了大約15k的圖片,其中包含與我們的任務(wù)相關(guān)的標(biāo)簽,并將其上傳到Supervisely并通過DTL查詢執(zhí)行調(diào)整大小操作,因?yàn)樗鼈兙哂谐叻直媛省?/p>

步驟3:將神經(jīng)網(wǎng)絡(luò)應(yīng)用于未標(biāo)記的圖像

過去的架構(gòu)不支持實(shí)例分段。 因此我們沒有使用Mask-RCNN,因?yàn)榭拷矬w邊緣的分割質(zhì)量很低。

這就是為什么我們決定做兩步計劃:應(yīng)用Faster-RCNN(基于NasNet)來檢測圖像上的所有人,然后為每個人定界框應(yīng)用分割網(wǎng)絡(luò)來分割支配對象。 這種方法保證我們既模擬實(shí)例分割又準(zhǔn)確地分割對象邊緣。

應(yīng)用模型和手動修正檢測的3分鐘視頻

我們嘗試了不同的分辨率:我們傳遞給NN的分辨率越高,它產(chǎn)生的結(jié)果就越好。 我們并不關(guān)心總推理時間,因?yàn)镾upervisely支持分布在多臺機(jī)器上的推理。 對于自動預(yù)標(biāo)注任務(wù)來說,這已經(jīng)足夠了。

步驟4:手動驗(yàn)證和糾錯

所有推斷結(jié)果都會實(shí)時顯示在儀表板中。 我們的操作員預(yù)覽所有結(jié)果并使用幾個標(biāo)簽標(biāo)記圖像:不良預(yù)測、預(yù)測糾正、良好預(yù)測。 這個過程是快速的,因?yàn)樗麄冃枰苌俚逆I盤快捷鍵“下一個圖像”和“分配標(biāo)簽圖像”。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

我們?nèi)绾螛?biāo)記圖像:左 - 不良預(yù)測,中 - 預(yù)測需要輕度手動校正,右 - 好預(yù)測。

標(biāo)記為“不良預(yù)測”的圖像被跳過。 進(jìn)一步的工作繼續(xù)是處理我們需要糾正的圖像。

如何校正神經(jīng)網(wǎng)絡(luò)預(yù)測

手動校正所需的時間比從頭開始的注釋少得多。

步驟5:將結(jié)果添加到訓(xùn)練數(shù)據(jù)集并轉(zhuǎn)到第1步

完成!

一些提示:

  1. 當(dāng)我們應(yīng)用僅對公共數(shù)據(jù)進(jìn)行訓(xùn)練的NN時,“合適”圖像(標(biāo)記為“良好預(yù)測”和“預(yù)測正確”)的百分比約為20%。

  2. 經(jīng)過樹型快速迭代后,這個數(shù)字增加到70%。我們總共完成了6次迭代,最終的NN變得相當(dāng)準(zhǔn)確:-)

  3. 在訓(xùn)練之前,我們在物體邊緣添加了小波段以平滑鋸齒狀邊緣并執(zhí)行多種增強(qiáng):翻轉(zhuǎn),隨機(jī)裁剪,隨機(jī)角度旋轉(zhuǎn)和顏色轉(zhuǎn)換。正如您所看到的,即使您需要在圖像上注釋多個對象類,這種方法也適用于許多計算機(jī)視覺任務(wù)。

獎勵

這個數(shù)據(jù)集幫助我們改進(jìn)AI支持的注釋工具 - 定制化的用它來檢測人類。 在我們的最新版本中,我們添加了在系統(tǒng)內(nèi)部訓(xùn)練NN的能力。 以下是基于類別的工具與其定制版本的比較。 它是可用的,你可以試試你的數(shù)據(jù)。

如何訪問數(shù)據(jù)集

注冊Supervisely,進(jìn)入“Import” tab -> “Datasets library”。 點(diǎn)擊“Supervisely Person”數(shù)據(jù)集,為新項目編寫名稱。 然后點(diǎn)擊“three dots”按鈕 - >“下載為json格式” - >“Start”按鈕。 就這樣, 總下載時間可能需要15分鐘(~ 7 GB)。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

如何下載結(jié)果

結(jié)論

看看沒有任何ML背景的人如何完成所有這些步驟是非常有趣的。 我們作為深度學(xué)習(xí)專家節(jié)省了大量時間,我們的注釋團(tuán)隊在注釋速度和質(zhì)量方面變得更加高效。

我們希望,Supervisely平臺將幫助每個深度學(xué)習(xí)團(tuán)隊更快更輕松地制作AI產(chǎn)品。

讓我列出我們在這項工作中使用的最有價值的Supervisely功能:

1. “Import”模塊可以上傳所有公共數(shù)據(jù)集

2. “Data Transformation Language”來操作,合并和增強(qiáng)數(shù)據(jù)集

3.“ NN”模塊使用Faster-RCNN和UnetV2

3. “Statistics”模塊自動從我們擁有的數(shù)據(jù)中獲得有用的見解

4. “Annotation”就像Photoshop一樣用于訓(xùn)練數(shù)據(jù)“協(xié)作”功能,允許將工作人員與注釋團(tuán)隊相結(jié)合,為他們分配任務(wù)并控制整個過程。

博客原址 https://hackernoon.com/releasing-supervisely-person-dataset-for-teaching-machines-to-segment-humans-1f1fc1f28469

雷鋒網(wǎng)相關(guān)推薦 雷鋒網(wǎng)

不知道如何開始機(jī)器學(xué)習(xí)?這有份初學(xué)者指南!



雷鋒字幕組正在招募中

掃描下方二維碼

備注“雷鋒字幕組+姓名”加入我們吧

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

終于!Supervise.ly 發(fā)布人像分割數(shù)據(jù)集啦(免費(fèi)開源)

分享:
相關(guān)文章

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學(xué)習(xí)知識的門檻。(原雷鋒字幕組)
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說