丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

0

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

本文作者: AI研習(xí)社-譯站 2019-01-30 10:28
導(dǎo)語(yǔ):如今,人工智能在工業(yè)領(lǐng)域有著蓬勃發(fā)展趨勢(shì),因?yàn)樽詣?dòng)化以及優(yōu)化仍是數(shù)字革命的主要焦點(diǎn)。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

本文為 AI 研習(xí)社編譯的技術(shù)博客,原標(biāo)題 :

Spanning the reality gap between AI and Industry 4.0

作者 | Philip Montsho

翻譯 | ciky奇、Ophria

校對(duì) | 鄧普斯?杰弗       審核| 永恒如新的日常      整理 | 菠蘿妹

原文鏈接:

https://medium.com/@p.k.montsho/a-summary-of-industry-ready-state-of-the-art-computer-vision-techniques-a7f2b893de2f


AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

行業(yè)級(jí)最先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù)摘要

如今,人工智能在工業(yè)領(lǐng)域有著蓬勃發(fā)展趨勢(shì),因?yàn)樽詣?dòng)化以及優(yōu)化仍是數(shù)字革命的主要焦點(diǎn)。在本文中,我們將回顧近幾年在AI社區(qū)中那些令人興奮的最先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù),這些技術(shù)被認(rèn)為是工業(yè)就緒的,而且對(duì)工業(yè)用例產(chǎn)生重大而又實(shí)際的影響。其中一些技術(shù)對(duì)性能的提升達(dá)到了令人難以置信的程度,超越了人類(lèi)能達(dá)到的性能水平,從而超出了大多數(shù)行業(yè)所期望的精度和可靠性標(biāo)準(zhǔn)。在基本的計(jì)算機(jī)視覺(jué)任務(wù)(例如圖像分類(lèi))中取得的驚人進(jìn)步,使得可靠地結(jié)合多種技術(shù)來(lái)創(chuàng)建新的復(fù)合技術(shù)從而實(shí)現(xiàn)之前從未在工業(yè)環(huán)境中探索過(guò)的全新用例成為可能。話(huà)雖如此,這些新技術(shù)已經(jīng)證明其結(jié)果可與那些只能通過(guò)非常密集的硬件專(zhuān)用系統(tǒng)才能獲得的精度和可靠性結(jié)果相媲美。雖然在實(shí)現(xiàn)這些專(zhuān)用系統(tǒng)和安裝與之相關(guān)的硬件方面存在實(shí)際的困難和限制,但相機(jī)是很容易買(mǎi)到的,從而極大地?cái)U(kuò)大了用例范圍。AI賦能的計(jì)算機(jī)視覺(jué)系統(tǒng)使得有可能跨入到一個(gè)新的領(lǐng)域,加速了工業(yè)4.0,真正數(shù)字化和物理現(xiàn)實(shí)增強(qiáng)的進(jìn)程。

在我們深入了解計(jì)算機(jī)視覺(jué)領(lǐng)域的最新進(jìn)展之前,讓我們先介紹一些基本概念以及深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)這方面的歷史事件。


  計(jì)算機(jī)視覺(jué)簡(jiǎn)介

計(jì)算機(jī)視覺(jué)是一門(mén)科學(xué),旨在使計(jì)算機(jī)能夠理解并從圖形和視頻中洞悉信息。計(jì)算機(jī)視覺(jué),即自動(dòng)執(zhí)行視覺(jué)任務(wù)的能力,例如從圖形或視頻中提取和分析有用的信息。


  機(jī)器學(xué)習(xí)和深度學(xué)習(xí)簡(jiǎn)介

機(jī)器學(xué)習(xí)是算法和統(tǒng)計(jì)模型的科學(xué)研究,它依賴(lài)于數(shù)據(jù)驅(qū)動(dòng)的方法來(lái)做決策而不是基于規(guī)則的方法。給定大量高質(zhì)量數(shù)據(jù)并通過(guò)改進(jìn)算法,機(jī)器學(xué)習(xí)系統(tǒng)能夠逐步提高其在特定任務(wù)上的性能。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子類(lèi),完全側(cè)重于一組可描述為網(wǎng)絡(luò)的數(shù)學(xué)算法。它們起初受到人腦中發(fā)現(xiàn)的生物神經(jīng)網(wǎng)絡(luò)的啟發(fā),同樣,人工神經(jīng)網(wǎng)絡(luò)具有數(shù)百萬(wàn)個(gè)人工突觸,數(shù)學(xué)上由數(shù)百萬(wàn)個(gè)簡(jiǎn)單的線(xiàn)性代數(shù)方程表示。


  深度學(xué)習(xí)驅(qū)動(dòng)計(jì)算機(jī)視覺(jué)

自2012年深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)一直是計(jì)算機(jī)視覺(jué)的主要關(guān)注點(diǎn)是有理由的。由深度學(xué)習(xí)驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)系統(tǒng)的優(yōu)點(diǎn)是它們具有更高準(zhǔn)確性,更靈活,且對(duì)大量的光線(xiàn)條件變化,視點(diǎn),尺度,方向,與背景融合,類(lèi)內(nèi)差異,變形以及視覺(jué)遮擋等情況具有更高容忍度。但最重要的是,它們啟發(fā)了新的用例。

早期的計(jì)算機(jī)視覺(jué)模型依賴(lài)于原始像素?cái)?shù)據(jù)作為機(jī)器學(xué)習(xí)模型的輸入。然而,單獨(dú)的原始像素?cái)?shù)據(jù)不足以包含圖像中對(duì)象的千變?nèi)f化。

深度學(xué)習(xí)驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)基于深度神經(jīng)網(wǎng)絡(luò)可在訓(xùn)練階段自動(dòng)提取和創(chuàng)建特定任務(wù)的特征,然后將其用于執(zhí)行計(jì)算機(jī)視覺(jué)任務(wù)。

下圖突出了深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)近6年歷史中最重要的一些事件。

  1. 2012年引入深度神經(jīng)網(wǎng)絡(luò)所帶來(lái)的突破使得圖像分類(lèi)誤差減少了約10%(從2011年的25.8%降至2012年的16.4%)。

  2. 2015年最先進(jìn)的算法在圖像分類(lèi)方面的表現(xiàn)超過(guò)了人類(lèi)水平(5.1%,Russakovsky et al.),準(zhǔn)確率為3.57%。

  3. 總體而言,深度神經(jīng)網(wǎng)絡(luò)的引入導(dǎo)致圖像分類(lèi)誤差減少10倍(從2011年的25.8%將至2017年的2.3%)。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

值得注意的是,上述結(jié)果是在ImageNet數(shù)據(jù)集上實(shí)現(xiàn)的,其中20,000個(gè)類(lèi)別具有典型類(lèi)別,例如“氣球”或“草莓”,由數(shù)百個(gè)低分辨率469x387像素圖像組成。計(jì)算機(jī)視覺(jué)系統(tǒng)應(yīng)用于具有較少類(lèi)別,較少變化和較多數(shù)量的較高分辨率圖像的特定任務(wù)時(shí),其準(zhǔn)確度可以高達(dá)99.9%。這使得完全獨(dú)立自信地運(yùn)行一個(gè)系統(tǒng)成為可能。

現(xiàn)在我們已經(jīng)介紹了基礎(chǔ)知識(shí),我們可以更詳細(xì)地了解這些技術(shù)了。


  圖像分類(lèi)

在本節(jié)中,我們將介紹圖像分類(lèi),這是將一組固定類(lèi)別中的一個(gè)標(biāo)簽分配給圖像的任務(wù)。這是計(jì)算機(jī)視覺(jué)中的核心問(wèn)題之一,盡管其簡(jiǎn)單,但其具有各種各樣的實(shí)際應(yīng)用。許多其它看似不同的計(jì)算機(jī)視覺(jué)任務(wù)(例如圖像 字幕,目標(biāo)檢測(cè),關(guān)鍵點(diǎn)檢測(cè)和分割)可以簡(jiǎn)化為圖像分類(lèi),其它任務(wù)利用全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)。以下視頻片段說(shuō)明了一個(gè)非常簡(jiǎn)單的分類(lèi)事例。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

Simple Image Classification using Convolutional Neural Network (Venkatesh Tata Dec 2017)


  圖像關(guān)鍵字和字幕

該技術(shù)處于計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理(NLP)這兩AI中最有趣領(lǐng)域的交點(diǎn)。關(guān)鍵字是用于描述照片或圖像元素的單詞。關(guān)鍵字是對(duì)照片添加描述性術(shù)語(yǔ)的過(guò)程。

圖像字幕是指基于圖像中的對(duì)象和動(dòng)作從圖像或視頻生成文本描述的過(guò)程。在下圖中可以看到這方面的一個(gè)例子。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

 Image Captioning based on Deep Reinforcement Learning (Shi et al. Aug 2018)


  目標(biāo)檢測(cè)

目標(biāo)檢測(cè)是一種計(jì)算機(jī)視覺(jué)技術(shù),用于識(shí)別和定位圖像或視頻中的對(duì)象。這通常通過(guò)帶邊框標(biāo)記的框包圍對(duì)象來(lái)完成。目標(biāo)檢測(cè)是自動(dòng)駕駛汽車(chē)背后的關(guān)鍵技術(shù),使它們能夠識(shí)別其他汽車(chē)或區(qū)分行人與燈柱。它還可以用于各種應(yīng)用,例如工業(yè)檢測(cè)和機(jī)器人視覺(jué)。由于ImageNet競(jìng)賽,僅2010年至2014年間,定位誤差(從42.5%降至25.3%)就減少了1.7倍。下面的視頻片段顯示了該技術(shù)的實(shí)時(shí)實(shí)施結(jié)果,用于檢測(cè)城市中發(fā)現(xiàn)的與一輛自動(dòng)駕駛視覺(jué)系統(tǒng)相關(guān)的車(chē),人以及其他常見(jiàn)物體。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

YOLO v3: An Incremental Improvement (Redmon et al. Apr 2018)


  關(guān)鍵點(diǎn)檢測(cè)和姿態(tài)估計(jì)

關(guān)鍵點(diǎn)被視為圖像有趣或重要部分的特征。它們是圖像中的空間位置或點(diǎn),定義圖像中有趣的內(nèi)容或突出的內(nèi)容。關(guān)鍵點(diǎn)之所以特殊,是因?yàn)樗沟酶櫺薷暮蟮膱D像中的相同關(guān)鍵點(diǎn)成為可能,其中圖像或圖像中的對(duì)象會(huì)發(fā)生旋轉(zhuǎn)、收縮/膨脹或變形。

姿態(tài)估計(jì)是計(jì)算機(jī)視覺(jué)中的一個(gè)普遍問(wèn)題,其目的是檢測(cè)物體的位置和方向。這通常意味著檢測(cè)對(duì)象的關(guān)鍵點(diǎn)位置。這種技術(shù)可以用來(lái)創(chuàng)建一個(gè)非常精確的二維/三維模型,描述對(duì)象關(guān)鍵點(diǎn)的位置,然后可以用來(lái)創(chuàng)建一個(gè)數(shù)字孿生兄弟。

例如,在姿態(tài)估計(jì)問(wèn)題中,可以檢測(cè)到常見(jiàn)的方形家居對(duì)象的角點(diǎn),從而可以深入了解對(duì)象在環(huán)境中的三維位置。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

Deep Object Pose Estimation for Semantic Robotic Grasping of Household Objects (Trembley et al. Sep 2018)

同樣的方法也可以用于檢測(cè)人體姿勢(shì),人體上的關(guān)鍵點(diǎn)如肩膀、肘部、手、膝蓋和腳都會(huì)被檢測(cè)到。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields (Cao et al. 18 Dec 2018)


  語(yǔ)義分割

下一種技術(shù)稱(chēng)為語(yǔ)義分割(也稱(chēng)為對(duì)象掩蔽),它解決了計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)關(guān)鍵問(wèn)題:直觀地分離圖像中的物體。從大的圖像上看,語(yǔ)義分割為完全理解場(chǎng)景鋪平了道路。這是非常有用的,因?yàn)樗褂?jì)算機(jī)能夠精確地識(shí)別不同物體的邊界。場(chǎng)景理解作為一個(gè)計(jì)算機(jī)視覺(jué)的核心問(wèn)題,其重要性在于從語(yǔ)義分割中所獲得的知識(shí)使得越來(lái)越多的應(yīng)用程序的健壯性得以提升。在下面所示的自動(dòng)駕駛汽車(chē)示例中,它幫助汽車(chē)識(shí)別道路和其他物體的準(zhǔn)確位置。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

深度學(xué)習(xí)之語(yǔ)義分割(喬治·塞夫2018年9月)

下面提到的技術(shù)屬于圖像到圖像轉(zhuǎn)化的范疇。對(duì)于下面的技術(shù),網(wǎng)絡(luò)通過(guò)提高質(zhì)量而不是提取見(jiàn)解或得出結(jié)論來(lái)增強(qiáng)圖像和視頻。


  超分辨率:

此任務(wù)的目標(biāo)是在同時(shí)提高細(xì)節(jié)級(jí)別的同時(shí)提高圖像的分辨率。一個(gè)非常深的神經(jīng)網(wǎng)絡(luò)最近在圖像超分辨率方面取得了巨大的成功。放大倍數(shù)適用于2倍放大,如下圖所示。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

超分辨率圖像殘留的密集網(wǎng)絡(luò)(Zhang等人,2018日三月)


  夜視

在弱光下成像是一項(xiàng)挑戰(zhàn)。短曝光圖像會(huì)產(chǎn)生噪聲,長(zhǎng)曝光時(shí)間會(huì)導(dǎo)致動(dòng)態(tài)模糊。后者通常也不切實(shí)際,尤其是對(duì)于手持?jǐn)z影。人們已經(jīng)提出了各種去噪、去模糊和增強(qiáng)技術(shù),但它們的效果在極端條件下是有限的,例如夜間高速攝影。為了提高目前的標(biāo)準(zhǔn),研究人員引入了一種基于深度網(wǎng)絡(luò)端到端訓(xùn)練的低光圖像處理技術(shù)。該網(wǎng)絡(luò)直接利用原始傳感器數(shù)據(jù),取代了許多傳統(tǒng)的圖像處理技術(shù)。這可以在下面的圖像中清楚地看到,暗噪聲圖像得到了顯著的增強(qiáng)。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

在黑暗中學(xué)會(huì)看東西(Chen等人,2018年五月)


  Super SloMo

視頻插值旨在在兩個(gè)連續(xù)幀之間生成中間幀。這些人工生成的畫(huà)面與原始圖像有著不可區(qū)分的視覺(jué)特征。這項(xiàng)技術(shù)是放大攝像系統(tǒng)性能的理想方法。對(duì)多個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,深度學(xué)習(xí)方法比現(xiàn)有的方法具有更好的一致性。這項(xiàng)技術(shù)的結(jié)果可以在下面的視頻剪輯中看到,在原始幀之間添加7個(gè)中間幀來(lái)創(chuàng)建平滑的慢動(dòng)作視頻。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

Super SloMo:視頻插值多中間幀的高質(zhì)量估計(jì)(Jiang等人,2018年7月)

在本文中,我們研究了許多計(jì)算機(jī)視覺(jué)技術(shù),這些技術(shù)是由最近幾個(gè)月開(kāi)發(fā)的深入學(xué)習(xí)提供動(dòng)力的,并且已經(jīng)展示了令人難以置信的結(jié)果,并準(zhǔn)備在行業(yè)中實(shí)施。這些技術(shù)處于技術(shù)的前沿,通過(guò)提高速度、準(zhǔn)確性、可靠性和靈活性,表現(xiàn)出明顯的優(yōu)于以前的技術(shù)。

創(chuàng)新的關(guān)鍵驅(qū)動(dòng)因素是近年來(lái)人工智能研究論文的數(shù)量激增,特別是在計(jì)算機(jī)視覺(jué)領(lǐng)域,使充分利用技術(shù)進(jìn)步來(lái)改善工業(yè)運(yùn)營(yíng)的最新趨勢(shì)變得更加重要。

謝謝你的閱讀!希望,你學(xué)到了一些新的和有用的關(guān)于最先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù)的東西,這些技術(shù)已經(jīng)為工業(yè)上的實(shí)際應(yīng)用做好了準(zhǔn)備。

如果你想了解更多,請(qǐng)一定要為這篇文章鼓掌,并跟隨我。

如果你想討論一個(gè)與你的生產(chǎn)環(huán)境相關(guān)的用例,請(qǐng)直接聯(lián)系我philip@beamberlin.com。



想要繼續(xù)查看該篇文章相關(guān)鏈接和參考文獻(xiàn)?

長(zhǎng)按鏈接點(diǎn)擊打開(kāi)或點(diǎn)擊【AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?】:

https://ai.yanxishe.com/page/TextTranslation/1410


AI研習(xí)社每日更新精彩內(nèi)容,觀看更多精彩內(nèi)容:雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

盤(pán)點(diǎn)圖像分類(lèi)的竅門(mén)

動(dòng)態(tài)編程:二項(xiàng)式序列

如何用Keras來(lái)構(gòu)建LSTM模型,并且調(diào)參

一文教你如何用PyTorch構(gòu)建 Faster RCNN


等你來(lái)譯:

如何在神經(jīng)NLP處理中引用語(yǔ)義結(jié)構(gòu) 

你睡著了嗎?不如起來(lái)給你的睡眠分個(gè)類(lèi)吧! 

高級(jí)DQNs:利用深度強(qiáng)化學(xué)習(xí)玩吃豆人游戲

深度強(qiáng)化學(xué)習(xí)新趨勢(shì):谷歌如何把好奇心引入強(qiáng)化學(xué)習(xí)智能體 


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

AI和工業(yè)4.0之間,還有多遠(yuǎn)的差距?

分享:
相關(guān)文章

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識(shí),讓語(yǔ)言不再成為學(xué)習(xí)知識(shí)的門(mén)檻。(原雷鋒字幕組)
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)