0
本文作者: MarsCao | 2018-10-24 15:35 |
雷鋒網(wǎng)按:光場(chǎng)技術(shù)是目前最受追捧的下一代顯示技術(shù),谷歌、Facebook、Magic Leap等國(guó)內(nèi)外大公司都在大力布局。然而目前國(guó)內(nèi)對(duì)光場(chǎng)(Light Field)技術(shù)的中文介紹十分匱乏,曹煊博士《Mars說(shuō)光場(chǎng)》系列文章旨在對(duì)光場(chǎng)技術(shù)及其應(yīng)用的科普介紹。
曹煊博士系騰訊優(yōu)圖實(shí)驗(yàn)室高級(jí)研究員。優(yōu)圖— 騰訊旗下頂級(jí)的機(jī)器學(xué)習(xí)研發(fā)團(tuán)隊(duì),專注于圖像處理、模式識(shí)別、深度學(xué)習(xí)。在人臉識(shí)別、圖像識(shí)別、醫(yī)療AI、OCR、哼唱識(shí)別、語(yǔ)音合成等領(lǐng)域都積累了領(lǐng)先的技術(shù)水平和完整解決方案。
《Mars說(shuō)光場(chǎng)》系列文章目前已有5篇,包括:《Mars說(shuō)光場(chǎng)(1)— 為何巨頭紛紛布局光場(chǎng)技術(shù)》、《Mars說(shuō)光場(chǎng)(2)— 光場(chǎng)與人眼立體成像機(jī)理》、《Mars說(shuō)光場(chǎng)(3)— 光場(chǎng)采集》、《Mars說(shuō)光場(chǎng)(4)— 光場(chǎng)顯示》、《Mars說(shuō)光場(chǎng)(5)— 光場(chǎng)在三維人臉建模中的應(yīng)用》 ,雷鋒網(wǎng)經(jīng)授權(quán)發(fā)布。
【摘要】 — 光場(chǎng)顯示能在視覺(jué)上完全重現(xiàn)真實(shí)世界,但在顯示光場(chǎng)以前首先要采集光場(chǎng),否則將會(huì)是“巧婦難為無(wú)米之炊”。傳統(tǒng)相機(jī)拍攝的2D圖片不能用于光場(chǎng)顯示[1],因此需要專業(yè)的光場(chǎng)采集設(shè)備。相關(guān)研究者已經(jīng)建立了一系列光場(chǎng)采集的理論[2],并在光場(chǎng)采集技術(shù)的發(fā)展過(guò)程中出現(xiàn)了多種設(shè)計(jì)方案,受到廣泛關(guān)注和研究的主要有三種設(shè)計(jì)思路:(1)基于微透鏡陣列(Microlens Array)的光場(chǎng)采集;(2)基于相機(jī)陣列(Camera Array)的光場(chǎng)采集[3];(3)基于編碼掩膜(Coded Mask)[4]的光場(chǎng)采集。
1、基于微透鏡陣列的光場(chǎng)采集
基于微透鏡陣列的光場(chǎng)采集最早可以追溯到1908年Lippmann提出的集成成像(Integral photography)[5],集成成像為基于微透鏡陣列的光場(chǎng)采集奠定了重要的理論基礎(chǔ)。關(guān)于集成成像的發(fā)展歷史,可以參考Roberts在2003年的詳細(xì)梳理[6]。基于集成成像理論,MIT的Adelson在1992年嘗試采用微透鏡陣列來(lái)制造光場(chǎng)相機(jī)[7],斯坦福Levoy將集成成像應(yīng)用于顯微鏡,實(shí)現(xiàn)了光場(chǎng)顯微鏡[8]。
基于透鏡陣列的光場(chǎng)采集主要依靠在成像傳感器與主鏡頭之間加入一片微透鏡陣列,物體表面光線首先經(jīng)過(guò)主鏡頭,然后經(jīng)過(guò)微透鏡,最后到達(dá)成像傳感器(e.g. CCD/CMOS)。如圖1所示,物體表面A點(diǎn)在FOP角度范圍內(nèi)發(fā)出的光線進(jìn)入相機(jī)主鏡頭并聚焦于微透鏡,微透鏡將光線分成4x4束,并被成像傳感器上對(duì)應(yīng)的16個(gè)像素記錄。類似的,空間中其它發(fā)光點(diǎn),例如B點(diǎn)和C點(diǎn),在其FOP角度范圍內(nèi)的光線都被分成4x4束并被分別記錄。
微透鏡陣列的主要作用是將物體表面同一點(diǎn)在一定角度范圍內(nèi)的各個(gè)方向發(fā)出光線進(jìn)行離散化解耦,圖1中的微透鏡將光線離散化為4x4束,離散化程度由微透鏡光學(xué)參數(shù)、主透鏡光學(xué)參數(shù)及微透鏡與成像傳感器之間的距離等多方面因素決定。
參照光場(chǎng)4D模型,微透鏡陣列好比(s, t)平面,成像傳感器好比(u, v)平面。在基于微透鏡陣列的光場(chǎng)采集模型中,(s, t)平面微透鏡的數(shù)量決定了光場(chǎng)的圖像分辨率。(u, v)平面像素?cái)?shù)量決定了能采集光線的總數(shù)量,(u, v)平面像素總量與(s, t)平面微透鏡數(shù)量的比值即為光場(chǎng)角度分辨率,也即采集視點(diǎn)個(gè)數(shù)。
圖 1. 基于微透鏡陣列的光場(chǎng)采集原理示意圖
基于微透鏡陣列的光場(chǎng)采集具有體積小,單次拍攝成像等優(yōu)點(diǎn)。但也存在兩個(gè)明顯的缺陷,一方面是單視點(diǎn)的圖像分辨率損失嚴(yán)重[9],例如使用4K(4096*2160)的圖像傳感器采集4x4視點(diǎn)的光場(chǎng),則圖像分辨率在水平方向和垂直方向都降低到原分辨率的四分之一,既單個(gè)視點(diǎn)圖像分辨率只有1024*540。另一方面是采集光場(chǎng)的FOP角度較小,也即視差較小,只能在較小的角度范圍內(nèi)變換視點(diǎn)。
盡管存在上述的缺點(diǎn),但由于總體成本在可控范圍內(nèi),基于微透鏡的光場(chǎng)采集方案是商業(yè)化光場(chǎng)相機(jī)主要采用的方案。目前已經(jīng)商業(yè)化的光場(chǎng)相機(jī)主要包括美國(guó)的Lytro和德國(guó)的Raytrix。Lytro是一款基于微透鏡陣列的手持光場(chǎng)相機(jī),由斯坦福大學(xué)Ren Ng(Marc Levoy的博士生)在2005年提出 [10,11],并分別于2011年和2014年正式向市場(chǎng)推出第一代和第二代手持式光場(chǎng)相機(jī)Lytro[12]。相比傳統(tǒng)相機(jī),Lytro的關(guān)鍵設(shè)計(jì)是在傳統(tǒng)相機(jī)中嵌入一塊微透鏡陣列,如圖2所示。物體發(fā)出的光線被主透鏡聚焦在微透鏡陣列平面,微透鏡陣列將光線分開(kāi)并被圖像傳感器分別記錄下來(lái),從而同時(shí)記錄了不同方向上光線的強(qiáng)度。
圖 2. 美國(guó)Lytro基于微透鏡陣列的光場(chǎng)相機(jī)
Raytrix [13]是德國(guó)一家創(chuàng)業(yè)公司,同樣是基于微透鏡陣列的便攜式光場(chǎng)相機(jī)[14]。Lytro主要面向大眾普通用戶,而Raytrix不僅面向普通用戶還面向工業(yè)和科研應(yīng)用領(lǐng)域,如圖3所示。Raytrix擴(kuò)大了采集光場(chǎng)的深度范圍[15]并開(kāi)發(fā)了一套自動(dòng)標(biāo)定算法用于標(biāo)定光場(chǎng)相機(jī)[16]。
圖 3. 德國(guó)Raytrix基于微透鏡陣列的光場(chǎng)相機(jī)
Adobe Systems Inc. 的Todor Georgeiv在2006年研究了視點(diǎn)分辨率與角度分辨率之間的互相平衡關(guān)系[17],在2008年提出了一種統(tǒng)一的光場(chǎng)相機(jī)仿射光路理論[18]并提高光場(chǎng)分辨率[19],基于該理論框架構(gòu)造的光場(chǎng)相機(jī)如圖4所示。嚴(yán)格來(lái)說(shuō),Todor Georgeiv提出的光場(chǎng)相機(jī)與上述Lytro和Raytrix的基于微透鏡陣列的光場(chǎng)相機(jī)并不完全相同。圖4中透鏡陣列更靠近相機(jī)主透鏡位置,解耦合后的光線在成像傳感器上形成的圖像與Lytro或Raytrix并不相同,因此從成像傳感器原始數(shù)據(jù)提取光場(chǎng)的算法也與Lytro和Raytrix不同。
圖 4. 美國(guó)Adobe Systems Inc.光場(chǎng)相機(jī)
2、基于相機(jī)陣列的光場(chǎng)采集
基于相機(jī)陣列的光場(chǎng)采集不需要對(duì)相機(jī)進(jìn)行改造,但需要增加相機(jī)的數(shù)量。光線從物體表面發(fā)出,分別進(jìn)入多個(gè)相機(jī)鏡頭,并分別被對(duì)應(yīng)的成像傳感器記錄。如圖5所示為4x4相機(jī)陣列,A點(diǎn)在半球范圍內(nèi)發(fā)出各向異性的光線,其中FOP角度范圍內(nèi)的光線進(jìn)入了相機(jī)陣列,并被分成4x4束光線,每束光線被對(duì)應(yīng)的鏡頭聚焦在成像傳感器上,由此A點(diǎn)各向異性的光線被離散化為4x4束并被分別記錄。
對(duì)比圖1中基于微透鏡的光場(chǎng)采集方案,相機(jī)陣列通過(guò)多個(gè)鏡頭將物體表面同一點(diǎn)在一定角度內(nèi)各向異性的光線解耦和,并離散為多束光線分別記錄。解耦和后的離散化程度由相機(jī)陣列的規(guī)模決定。相機(jī)數(shù)量越多,離散化程度越高。
參照光場(chǎng)4D模型,圖5中鏡頭陣列好比(s, t)平面,成像傳感器陣列好比(u, v)平面。(s, t)平面鏡頭的數(shù)量,也即相機(jī)的數(shù)量,決定了光場(chǎng)視點(diǎn)個(gè)數(shù)。(u, v)平面所有像素?cái)?shù)量決定了能采集光線的總數(shù)量。(u, v)平面像素總量與(s, t)平面鏡頭數(shù)量的比值即為單個(gè)視點(diǎn)分辨率。一般而言,相機(jī)陣列中各個(gè)相機(jī)成像傳感器的分辨率一致,所以單個(gè)相機(jī)成像傳感器的分辨率即為光場(chǎng)視點(diǎn)分辨率。
圖 5. 基于相機(jī)陣列的光場(chǎng)采集示意圖
相比基于微透鏡陣列的光場(chǎng)相機(jī),基于相機(jī)陣列的光場(chǎng)采集方案具有兩個(gè)明顯的優(yōu)勢(shì):(1)采集光場(chǎng)的FOP角度較大,也即視差較大,可以在較大的角度范圍內(nèi)變換視點(diǎn)。(2)圖像分辨率不損失,因此單個(gè)視點(diǎn)的圖像分辨率一般都高于基于微透鏡陣列的光場(chǎng)相機(jī)。但基于相機(jī)陣列的光場(chǎng)采集方案也存在成本高昂,體積較大的明顯缺陷,例如圖6中Jason Yang于2002年在MIT搭建出全世界第一套近實(shí)時(shí)相機(jī)陣列[20],由8x8共64個(gè)相機(jī)組成,單個(gè)視點(diǎn)分辨率為320x240,光場(chǎng)采集速率為18FPS,延遲為80毫秒。
圖 6. Jason Yang于2002年在MIT實(shí)現(xiàn)的實(shí)時(shí)相機(jī)陣列
斯坦福大學(xué)Bennett Wilburn在2000年實(shí)現(xiàn)了數(shù)據(jù)編碼壓縮的光場(chǎng)視頻相機(jī)[21],之后進(jìn)一步改進(jìn)光場(chǎng)相機(jī)系統(tǒng),在2004年展示了稠密光場(chǎng)相機(jī)陣列[22]。Bennett Wilburn設(shè)計(jì)的稠密光場(chǎng)相機(jī)陣列包含52個(gè)30fps的COMS成像單元,單個(gè)視點(diǎn)分辨率為640x480,如圖7所示。
圖 7. Bennett Wilburn于2004年在斯坦福大學(xué)設(shè)計(jì)的稠密光場(chǎng)相機(jī)陣列
Bennett Wilburn在2005年進(jìn)一步增加相機(jī)數(shù)量到約100個(gè),構(gòu)建了大規(guī)模光場(chǎng)相機(jī)陣列[23],并搭建了三種不同類型的大規(guī)模光場(chǎng)相機(jī),如圖8所示,分別是(a)緊密排列的長(zhǎng)焦鏡頭大規(guī)模相機(jī)陣列,主要用于實(shí)現(xiàn)高分辨率成像。(b)緊密排列的廣角鏡頭大規(guī)模相機(jī)陣列,主要用于實(shí)現(xiàn)高速視頻捕獲和混合合成孔徑成像。(c)分散排布的大規(guī)模相機(jī)陣列。
圖 8. Bennett Wilburn于2005年在斯坦福大學(xué)設(shè)計(jì)的大規(guī)模光場(chǎng)相機(jī)陣列
由于硬件成本高昂,體積較大等缺點(diǎn),目前To C端的應(yīng)用中還沒(méi)有采用基于相機(jī)陣列的光場(chǎng)采集方案。曹煊在2015年提出稀疏相機(jī)陣列光場(chǎng)采集方案[24],利用壓縮感知和稀疏編碼大大減少了相機(jī)數(shù)量,降低了硬件成本,但仍然存在體積大的問(wèn)題。Pelican是美國(guó)硅谷的一家創(chuàng)業(yè)公司,正在嘗試將相機(jī)陣列小型化。該公司在2013年實(shí)現(xiàn)了超薄高性能的相機(jī)陣列[25],如圖9所示。通過(guò)光學(xué)設(shè)計(jì)的優(yōu)化[26]和光場(chǎng)超分辨算法的應(yīng)用[27,28],Pelican制造了小巧的相機(jī)陣列,并形成一個(gè)獨(dú)立的光場(chǎng)相機(jī)模塊。Pelican綜合了多種方法在保持相機(jī)陣列輕薄的前提下提升了所采集光場(chǎng)分辨率[29,30]。
圖 9. 美國(guó)初創(chuàng)公司Pelican設(shè)計(jì)的超小體積高性能相機(jī)陣列
3、基于編碼掩膜的光場(chǎng)采集
基于微透鏡陣列和基于相機(jī)陣列的光場(chǎng)采集都有一個(gè)共同點(diǎn)——“陣列”。前者通過(guò)多個(gè)微透鏡構(gòu)成陣列,犧牲圖像分辨率換取角度分辨率。后者通過(guò)多個(gè)相機(jī)構(gòu)成陣列,在不犧牲圖像分辨率的情況下增加了角度分辨率,但是需要增加大量的圖像傳感器??傮w而言,視點(diǎn)分辨率與角度分辨率是一對(duì)矛盾因素,總是此消彼長(zhǎng)。通過(guò)增加成像傳感器數(shù)量來(lái)抵消這一矛盾會(huì)造成硬件成本的急劇增加。
上述兩種光場(chǎng)采集方案必須在圖像分辨率和角度分辨率之間進(jìn)行折中。學(xué)術(shù)界最新出現(xiàn)的基于編碼掩膜的光場(chǎng)采集打破了這一局限。該方案通過(guò)對(duì)光場(chǎng)的學(xué)習(xí)去掉光場(chǎng)的冗余性,從而實(shí)現(xiàn)了采集更少的數(shù)據(jù)量而重建出完整的光場(chǎng)。
如圖10所示,在傳統(tǒng)相機(jī)的成像光路中加入一片半透明的編碼掩膜,掩膜上每個(gè)像素點(diǎn)的光線透過(guò)率都不一樣(也稱為編碼模式),進(jìn)入光圈的光線在到達(dá)成像傳感器之前會(huì)被掩膜調(diào)制,經(jīng)過(guò)掩膜調(diào)制后的光線到達(dá)成像傳感器。利用提前學(xué)習(xí)好的光場(chǎng)字典,從單幅采集的調(diào)制圖像就可以重建出完整的光場(chǎng)。掩膜的編碼模式理論上可以采用隨機(jī)值,Kshitij Marwah證明了通過(guò)約束變換矩陣的轉(zhuǎn)置與變換矩陣的乘積為單位矩陣可以得到優(yōu)化的編碼掩膜,采用優(yōu)化后的編碼掩膜可以重建出更高質(zhì)量的光場(chǎng)。
圖 10. Kshitij Marwah于2013年在MIT設(shè)計(jì)的掩膜光場(chǎng)相機(jī)
很多學(xué)者已經(jīng)嘗試?yán)镁幋a掩膜來(lái)實(shí)現(xiàn)計(jì)算成像,例如國(guó)立臺(tái)灣大學(xué)的Chia-Kai Liang 在2008年采用可編程的光圈結(jié)合多次曝光成像實(shí)現(xiàn)了光場(chǎng)采集[31]。美國(guó)MIT大學(xué)在掩膜相機(jī)方面的研究非常深入,MIT大學(xué)CSAIL的Anat Levin 于2007年采用編碼光圈實(shí)現(xiàn)了深度圖像的采集[32],MIT Media Lab的Veeraraghavan Ashok 在2007年采用掩膜實(shí)現(xiàn)了可以重聚焦的相機(jī)[33],后于2011年結(jié)合閃光燈和相機(jī)掩膜實(shí)現(xiàn)了對(duì)高頻周期變化的圖像進(jìn)行高速攝像[34]。MIT Media Lab的Kshitij Marwah于2013年提出了基于掩膜的壓縮光場(chǎng)采集[35]。
基于編碼掩膜的光場(chǎng)采集方案最大的優(yōu)勢(shì)在于不需要犧牲圖像分辨率就能提高角度分辨率。但該方案存在光場(chǎng)圖像信噪比低的缺點(diǎn),這主要是由于兩方面的原因造成:(1)掩膜的透光率不能達(dá)到100%,因此會(huì)損失光線信號(hào)強(qiáng)度,導(dǎo)致成像信噪比低;(2)所重建的最終光場(chǎng)圖像并不是成像傳感器直接采集得到,而是通過(guò)從被調(diào)制的圖像中進(jìn)行解調(diào)制得到;本質(zhì)上是基于已經(jīng)學(xué)習(xí)的光場(chǎng)字典去“猜”出待重建的光場(chǎng)。
4、光場(chǎng)采集方案對(duì)比
上述三種主流的光場(chǎng)采集方案與傳統(tǒng)相機(jī)總結(jié)對(duì)比如下表。
表1. 傳統(tǒng)2D采集設(shè)備與光場(chǎng)采集設(shè)備的對(duì)比
采集數(shù)據(jù)維度 | 優(yōu)點(diǎn) | 缺點(diǎn) | |
傳統(tǒng)相機(jī) | R(x, y, λ, t) | 技術(shù)成熟, 價(jià)格低廉 | 只能采集平面圖片, 等同于角度分辨率為1X1的低階光場(chǎng) |
微透鏡陣列 | R(x, y, θ, Φ, λ, t) | 體積小, 成本較低 | 圖像分辨率損失嚴(yán)重 |
相機(jī)陣列 | R(x, y, θ, Φ, λ, t) | 基線大,視差大 圖像分辨率較高 | 成本高,體積大 硬件同步困難 |
編碼掩膜 | R(x, y, θ, Φ, λ, t) | 體積小 分辨率不損失 | 信噪比低 光場(chǎng)質(zhì)量下降 |
基于微透鏡陣列的光場(chǎng)采集具有體積小巧,硬件成本低等優(yōu)點(diǎn)。但其缺點(diǎn)也很明顯:1)光場(chǎng)視點(diǎn)圖像分辨率損失嚴(yán)重,隨著視點(diǎn)數(shù)量的增加,單個(gè)視點(diǎn)分辨率急劇降低。2)受到相機(jī)光圈的限制,光場(chǎng)中可觀察的視差范圍較小。
基于相機(jī)陣列的光場(chǎng)采集相比基于微透鏡陣列的光場(chǎng)采集具有更多優(yōu)點(diǎn):1)視點(diǎn)分辨率不損失,由單個(gè)相機(jī)成像傳感器決定。2)光場(chǎng)的視差范圍更大。但基于相機(jī)陣列的光場(chǎng)采集仍然面臨兩個(gè)問(wèn)題:1)需要的相機(jī)數(shù)量較多,硬件成本高昂,例如采集7x7視點(diǎn)的光場(chǎng)需要49個(gè)相機(jī)。2)相機(jī)同步控制復(fù)雜,數(shù)據(jù)量大,存儲(chǔ)和傳輸成本高。
基于編碼掩膜的光場(chǎng)采集打破了角度分辨率與視點(diǎn)圖像分辨率之間的互相制約關(guān)系,利用“學(xué)習(xí)”的方法去掉光場(chǎng)冗余性,從少量信息中恢復(fù)光場(chǎng)。雖然存在信噪比降低的問(wèn)題,但在2K時(shí)代,分辨率不損失這一優(yōu)點(diǎn)使得該方案受到廣泛關(guān)注。
[1] Van Berkel C. Image Preparation for 3D-LCD[C]//Stereoscopic Displays and Virtual Reality Systems VI,1999.
[2] Chai J X, Tong X, Chan S C, et al. Plenoptic sampling[C]// Conference on Computer Graphics and Interactive Techniques. ACM Press/Addison-Wesley Publishing Co. 2000:307-318.
[3] Levoy M. Light Fields and Computational Imaging[J]. Computer, 2006, 39(8):46-55.
[4] Lanman D. Mask-based light field capture and display[C]// Ph.D. Dissertation, Brown University, 2011.
[5] Lippmann G. Epreuves reversibles. Photographies integrals[J]. Comptes-Rendus Academie des Sciences, 1908, 146(3):446-451.
[6] Roberts D E. History of Lenticular and Related Autostereoscopic Methods[J]. Leap Technologies Hillsboro, 2003.
[7] Adelson E H, Wang J Y A. Single Lens Stereo with a Plenoptic Camera[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1992, 14(2):99-106.
[8] Levoy M, Ren N, Adams A, et al. Light field microscopy[J]. Acm Transactions on Graphics, 2006, 25(3):924-934.
[9] Hoshino H, Okano F, Isono H, et al. Analysis of resolution limitation of integral photography[J]. Journal of the Optical Society of America A, 1998, 15(8):2059-2065.
[10] Ren N, Levoy M, Bredif M, et al. Light Field Photography with a Hand-Held Plenopic Camera[J]. Tech. Rep. CSTR Stanford Computer Science. 2005.
[11] R. Ng, “Digital light field photography”, PhD. Thesis, Stanford University, 2006.
[12] https://illum.lytro.com/
[13] www.raytrix.de
[14] Raytrix, “Digital imaging system for synthesizing an image using data recorded with a plenoptic camera,” European Patent EP09005628.4 (April 2009).
[15] Perwass C, Wietzke L. Single lens 3D-camera with extended depth-of-field[C]// IS&T/SPIE Electronic Imaging. International Society for Optics and Photonics, 2012.
[16] Heinze C, Spyropoulos S, Hussmann S, et al. Automated Robust Metric Calibration Algorithm for Multifocus Plenoptic Cameras[J]. IEEE Transactions on Instrumentation & Measurement, 2016, 65(5):1197-1205.
[17] Georgeiv T, Zheng K C, Curless B, et al. Spatio-angular resolution tradeoffs in integral photography[C]// Eurographics Symposium on Rendering Techniques, Nicosia, Cyprus. DBLP, 2006:263-272.
[18] Georgeiv T, Intwala C. Light Field Camera Design for Integral View Photography[J]. Adobe Technical Report, 2008.
[19] Lumsdaine A, Georgiev, T, Full resolution lightfield rendering, Adobe Technical Report, 2008.
[20] Yang J C, Everett M, Buehler C, et al. A real-time distributed light field camera[C]// Eurographics Workshop on Rendering. Eurographics Association, 2002:77-86.
[21] Wilburn B S, Smulski M, Lee K, et al. The Light field video camera[J]. Proceedings of SPIE - The International Society for Optical Engineering, 2001, 2002:29--36.
[22] Wilburn B, Joshi N, Vaish V, et al. High-Speed Videography Using a Dense Camera Array[C]// Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on. IEEE, 2004:II-294-II-301 Vol.2.
[23] Wilburn B, Joshi N, Vaish V, et al. High performance imaging using large camera arrays[J]. Acm Transactions on Graphics, 2005, 24(3):765-776.
[24] Cao X, Geng Z, Li T. Dictionary-based light field acquisition using sparse camera array[J]. Optics Express, 2014, 22(20):24081-24095.
[25] Venkataraman K, Lelescu D, Duparr, et al. PiCam : an ultra-thin high performance monolithic camera array[J]. Acm Transactions on Graphics, 2013, 32(6):166.
[26] Tanida J, Kumagai T, Yamada K, et al. Thin Observation Module by Bound Optics (TOMBO): Concept and Experimental Verification[J]. Applied Optics, 2001, 40(11):1806.
[27] Baker S, Kanade T. Limits on Super-Resolution and How to Break Them[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 2000, 24(9):1167-1183.
[28] Bishop T E, Zanetti S, Favaro P. Light field superresolution[C]// IEEE International Conference on Computational Photography. IEEE, 2009:1-9.
[29] Georgiev T, Chunev G, Lumsdaine A. Superresolution with the focused plenoptic camera[C]// IS&T/SPIE Electronic Imaging. International Society for Optics and Photonics, 2011:78730X-78730X-13.
[30] Wanner S, Goldluecke B. Spatial and Angular Variational Super-Resolution of 4D Light Fields[M]// Computer Vision – ECCV 2012. Springer Berlin Heidelberg, 608-621.
[31] Liang C K, Lin T H, Wong B Y, et al. Programmable aperture photography: Multiplexed light field acquisition[J]. Acm Transactions on Graphics, 2008, 27(3):55.
[32] Levin A, Fergus R, Durand F, et al. Image and depth from a conventional camera with a coded aperture[C]// ACM SIGGRAPH. ACM, 2007:70.
[33] Veeraraghavan A, Raskar R, Agrawal A, et al. Dappled photography: mask enhanced cameras for heterodyned light fields and coded aperture refocusing[C]// SIGGRAPH. 2007:69.
[34] Veeraraghavan A, Reddy D, Raskar R. Coded Strobing Photography: Compressive Sensing of High Speed Periodic Videos[J]. Pattern Analysis & Machine Intelligence IEEE Transactions on, 2011, 33(4):671-686.
[35] Marwah K, Wetzstein G, Bando Y, et al. Compressive light field photography using overcomplete dictionaries and optimized projections[J]. Acm Transactions on Graphics, 2013, 32(4):1-12.
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。