0
本文作者: 不靈叔 | 2017-12-20 18:55 |
雷鋒網(wǎng) AI 科技評(píng)論按:本文作者羅浩為浙江大學(xué)博士生,本文為羅浩為雷鋒網(wǎng) AI 科技評(píng)論撰寫的獨(dú)家稿件,未經(jīng)許可不得轉(zhuǎn)載。
早期的ReID研究大家還主要關(guān)注點(diǎn)在全局的global feature上,就是用整圖得到一個(gè)特征向量進(jìn)行圖像檢索。但是后來大家逐漸發(fā)現(xiàn)全局特征遇到了瓶頸,于是開始漸漸研究起局部的local feature。常用的提取局部特征的思路主要有圖像切塊、利用骨架關(guān)鍵點(diǎn)定位以及姿態(tài)矯正等等。
(1)圖片切塊是一種很常見的提取局部特征方式[12]。如下圖所示,圖片被垂直等分為若干份,因?yàn)榇怪鼻懈罡衔覀儗?duì)人體識(shí)別的直觀感受,所以行人重識(shí)別領(lǐng)域很少用到水平切割。
之后,被分割好的若干塊圖像塊按照順序送到一個(gè)長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long short term memory network, LSTM),最后的特征融合了所有圖像塊的局部特征。但是這種缺點(diǎn)在于對(duì)圖像對(duì)齊的要求比較高,如果兩幅圖像沒有上下對(duì)齊,那么很可能出現(xiàn)頭和上身對(duì)比的現(xiàn)象,反而使得模型判斷錯(cuò)誤。
(2)為了解決圖像不對(duì)齊情況下手動(dòng)圖像切片失效的問題,一些論文利用一些先驗(yàn)知識(shí)先將行人進(jìn)行對(duì)齊,這些先驗(yàn)知識(shí)主要是預(yù)訓(xùn)練的人體姿態(tài)(Pose)和骨架關(guān)鍵點(diǎn)(Skeleton) 模型。論文[13]先用姿態(tài)估計(jì)的模型估計(jì)出行人的關(guān)鍵點(diǎn),然后用仿射變換使得相同的關(guān)鍵點(diǎn)對(duì)齊。如下圖所示,一個(gè)行人通常被分為14個(gè)關(guān)鍵點(diǎn),這14個(gè)關(guān)鍵點(diǎn)把人體結(jié)果分為若干個(gè)區(qū)域。為了提取不同尺度上的局部特征,作者設(shè)定了三個(gè)不同的PoseBox組合。之后這三個(gè)PoseBox矯正后的圖片和原始為矯正的圖片一起送到網(wǎng)絡(luò)里去提取特征,這個(gè)特征包含了全局信息和局部信息。特別提出,如果這個(gè)仿射變換可以在進(jìn)入網(wǎng)絡(luò)之前的預(yù)處理中進(jìn)行,也可以在輸入到網(wǎng)絡(luò)后進(jìn)行。如果是后者的話需要需要對(duì)仿射變換做一個(gè)改進(jìn),因?yàn)閭鹘y(tǒng)的放射變化是不可導(dǎo)的。為了使得網(wǎng)絡(luò)可以訓(xùn)練,需要引入可導(dǎo)的近似放射變化,在本文中不贅述相關(guān)知識(shí)。
(3)CVPR2017的工作Spindle Net[14]也利用了14個(gè)人體關(guān)鍵點(diǎn)來提取局部特征。和論文[12]不同的是,Spindle Net并沒有用仿射變換來對(duì)齊局部圖像區(qū)域,而是直接利用這些關(guān)鍵點(diǎn)來?yè)赋龈信d趣區(qū)域(Region of interest, ROI)。Spindle Net網(wǎng)絡(luò)如下圖所示,首先通過骨架關(guān)鍵點(diǎn)提取的網(wǎng)絡(luò)提取14個(gè)人體關(guān)鍵點(diǎn),之后利用這些關(guān)鍵點(diǎn)提取7個(gè)人體結(jié)構(gòu)ROI。網(wǎng)絡(luò)中所有提取特征的CNN(橙色表示)參數(shù)都是共享的,這個(gè)CNN分成了線性的三個(gè)子網(wǎng)絡(luò)FEN-C1、FEN-C2、FEN-C3。對(duì)于輸入的一張行人圖片,有一個(gè)預(yù)訓(xùn)練好的骨架關(guān)鍵點(diǎn)提取CNN(藍(lán)色表示)來獲得14個(gè)人體關(guān)鍵點(diǎn),從而得到7個(gè)ROI區(qū)域,其中包括三個(gè)大區(qū)域(頭、上身、下身)和四個(gè)四肢小區(qū)域。這7個(gè)ROI區(qū)域和原始圖片進(jìn)入同一個(gè)CNN網(wǎng)絡(luò)提取特征。原始圖片經(jīng)過完整的CNN得到一個(gè)全局特征。三個(gè)大區(qū)域經(jīng)過FEN-C2和FEN-C3子網(wǎng)絡(luò)得到三個(gè)局部特征。四個(gè)四肢區(qū)域經(jīng)過FEN-C3子網(wǎng)絡(luò)得到四個(gè)局部特征。之后這8個(gè)特征按照?qǐng)D示的方式在不同的尺度進(jìn)行聯(lián)結(jié),最終得到一個(gè)融合全局特征和多個(gè)尺度局部特征的行人重識(shí)別特征。
(4)論文[15]提出了一種全局-局部對(duì)齊特征描述子(Global-Local-Alignment Descriptor, GLAD),來解決行人姿態(tài)變化的問題。與Spindle Net類似,GLAD利用提取的人體關(guān)鍵點(diǎn)把圖片分為頭部、上身和下身三個(gè)部分。之后將整圖和三個(gè)局部圖片一起輸入到一個(gè)參數(shù)共享CNN網(wǎng)絡(luò)中,最后提取的特征融合了全局和局部的特征。為了適應(yīng)不同分辨率大小的圖片輸入,網(wǎng)絡(luò)利用全局平均池化(Global average pooling, GAP)來提取各自的特征。和Spindle Net略微不同的是四個(gè)輸入圖片各自計(jì)算對(duì)應(yīng)的損失,而不是融合為一個(gè)特征計(jì)算一個(gè)總的損失。
(5)以上所有的局部特征對(duì)齊方法都需要一個(gè)額外的骨架關(guān)鍵點(diǎn)或者姿態(tài)估計(jì)的模型。而訓(xùn)練一個(gè)可以達(dá)到實(shí)用程度的模型需要收集足夠多的訓(xùn)練數(shù)據(jù),這個(gè)代價(jià)是非常大的。為了解決以上問題,AlignedReID[16]提出基于SP距離的自動(dòng)對(duì)齊模型,在不需要額外信息的情況下來自動(dòng)對(duì)齊局部特征。而采用的方法就是動(dòng)態(tài)對(duì)齊算法,或者也叫最短路徑距離。這個(gè)最短距離就是自動(dòng)計(jì)算出的local distance。
這個(gè)local distance可以和任何global distance的方法結(jié)合起來,論文[15]選擇以TriHard loss作為baseline實(shí)驗(yàn),最后整個(gè)網(wǎng)絡(luò)的結(jié)構(gòu)如下圖所示,具體細(xì)節(jié)可以去看原論文。
目前單幀的ReID研究還是主流,因?yàn)橄鄬?duì)來說數(shù)據(jù)集比較小,哪怕一個(gè)單GPU的PC做一次實(shí)驗(yàn)也不會(huì)花太長(zhǎng)時(shí)間。但是通常單幀圖像的信息是有限的,因此有很多工作集中在利用視頻序列來進(jìn)行行人重識(shí)別方法的研究[17-24]?;谝曨l序列的方法最主要的不同點(diǎn)就是這類方法不僅考慮了圖像的內(nèi)容信息,還考慮了幀與幀之間的運(yùn)動(dòng)信息等。
基于單幀圖像的方法主要思想是利用CNN來提取圖像的空間特征,而基于視頻序列的方法主要思想是利用CNN 來提取空間特征的同時(shí)利用遞歸循環(huán)網(wǎng)絡(luò)(Recurrent neural networks, RNN)來提取時(shí)序特征。上圖是非常典型的思路,網(wǎng)絡(luò)輸入為圖像序列。每張圖像都經(jīng)過一個(gè)共享的CNN提取出圖像空間內(nèi)容特征,之后這些特征向量被輸入到一個(gè)RNN網(wǎng)絡(luò)去提取最終的特征。最終的特征融合了單幀圖像的內(nèi)容特征和幀與幀之間的運(yùn)動(dòng)特征。而這個(gè)特征用于代替前面單幀方法的圖像特征來訓(xùn)練網(wǎng)絡(luò)。
視頻序列類的代表方法之一是累計(jì)運(yùn)動(dòng)背景網(wǎng)絡(luò)(Accumulative motion context network, AMOC)[23]。AMOC輸入的包括原始的圖像序列和提取的光流序列。通常提取光流信息需要用到傳統(tǒng)的光流提取算法,但是這些算法計(jì)算耗時(shí),并且無(wú)法與深度學(xué)習(xí)網(wǎng)絡(luò)兼容。為了能夠得到一個(gè)自動(dòng)提取光流的網(wǎng)絡(luò),作者首先訓(xùn)練了一個(gè)運(yùn)動(dòng)信息網(wǎng)絡(luò)(Motion network, Moti Nets)。這個(gè)運(yùn)動(dòng)網(wǎng)絡(luò)輸入為原始的圖像序列,標(biāo)簽為傳統(tǒng)方法提取的光流序列。如下圖所示,原始的圖像序列顯示在第一排,提取的光流序列顯示在第二排。網(wǎng)絡(luò)有三個(gè)光流預(yù)測(cè)的輸出,分別為Pred1,Pred2,Pred3,這三個(gè)輸出能夠預(yù)測(cè)三個(gè)不同尺度的光流圖。最后網(wǎng)絡(luò)融合了三個(gè)尺度上的光流預(yù)測(cè)輸出來得到最終光流圖,預(yù)測(cè)的光流序列在第三排顯示。通過最小化預(yù)測(cè)光流圖和提取光流圖的誤差,網(wǎng)絡(luò)能夠提取出較準(zhǔn)確的運(yùn)動(dòng)特征。
AMOC的核心思想在于網(wǎng)絡(luò)除了要提取序列圖像的特征,還要提取運(yùn)動(dòng)光流的運(yùn)動(dòng)特征,其網(wǎng)絡(luò)結(jié)構(gòu)圖如下圖所示。AMOC擁有空間信息網(wǎng)絡(luò)(Spatial network, Spat Nets)和運(yùn)動(dòng)信息網(wǎng)絡(luò)兩個(gè)子網(wǎng)絡(luò)。圖像序列的每一幀圖像都被輸入到Spat Nets來提取圖像的全局內(nèi)容特征。而相鄰的兩幀將會(huì)送到Moti Nets來提取光流圖特征。之后空間特征和光流特征融合后輸入到一個(gè)RNN來提取時(shí)序特征。通過AMOC網(wǎng)絡(luò),每個(gè)圖像序列都能被提取出一個(gè)融合了內(nèi)容信息、運(yùn)動(dòng)信息的特征。網(wǎng)絡(luò)采用了分類損失和對(duì)比損失來訓(xùn)練模型。融合了運(yùn)動(dòng)信息的序列圖像特征能夠提高行人重識(shí)別的準(zhǔn)確度。
論文[24]從另外一個(gè)角度展示了多幀序列彌補(bǔ)單幀信息不足的作用,目前大部分video based ReID方法還是不管三七二十一的把序列信息輸給網(wǎng)絡(luò),讓網(wǎng)絡(luò)去自己學(xué)有用的信息,并沒有直觀的去解釋為什么多幀信息有用。而論文[24]則很明確地指出當(dāng)單幀圖像遇到遮擋等情況的時(shí)候,可以用多幀的其他信息來彌補(bǔ),直接誘導(dǎo)網(wǎng)絡(luò)去對(duì)圖片進(jìn)行一個(gè)質(zhì)量判斷,降低質(zhì)量差的幀的重要度。
如上圖,文章認(rèn)為在遮擋較嚴(yán)重的情況下,如果用一般的pooling會(huì)造成attention map變差,遮擋區(qū)域的特征會(huì)丟失很多。而利用論文的方法每幀進(jìn)行一個(gè)質(zhì)量判斷,就可以著重考慮那些比較完整的幾幀,使得attention map比較完整。而關(guān)鍵的實(shí)現(xiàn)就是利用一個(gè)pose estimation的網(wǎng)絡(luò),論文叫做landmark detector。當(dāng)landmark不完整的時(shí)候就證明存在遮擋,則圖片質(zhì)量就會(huì)變差。之后pose feature map和global feature map都同時(shí)輸入到網(wǎng)絡(luò),讓網(wǎng)絡(luò)對(duì)每幀進(jìn)行一個(gè)權(quán)重判斷,給高質(zhì)量幀打上高權(quán)重,然后對(duì)feature map進(jìn)行一個(gè)線性疊加。思路比較簡(jiǎn)單但是還是比較讓人信服的。
5.基于GAN造圖的ReID方法
ReID有一個(gè)非常大的問題就是數(shù)據(jù)獲取困難,截止CVPR18 deadline截稿之前,最大的ReID數(shù)據(jù)集也就小幾千個(gè)ID,幾萬(wàn)張圖片(序列假定只算一張)。因此在ICCV17 GAN造圖做ReID挖了第一個(gè)坑之后,就有大量GAN的工作涌現(xiàn),尤其是在CVPR18 deadline截稿之后arxiv出現(xiàn)了好幾篇很好的paper。
論文[25]是第一篇用GAN做ReID的文章,發(fā)表在ICCV17會(huì)議,雖然論文比較簡(jiǎn)單,但是作為挖坑鼻祖引出一系列很好的工作。如下圖,這篇論文生成的圖像質(zhì)量還不是很高,甚至可以用很慘來形容。另外一個(gè)問題就是由于圖像是隨機(jī)生成的,也就是說是沒有可以標(biāo)注label可以用。為了解決這個(gè)問題,論文提出一個(gè)標(biāo)簽平滑的方法。實(shí)際操作也很簡(jiǎn)單,就是把label vector每一個(gè)元素的值都取一樣,滿足加起來為1。反正也看不出屬于哪個(gè)人,那就一碗水端平。生成的圖像作為訓(xùn)練數(shù)據(jù)加入到訓(xùn)練之中,由于當(dāng)時(shí)的baseline還不像現(xiàn)在這么高,所以效果還挺明顯的,至少數(shù)據(jù)量多了過擬合能避免很多。
論文[26]是上一篇論文的加強(qiáng)版,來自同一個(gè)課題組。前一篇的GAN造圖還是隨機(jī)的,在這一篇中變成了可以控制的生成圖。ReID有個(gè)問題就是不同的攝像頭存在著bias,這個(gè)bias可能來自光線、角度等各個(gè)因素。為了克服這個(gè)問題,論文使用GAN將一個(gè)攝像頭的圖片transfer到另外一個(gè)攝像頭。在GAN方面依然還是比較正常的應(yīng)用,和前作不同的是這篇論文生成的圖是可以控制,也就是說ID是明確的。于是標(biāo)簽平滑也做了改進(jìn),公式如下:
其中是ID的數(shù)量。
是手動(dòng)設(shè)置的平滑參數(shù),當(dāng)
時(shí)就是正常的one-hot向量,不過由于是造的圖,所以希望label不要這么hard,因此加入了一個(gè)平滑參數(shù),實(shí)驗(yàn)表明這樣做效果不錯(cuò)。最終整體的網(wǎng)絡(luò)框架如下圖:
除了攝像頭的bias,ReID還有個(gè)問題就是數(shù)據(jù)集存在bias,這個(gè)bias很大一部分原因就是環(huán)境造成的。為了克服這個(gè)bias,論文[27]使用GAN把一個(gè)數(shù)據(jù)集的行人遷移到另外一個(gè)數(shù)據(jù)集。為了實(shí)現(xiàn)這個(gè)遷移,GAN的loss稍微設(shè)計(jì)了一下,一個(gè)是前景的絕對(duì)誤差loss,一個(gè)是正常的判別器loss。判別器loss是用來判斷生成的圖屬于哪個(gè)域,前景的loss是為了保證行人前景盡可能逼真不變。這個(gè)前景mask使用PSPnet來得到的,效果如下圖。論文的另外一個(gè)貢獻(xiàn)就是提出了一個(gè)MSMT17數(shù)據(jù)集,是個(gè)挺大的數(shù)據(jù)集,希望能夠早日public出來。
ReID的其中一個(gè)難點(diǎn)就是姿態(tài)的不同,為了克服這個(gè)問題論文[28]使用GAN造出了一系列標(biāo)準(zhǔn)的姿態(tài)圖片。論文總共提取了8個(gè)pose,這個(gè)8個(gè)pose基本涵蓋了各個(gè)角度。每一張圖片都生成這樣標(biāo)準(zhǔn)的8個(gè)pose,那么pose不同的問題就解決。最終用這些圖片的feature進(jìn)行一個(gè)average pooling得到最終的feature,這個(gè)feature融合了各個(gè)pose的信息,很好地解決的pose bias問題。無(wú)論從生成圖還是從實(shí)驗(yàn)的結(jié)果來看,這個(gè)工作都是很不錯(cuò)的。這個(gè)工作把single query做成了multi query,但是你沒法反駁,因?yàn)樗械膱D都是GAN生成的。除了生成這些圖需要額外的時(shí)間開銷以外,并沒有利用額外的數(shù)據(jù)信息。當(dāng)然這個(gè)工作也需要一個(gè)預(yù)訓(xùn)練的pose estimation網(wǎng)絡(luò)來進(jìn)行pose提取。
總的來說,GAN造圖都是為了從某個(gè)角度上解決ReID的困難,缺啥就讓GAN來補(bǔ)啥,不得不說GAN還真是一個(gè)強(qiáng)大的東西。
后言:以上就是基于深度學(xué)習(xí)的行人重識(shí)別研究綜述,選取了部分代表性的論文,希望能夠幫助剛進(jìn)入這個(gè)領(lǐng)域的人快速了解近幾年的工作。當(dāng)然還有很多優(yōu)秀的工作沒有放進(jìn)來,ICCV17的ReID文章就有十幾篇。這幾年加起來應(yīng)該有上百篇相關(guān)文章,包括一些無(wú)監(jiān)督、半監(jiān)督、cross-domain等工作都沒有提到,實(shí)在精力和能力有限。
本周四晚上雷鋒網(wǎng) AI 科技評(píng)論將推出一場(chǎng)由清華大學(xué)在讀博士孫奕帆分享的 GAIR 大講堂,主題為「行人再識(shí)別論文及最新相關(guān)進(jìn)展介紹」,點(diǎn)擊鏈接了解詳情并報(bào)名。
[1] Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian. Deep transfer learning for person reidentification[J]. arXiv preprint arXiv:1611.05244, 2016.
[2] Yutian Lin, Liang Zheng, Zhedong Zheng, YuWu, Yi Yang. Improving person re-identification by attribute and identity learning[J]. arXiv preprint arXiv:1703.07220, 2017.
[3] Liang Zheng, Yi Yang, Alexander G Hauptmann. Person re-identification: Past, present and future[J]. arXiv preprint arXiv:1610.02984, 2016.
[4] Tetsu Matsukawa, Einoshin Suzuki. Person re-identification using cnn features learned from combination of attributes[C]//Pattern Recognition (ICPR), 2016 23rd International Conference on. IEEE, 2016:2428–2433.
[5] Rahul Rama Varior, Mrinal Haloi, Gang Wang. Gated siamese convolutional neural network architecture for human re-identification[C]//European Conference on Computer Vision. Springer, 2016:791-808.
[6] Florian Schroff, Dmitry Kalenichenko, James Philbin. Facenet: A unified embedding for face recognition and clustering[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2015:815-823.
[7] Hao Liu, Jiashi Feng, Meibin Qi, Jianguo Jiang, Shuicheng Yan. End-to-end comparative attention networks for person re-identification[J]. IEEE Transactions on Image Processing, 2017.
[8] De Cheng, Yihong Gong, Sanping Zhou, Jinjun Wang, Nanning Zheng. Person re-identification by multichannel parts-based cnn with improved triplet loss function[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016:1335-1344.
[9] Weihua Chen, Xiaotang Chen, Jianguo Zhang, Kaiqi Huang. Beyond triplet loss: a deep quadruplet network for person re-identification[J]. arXiv preprint arXiv:1704.01719, 2017.
[10] Alexander Hermans, Lucas Beyer, Bastian Leibe. In defense of the triplet loss for person reidentification[J]. arXiv preprint arXiv:1703.07737, 2017
[11] Xiao Q, Luo H, Zhang C. Margin Sample Mining Loss: A Deep Learning Based Method for Person Re-identification[J]. 2017.
[12] Rahul Rama Varior, Bing Shuai, Jiwen Lu, Dong Xu, Gang Wang. A siamese long short-term memory architecture for human re-identification[C]//European Conference on Computer Vision. Springer, 2016:135–153.
[13] Liang Zheng, Yujia Huang, Huchuan Lu, Yi Yang. Pose invariant embedding for deep person reidentification[J]. arXiv preprint arXiv:1701.07732, 2017.
[14] Haiyu Zhao, Maoqing Tian, Shuyang Sun, Jing Shao, Junjie Yan, Shuai Yi, Xiaogang Wang, Xiaoou Tang. Spindle net: Person re-identification with human body region guided feature decomposition and fusion[C]. CVPR, 2017.
[15] Longhui Wei, Shiliang Zhang, Hantao Yao, Wen Gao, Qi Tian. Glad: Global-local-alignment descriptor for pedestrian retrieval[J]. arXiv preprint arXiv:1709.04329, 2017.
[16] Zhang, X., Luo, H., Fan, X., Xiang, W., Sun, Y., Xiao, Q., ... & Sun, J. (2017). AlignedReID: Surpassing Human-Level Performance in Person Re-Identification. arXiv preprint arXiv:1711.08184.
[17] Taiqing Wang, Shaogang Gong, Xiatian Zhu, Shengjin Wang. Person re-identification by discriminative selection in video ranking[J]. IEEE transactions on pattern analysis and machine intelligence, 2016.38(12):2501–2514.
[18] Dongyu Zhang, Wenxi Wu, Hui Cheng, Ruimao Zhang, Zhenjiang Dong, Zhaoquan Cai. Image-to-video person re-identification with temporally memorized similarity learning[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2017.
[19] Jinjie You, Ancong Wu, Xiang Li, Wei-Shi Zheng. Top-push video-based person reidentification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2016:1345–1353.
[20] Xiaolong Ma, Xiatian Zhu, Shaogang Gong, Xudong Xie, Jianming Hu, Kin-Man Lam, Yisheng Zhong. Person re-identification by unsupervised video matching[J]. Pattern Recognition, 2017. 65:197–210.
[21] Niall McLaughlin, Jesus Martinez del Rincon, Paul Miller. Recurrent convolutional network for videobased person re-identification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016:1325–1334.
[22] Rui Zhao, Wanli Oyang, Xiaogang Wang. Person re-identification by saliency learning[J]. IEEE transactions on pattern analysis and machine intelligence, 2017. 39(2):356–370.
[23] Hao Liu, Zequn Jie, Karlekar Jayashree, Meibin Qi, Jianguo Jiang, Shuicheng Yan, Jiashi Feng. Video based person re-identification with accumulative motion context[J]. arXiv preprint arXiv:1701.00193,2017.
[24] Song G, Leng B, Liu Y, et al. Region-based Quality Estimation Network for Large-scale Person Re-identification[J]. arXiv preprint arXiv:1711.08766, 2017.
[25] Zheng Z, Zheng L, Yang Y. Unlabeled samples generated by gan improve the person re-identification baseline in vitro[J]. arXiv preprint arXiv:1701.07717, 2017.
[26] Zhong Z, Zheng L, Zheng Z, et al. Camera Style Adaptation for Person Re-identification[J]. arXiv preprint arXiv:1711.10295, 2017.
[27] Wei L, Zhang S, Gao W, et al. Person Transfer GAN to Bridge Domain Gap for Person Re-Identification[J]. arXiv preprint arXiv:1711.08565, 2017.
[28] Qian X, Fu Y, Wang W, et al. Pose-Normalized Image Generation for Person Re-identification[J]. arXiv preprint arXiv:1712.02225, 2017.
雷峰網(wǎng)特約稿件,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。