丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

Paper 研習(xí)社每日精選論文推薦 12.31

本文作者: AI研習(xí)社 2019-12-31 15:17
導(dǎo)語(yǔ):Hi 歡迎來(lái)到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考

Hi 歡迎來(lái)到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考,以下是今日的精選內(nèi)容——

  目錄

  1. Neural Module Networks for Reasoning over Text

  2. Scale Match for Tiny Person Detection

  3. Combining Fact Extraction and Verification with Neural Semantic Matching Networks

  4. Combining Deep Learning and Verification for Precise Object Instance Detection

  5. Evaluating Usage of Images for App Classification

  6. DADA: A Large-scale Benchmark and Model for Driver Attention Prediction in Accidental Scenarios

  7. Unsupervised Adversarial Image Inpainting

  8. Learning by Cheating

  9. CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features

  10. Mining and Summarizing Customer Reviews

  用于文本推理的神經(jīng)模塊網(wǎng)絡(luò)

Neural Module Networks for Reasoning over Text

作者:Gupta Nitish /Lin Kevin /Roth Dan /Singh Sameer /Gardner Matt

發(fā)表時(shí)間:2019/12/10

論文鏈接:https://paper.yanxishe.com/review/7907

推薦理由:針對(duì)文本進(jìn)行推理的多個(gè)步驟的構(gòu)想問(wèn)題回答問(wèn)題是具有挑戰(zhàn)性的,特別是當(dāng)它們涉及離散的象征性操作時(shí)。神經(jīng)模塊網(wǎng)絡(luò)(NMN)學(xué)習(xí)解析諸如由可學(xué)習(xí)模塊組成的可執(zhí)行程序之類的問(wèn)題,它們?cè)诤铣傻囊曈X(jué)質(zhì)量檢查域中表現(xiàn)良好。但是,作者發(fā)現(xiàn)在開(kāi)放域文本中針對(duì)非綜合性問(wèn)題學(xué)習(xí)這些模型非常困難,因?yàn)槟P托枰幚碜匀徽Z(yǔ)言的多樣性并進(jìn)行更廣泛的推理。

作者通過(guò)以下方式擴(kuò)展NMN:(a)引入對(duì)一段文本進(jìn)行推理的模塊,以概率和可微分的方式對(duì)數(shù)字和日期執(zhí)行符號(hào)推理(例如算術(shù),排序,計(jì)數(shù));(b)提出無(wú)監(jiān)督的輔助損失,以幫助提取與文本中的事件相關(guān)的論點(diǎn)。此外,作者顯示出有限的試探性獲得的問(wèn)題程序和中間模塊輸出監(jiān)督為準(zhǔn)確學(xué)習(xí)提供了足夠的歸納偏差。

成果:作者提出的模型大大優(yōu)于DROP數(shù)據(jù)集的子集上的最新模型,后者構(gòu)成了其模塊所涵蓋的各種推理挑戰(zhàn)。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  用于微小人物檢測(cè)的尺度匹配

論文名稱:Scale Match for Tiny Person Detection

作者:Yu Xuehui /Gong Yuqi /Jiang Nan /Ye Qixiang /Han Zhenjun

發(fā)表時(shí)間:2019/12/23

論文鏈接:https://paper.yanxishe.com/review/7893

推薦理由:這篇論文要解決的是微小人物檢測(cè)的問(wèn)題。

隨著深度卷積網(wǎng)絡(luò)的發(fā)展,可視化對(duì)象檢測(cè)已經(jīng)取得了廣泛的進(jìn)步。然而,在大尺度圖像中檢測(cè)微小的目標(biāo)(例如小于20像素的人)仍然沒(méi)有受到充分重視。極端小的物體給特征表示帶來(lái)大麻煩,更何況復(fù)雜的背景又加大了困難。這篇論文的貢獻(xiàn)在于提出了一個(gè)新基準(zhǔn)TinyPerson,用于長(zhǎng)程與大背景下的微型物體檢測(cè)任務(wù)。通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),用于網(wǎng)絡(luò)預(yù)訓(xùn)練的數(shù)據(jù)集和用于檢測(cè)器學(xué)習(xí)的數(shù)據(jù)集之間的比例失配可能會(huì)使特征表示和檢測(cè)器惡化。因此這篇論文又提出一種簡(jiǎn)單而有效的比例匹配方法,以在兩個(gè)數(shù)據(jù)集之間對(duì)齊對(duì)象比例,從而實(shí)現(xiàn)有利的微小對(duì)象表示。

這篇論文會(huì)公開(kāi)數(shù)據(jù)集和基準(zhǔn)方法,有利于后續(xù)的研究進(jìn)行比較和驗(yàn)證。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  將事實(shí)提取和驗(yàn)證與神經(jīng)語(yǔ)義匹配網(wǎng)絡(luò)相結(jié)合

Combining Fact Extraction and Verification with Neural Semantic Matching Networks

作者:Yixin Nie / Haonan Chen / Mohit Bansal

發(fā)表時(shí)間:2018/12/12

論文鏈接:https://paper.yanxishe.com/review/7868

推薦理由:對(duì)錯(cuò)誤信息的日益關(guān)注刺激了對(duì)自動(dòng)事實(shí)檢查的研究。最近發(fā)布的FEVER數(shù)據(jù)集引入了基準(zhǔn)事實(shí)驗(yàn)證任務(wù),其中要求系統(tǒng)使用來(lái)自Wikipedia文檔的證據(jù)語(yǔ)句來(lái)驗(yàn)證索賠。在本文中,作者提出了一個(gè)由三個(gè)同類神經(jīng)語(yǔ)義匹配模型組成的連接系統(tǒng),該模型共同進(jìn)行文檔檢索,句子選擇和要求驗(yàn)證,以進(jìn)行事實(shí)提取和驗(yàn)證。對(duì)于證據(jù)檢索(文檔檢索和句子選擇),不像傳統(tǒng)的向量空間IR模型(在某些預(yù)先設(shè)計(jì)的術(shù)語(yǔ)向量空間中對(duì)查詢和來(lái)源進(jìn)行匹配),假設(shè)沒(méi)有中間語(yǔ)言,作者開(kāi)發(fā)了神經(jīng)模型以從原始文本輸入執(zhí)行深度語(yǔ)義匹配術(shù)語(yǔ)表示,無(wú)權(quán)訪問(wèn)結(jié)構(gòu)化的外部知識(shí)庫(kù)。作者還顯示了Pageview頻率還可以幫助提高證據(jù)檢索結(jié)果的性能,以后可以使用作者的神經(jīng)語(yǔ)義匹配網(wǎng)絡(luò)進(jìn)行匹配。為了進(jìn)行聲明驗(yàn)證,與以前僅將上游檢索到的證據(jù)和聲明提供給自然語(yǔ)言推理(NLI)模型的方法不同,作者通過(guò)為NLI模型提供內(nèi)部語(yǔ)義相關(guān)性評(píng)分(因此將其與證據(jù)檢索模塊集成)來(lái)進(jìn)一步增強(qiáng)NLI模型和本體的WordNet功能。在FEVER數(shù)據(jù)集上的實(shí)驗(yàn)表明:(1)作者的神經(jīng)語(yǔ)義匹配方法在所有證據(jù)檢索指標(biāo)上都有顯著優(yōu)勢(shì),勝過(guò)流行的TF-IDF和編碼器模型;(2)附加的相關(guān)性評(píng)分和WordNet功能通過(guò)更好的語(yǔ)義改進(jìn)了NLI模型(3)通過(guò)將所有三個(gè)子任務(wù)形式化為相似的語(yǔ)義匹配問(wèn)題并在所有三個(gè)階段進(jìn)行改進(jìn),完整的模型能夠在FEVER測(cè)試集上獲得最新的結(jié)果。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  結(jié)合深度學(xué)習(xí)和驗(yàn)證進(jìn)行精確的對(duì)象實(shí)例檢測(cè)

Combining Deep Learning and Verification for Precise Object Instance Detection

作者:Ancha Siddharth /Nan Junyu /Held David

發(fā)表時(shí)間:2019/12/27

論文鏈接:https://paper.yanxishe.com/review/7928

推薦理由:深度學(xué)習(xí)對(duì)象檢測(cè)器通常會(huì)以很高的置信度返回誤報(bào)。盡管它們優(yōu)化了通用檢測(cè)性能,例如平均平均精度(mAP),但它們并不是為可靠性而設(shè)計(jì)的。對(duì)于可靠的檢測(cè)系統(tǒng),如果進(jìn)行了高置信度檢測(cè),作者將希望高度確定確實(shí)已檢測(cè)到對(duì)象。為此,作者開(kāi)發(fā)了一套驗(yàn)證測(cè)試,建議的檢測(cè)必須通過(guò)該測(cè)試才能被接受。

作者建立了一個(gè)理論框架,可以證明在某些假設(shè)下,作者的驗(yàn)證測(cè)試不會(huì)接受任何誤報(bào)。基于此框架的近似值,作者提出了一種實(shí)用的檢測(cè)系統(tǒng),該系統(tǒng)可以高精度地驗(yàn)證基于機(jī)器學(xué)習(xí)的對(duì)象檢測(cè)器的每次檢測(cè)是否正確。作者表明,這些測(cè)試可以提高基本檢測(cè)器的整體精度,并且公認(rèn)的示例很有可能是正確的。這允許檢測(cè)器在高精度狀態(tài)下操作,因此可以作為可靠的實(shí)例檢測(cè)方法用于機(jī)器人感知系統(tǒng)。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  評(píng)估圖像的用途以進(jìn)行應(yīng)用分類

Evaluating Usage of Images for App Classification

作者:Singla Kushal /Mukherjee Niloy /Koduvely Hari Manassery /Bose Joy

發(fā)表時(shí)間:2019/12/16

論文鏈接:https://paper.yanxishe.com/review/7926

推薦理由:應(yīng)用分類在許多應(yīng)用中很有用,例如將應(yīng)用添加到應(yīng)用商店或基于已安裝的應(yīng)用建立用戶模型。當(dāng)前,有許多現(xiàn)有方法可基于給定分類法基于文本元數(shù)據(jù)對(duì)應(yīng)用程序進(jìn)行分類。但是,基于文本的應(yīng)用程序分類方法可能無(wú)法在所有情況下都有效,例如,當(dāng)文本描述使用其他語(yǔ)言,丟失或不足以對(duì)應(yīng)用程序進(jìn)行分類時(shí)。在這種情況下,有一種解決方案是利用應(yīng)用圖像來(lái)補(bǔ)充文本描述。

在本文中,作者評(píng)估了許多方法,其中可以使用應(yīng)用程序圖像對(duì)應(yīng)用程序進(jìn)行分類。在這種方法中,作者使用光學(xué)字符識(shí)別(OCR)從圖像中提取文本,然后將其用于補(bǔ)充應(yīng)用程序的文本描述。在另一種方法中,作者使用pic2vec將應(yīng)用程序圖像轉(zhuǎn)換為矢量,然后訓(xùn)練SVM將矢量分類為正確的應(yīng)用程序標(biāo)簽。在另一種方法中,我們使用此http URL(https://www.captionbot.ai/)工具從應(yīng)用程序圖像生成自然語(yǔ)言描述。最后,作者使用一種方法來(lái)檢測(cè)和標(biāo)記應(yīng)用程序圖像中的對(duì)象,并使用投票技術(shù)根據(jù)所有圖像確定應(yīng)用程序的類別。作者比較了基于圖像的技術(shù)的性能,以對(duì)數(shù)據(jù)集中的許多應(yīng)用進(jìn)行分類。

作者使用基于文本的SVM應(yīng)用分類器作為基礎(chǔ),并且在添加應(yīng)用圖像時(shí)某些類別的分類精度提高了96%。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  DADA:意外情況下駕駛員注意力預(yù)測(cè)的大規(guī)模基準(zhǔn)和模型

DADA: A Large-scale Benchmark and Model for Driver Attention Prediction in Accidental Scenarios

作者:Fang Jianwu /Yan Dingxin /Qiao Jiahuan /Xue Jianru

發(fā)表時(shí)間:2019/12/18

論文鏈接:https://paper.yanxishe.com/review/7925

推薦理由:駕駛員注意力預(yù)測(cè)最近在交通場(chǎng)景理解中引起了越來(lái)越多的關(guān)注,并且在以視覺(jué)為中心和類似人的駕駛系統(tǒng)中很容易成為一個(gè)基本問(wèn)題。這項(xiàng)工作與其他嘗試不同,它試圖在同時(shí)包含正常,嚴(yán)重和意外情況的意外情況下預(yù)測(cè)駕駛員的注意力。但是,由于交通場(chǎng)景多變,事故類別錯(cuò)綜復(fù)雜且不平衡,因此面臨挑戰(zhàn)。

假設(shè)駕駛員的注意力可以提供碰撞對(duì)象的選擇性作用,以協(xié)助駕駛事故檢測(cè)或預(yù)測(cè),本文設(shè)計(jì)了一種多路徑語(yǔ)義引導(dǎo)的注意力融合網(wǎng)絡(luò)(MSAFNet),該網(wǎng)絡(luò)學(xué)習(xí)時(shí)空語(yǔ)義和場(chǎng)景變化。預(yù)測(cè)。為了實(shí)現(xiàn)這一目標(biāo),提供了包含2000個(gè)視頻序列的大型基準(zhǔn)測(cè)試(命名為DADA-2000),并通過(guò)費(fèi)力的注釋來(lái)吸引駕駛員注意(固定,掃視,聚焦時(shí)間),事故對(duì)象/間隔以及事故類別,以及全面的評(píng)估可提供比最新技術(shù)更出色的性能。據(jù)目前所知,這是針對(duì)意外情況下人眼感知探索的首次全面定量研究??赏ㄟ^(guò)原文后URL獲得DADA-2000。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  無(wú)監(jiān)督的對(duì)抗圖像修復(fù)

Unsupervised Adversarial Image Inpainting

作者:Pajot Arthur /de Bezenac Emmanuel /Gallinari Patrick

發(fā)表時(shí)間:2019/12/18

論文鏈接:https://paper.yanxishe.com/review/7924

推薦理由:作者考慮在無(wú)人看管的環(huán)境中進(jìn)行修補(bǔ),在這種情況下,無(wú)法訪問(wèn)配對(duì)或非配對(duì)的訓(xùn)練數(shù)據(jù)。唯一的信息是由不完整的觀察和修補(bǔ)過(guò)程統(tǒng)計(jì)信息提供的。在這種情況下,觀察應(yīng)該引起一些合理的重建,這些重建相當(dāng)于學(xué)習(xí)重建圖像空間上的分布。

作者通過(guò)使用條件GAN來(lái)建模重構(gòu)過(guò)程,該條件GAN對(duì)隨機(jī)組件具有約束,從而在該組件和生成的輸出之間引入了顯式依賴性。這使作者可以從潛在分量中進(jìn)行采樣,以生成與觀察相關(guān)的圖像分布。

作者在幾種圖像數(shù)據(jù)集上證明了其模型的能力:面孔(CelebA),食物圖像(Recipe-1M)和具有不同類型的插補(bǔ)蒙版的臥室(LSUN臥室)。該方法產(chǎn)生的性能可與經(jīng)過(guò)額外監(jiān)督訓(xùn)練的模型變體相比。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  通過(guò)作弊學(xué)習(xí)

Learning by Cheating

作者:Chen Dian /Zhou Brady /Koltun Vladlen /Kr?henbühl Philipp

發(fā)表時(shí)間:2019/12/27

論文鏈接:https://paper.yanxishe.com/review/7919

推薦理由:基于視覺(jué)的城市駕駛很難。自治系統(tǒng)需要學(xué)習(xí)感知世界并在其中行事。我們表明,可以通過(guò)將其分解為兩個(gè)階段來(lái)簡(jiǎn)化此具有挑戰(zhàn)性的學(xué)習(xí)問(wèn)題。

作者首先訓(xùn)練可以訪問(wèn)特權(quán)信息的代理。該特權(quán)代理通過(guò)觀察環(huán)境的真實(shí)布局和所有交通參與者的位置來(lái)作弊。在第二階段,特權(quán)代理充當(dāng)訓(xùn)練純基于視覺(jué)的感覺(jué)運(yùn)動(dòng)代理的老師。生成的感覺(jué)運(yùn)動(dòng)代理無(wú)法訪問(wèn)任何特權(quán)信息,也不會(huì)作弊。這種分兩個(gè)階段的培訓(xùn)程序最初是違反直覺(jué)的,但是具有許多重要的優(yōu)點(diǎn),作者將通過(guò)分析和經(jīng)驗(yàn)證明。

作者使用其提出的方法來(lái)訓(xùn)練基于視覺(jué)的自動(dòng)駕駛系統(tǒng),該系統(tǒng)在CARLA基準(zhǔn)和最近的NoCrash基準(zhǔn)上明顯優(yōu)于最新技術(shù)。該方法首次在原始CARLA基準(zhǔn)中實(shí)現(xiàn)了所有任務(wù)的100%成功率,在NoCrash基準(zhǔn)上創(chuàng)下了新記錄,并且與現(xiàn)有技術(shù)水平相比,將違規(guī)頻率降低了一個(gè)數(shù)量級(jí)。有關(guān)概述這項(xiàng)工作的視頻,請(qǐng)參見(jiàn)以下 URL(https://www.youtube.com/watch?v=u9ZCxxD-UUw&feature=youtu.be)。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  CutMix:訓(xùn)練具有局部特征的強(qiáng)分類器的正則化策略

CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features

作者:Yun Sangdoo /Han Dongyoon /Oh Seong Joon /Chun Sanghyuk /Choe Junsuk /Yoo Youngjoon

發(fā)表時(shí)間:2019/5/13

論文鏈接:https://paper.yanxishe.com/review/7911

推薦理由:為了提高卷積神經(jīng)網(wǎng)絡(luò)分類器的性能,研究者提出了區(qū)域丟棄策略。事實(shí)證明,它們可以有效地引導(dǎo)模型關(guān)注對(duì)象中不易區(qū)分的部分(例如,腿而不是人的頭部),從而使網(wǎng)絡(luò)更好地進(jìn)行泛化,并具有更好的對(duì)象定位能力。另一方面,當(dāng)前的區(qū)域性丟棄方法通過(guò)覆蓋黑色像素或隨機(jī)噪聲來(lái)去除訓(xùn)練圖像上的信息像素。這種刪除是不可取的,因?yàn)樗鼤?huì)導(dǎo)致信息丟失和訓(xùn)練過(guò)程中的效率低下。

因此,作者提出了CutMix增強(qiáng)策略:訓(xùn)練圖像之間剪切和粘貼補(bǔ)丁,其中對(duì)應(yīng)的真值標(biāo)簽也與補(bǔ)丁的區(qū)域成比例地混合。通過(guò)有效利用訓(xùn)練像素和保持區(qū)域丟失的正則化效果,CutMix在CIFAR和ImageNet分類任務(wù)以及ImageNet弱監(jiān)督定位任務(wù)中始終優(yōu)于最新的增強(qiáng)策略。此外,與以前的增強(qiáng)方法不同,作者的CutMix訓(xùn)練的ImageNet分類器在用作預(yù)訓(xùn)練模型時(shí),在Pascal檢測(cè)和MS-COCO圖像字幕基準(zhǔn)測(cè)試中獲得了一致的性能增益。作者還證明了CutMix改進(jìn)了針對(duì)輸入損壞及其分布外檢測(cè)性能的模型魯棒性。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

  挖掘和總結(jié)客戶評(píng)論

Mining and Summarizing Customer Reviews

作者:Minqing Hu /Bing Liu

發(fā)表時(shí)間:2004/12/22

論文鏈接:https://paper.yanxishe.com/review/7917

推薦理由:本文重點(diǎn):這是一個(gè)具體應(yīng)用的文章,在電子商務(wù)應(yīng)用評(píng)論數(shù)據(jù)尤為重要,如何從評(píng)論中摘要出用戶對(duì)不用產(chǎn)品的不同角度的評(píng)價(jià)是這篇文章的任務(wù)

創(chuàng)新點(diǎn):這篇文章構(gòu)建了一個(gè)系統(tǒng)化的工作,具體來(lái)說(shuō):

(1)挖掘客戶評(píng)論;

(2)識(shí)別每次回顧并決定每個(gè)意見(jiàn)句是否積極或消極;

(3)總結(jié)結(jié)果。

研究意義:這篇文章的工作在實(shí)際任務(wù)中確實(shí)取得了良好的效果。

Paper 研習(xí)社每日精選論文推薦 12.31
Paper 研習(xí)社每日精選論文推薦 12.31

Paper 研習(xí)社每日精選論文推薦 12.31

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

Paper 研習(xí)社每日精選論文推薦 12.30

Paper 研習(xí)社每日精選論文推薦 12.27

Paper 研習(xí)社每日精選論文推薦 12.26

Paper 研習(xí)社每日精選論文推薦 12.25

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

Paper 研習(xí)社每日精選論文推薦 12.31

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)