丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界 正文
發(fā)私信給郭思
發(fā)送

0

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

本文作者: 郭思 2023-06-25 11:00
導(dǎo)語:2023年6月19日,美圖影像節(jié)發(fā)布會,美圖推出7款“AI時代的影像生產(chǎn)力工具”,視覺大模型 MiracleVision(奇想智能)是國內(nèi)首款能懂美學(xué)的大模型。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

一場大模型界的「美學(xué)革命」。

作者 | 郭思

編輯 | 陳彩嫻

2023年6月19日,美圖影像節(jié)發(fā)布會,吳欣鴻身著灰色T恤搭配休閑長褲,一如既往的親和、有活力,宣布美圖將推出7款“AI時代的影像生產(chǎn)力工具”。


關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題


值得一提的是,美圖此次發(fā)布的7款工具中,美圖視覺大模型 MiracleVision(奇想智能)是國內(nèi)首款能懂美學(xué)的大模型。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

“過去,美圖主要服務(wù)于生活場景的拍攝、修圖、修視頻、社交分享。在 AI 時代,除生活場景外,美圖將提供更多生產(chǎn)力場景的服務(wù)?!?/p>

吳欣鴻話音剛落,現(xiàn)場掌聲齊鳴。

如果說此前的美圖在大眾眼中是一個生活場景的公司,那么此次發(fā)布會預(yù)示著美圖在生產(chǎn)力場景的戰(zhàn)略意圖表現(xiàn)得越來越明顯。在美圖發(fā)布會現(xiàn)場,共191次提到“AI”這個關(guān)鍵詞,7款工具均主要針對專業(yè)場景,美圖邁向生產(chǎn)力場景的步伐堅定有力,大眾的期待也隨之攀升。

6月19日當天,美圖發(fā)布會沖上各大媒體平臺熱搜;股票市場上,美圖尾盤拉升,股價漲超24%。


關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

美與科技的碰撞,在大模型時代迎來新的高潮。

為什么說美圖視覺大模型打通了任督二脈?

審美,美圖大模型做得更好?

2023年,AIGC迎來了行業(yè)混戰(zhàn)。據(jù)不完全統(tǒng)計,國內(nèi)現(xiàn)已有十余家AIGC企業(yè),核心市場規(guī)模將達融資79.3億元。

對于這個現(xiàn)狀,有不少觀點指出,熱火朝天的概念下,如果大模型無法服務(wù)具體的商業(yè)場景,便是無法落地的“雨燕”,再完美的飛翔過程都沒有意義,更不用說帶來生產(chǎn)力的迭代和行業(yè)變革。而美圖視角下的大模型,不僅要 MiracleVision 滿足基礎(chǔ)條件,更要讓它注入美的基因,為行業(yè)帶來一場美學(xué)革命。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

這些能力,首先來自美圖對于行業(yè)的高度理解。

十九大以來,國家陸續(xù)出臺了“1+N”政策體系,為人工智能發(fā)展提供政策依據(jù)和制度保障。在清晰戰(zhàn)略的引領(lǐng)下,美圖發(fā)揮著公司的產(chǎn)品、技術(shù)、商業(yè)化優(yōu)勢,率先入局AI,以技術(shù)助力傳播中國之美。

但盡管政策東風(fēng)可以助美圖一臂之力,行業(yè)發(fā)展至今的問題和難點仍十分明顯。

在美圖看來,人工智能如果想真正做到智能,就不僅僅需要模仿人的推理和邏輯能力,還要模仿人類的情感、感性、審美以及創(chuàng)造力。當前的人工智能,恰恰缺乏的是后者。

就審美而言,美是有屬性、有細節(jié)的,不同場景下的用戶對美有不同的渴望和需求。與人類相比,在美學(xué)領(lǐng)域,AI 的競爭力主要體現(xiàn)在感知得快、準、狠,能從眾多優(yōu)秀的大神作品中生產(chǎn)出融會貫通出來的成果,從這一角度,我們可以理解為 AI 其實是站在巨人肩膀上的一個「三好學(xué)生」。如果想要持續(xù)產(chǎn)出優(yōu)秀作品,就需要有優(yōu)秀的大神源源不斷地補充作品,而這一點,恰恰是美圖的優(yōu)勢所在。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

吳欣鴻在發(fā)布會上稱:“我們始終尊重美的形態(tài)各異。AI創(chuàng)作是否具有靈魂的還是一個未知數(shù),但我們可以盡可能地讓 AI 接近人類的審美?!?/p>

美圖的美學(xué)認知源于創(chuàng)始之初。成立以來,美圖的目標就是成為工具界的美學(xué)代表。如今,長期積累的美學(xué)認知融入了美圖自研的視覺大模型 MiracleVision。

為了讓這個學(xué)生對美學(xué)理解越深,美圖還讓有藝術(shù)家、設(shè)計師等具有深厚美學(xué)背景的專業(yè)人士,共同參與到視覺大模型的建設(shè)中,給這個學(xué)生提供極佳的美學(xué)學(xué)習(xí)環(huán)境,讓其博采眾長。這也是國內(nèi)大模型賽道中少數(shù)將專業(yè)人士納入研發(fā)階段的團隊。

此外美圖還有一套基于機器學(xué)習(xí)的美學(xué)評估系統(tǒng),當模型生成一個結(jié)果時,美圖會自動打上美學(xué)分數(shù),以一個老師的形態(tài)不斷監(jiān)督這個學(xué)生的進步。

在算法層面,MiracleVision運用零樣本學(xué)習(xí)算法,利用類別的高維語義特征代替樣本的低維特征,使得訓(xùn)練出來的模型具有遷移性。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

這個算法模仿的是人類的推理思維,舉個簡單的例子:如果你告訴一個沒有見過斑馬的小孩關(guān)于斑馬的特征,這個小孩在下一次、也就是TA第一次見到斑馬時就能得出「這就是斑馬」的結(jié)論。對 AI 模型來說,以往的算法需要給機器輸入大量斑馬的真實圖像才能達到類似對效果,但 MiracleVision 卻能通過零樣本學(xué)習(xí),在實際應(yīng)用時無需微調(diào)就能刻畫人物的特征,極大程度地提高設(shè)計效率。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題圖注:美圖AI生成的藝術(shù)畫效果

值得一提的是,和市面上其他大模型先有技術(shù)再落地生根不同,美圖視覺大模型MiracleVision從視覺創(chuàng)作場景反推技術(shù)演化。挖掘視覺創(chuàng)作中最適合與AI協(xié)作的場景,如繪畫、設(shè)計、影視等,以場景反推技術(shù)如何演進。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

任督二脈一通,美圖視覺大模型Miracle Vision效果十分驚艷。

吳欣鴻表示,現(xiàn)階段MiracleVision有三大核心效果優(yōu)勢:一是擅長亞洲人像攝影;二是將中國傳統(tǒng)文化元素融入現(xiàn)代設(shè)計中,為創(chuàng)作賦予獨特的東方韻味;三是商業(yè)設(shè)計領(lǐng)域的應(yīng)用價值,設(shè)計師可以在MiracleVision的幫助下,快速地創(chuàng)作出具有創(chuàng)意和美感的作品。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

吳欣鴻表示,結(jié)合美圖現(xiàn)有的業(yè)務(wù)而言,以美圖視覺大模型Miracle Vision為依托,美圖云修在商業(yè)攝影行業(yè)應(yīng)用十分廣泛,美圖設(shè)計室在電商的場景有對應(yīng)的解決方案,WinkStudio在影視也有一些探索。

“未來我相信除了這些行業(yè)以外,會有更多的行業(yè)逐步用到視覺大模型的能力。國家也在推動‘數(shù)實融合’,而人工智能或者視覺大模型其實也是數(shù)字化的一個很重要的組成部分,在這樣一個產(chǎn)業(yè)大背景下,整個行業(yè)未來最大的變革就是沒有技術(shù)背景的公司都能輕松地用上視覺大模型帶來的各種能力,這一天應(yīng)該在三年內(nèi)會逐漸到來?!?/p>

北京智源研究院訪問首席科學(xué)家顏水成教授也表示,在接下來一到兩年里面,一定能看到視覺大模型長足的發(fā)展。有可能美圖會帶來顛覆性的變化。

“在AI與影像生產(chǎn)力工具的緊密結(jié)合下,優(yōu)質(zhì)內(nèi)容的創(chuàng)作門檻將不斷降低,影像行業(yè)的生產(chǎn)效率也將不斷提升。秉持著‘讓科技與藝術(shù)美好交匯’的使命,美圖公司將不斷為用戶帶來更優(yōu)質(zhì)的產(chǎn)品與服務(wù)?!眳切励櫲缡钦f。

和其他視覺模型一樣,美圖 MiracleVision 也會遇到「圖像處理參數(shù)量越大,對于算力資源要求越高」這一難題。在發(fā)布會現(xiàn)場,美圖表示,在這方面,美圖會與云廠商保持緊密合作,以此為依托,持續(xù)滿足用戶需求。

大模型背后的硬核技

  • 懂美學(xué)的大模型,美圖是如何做到的?

美圖創(chuàng)始人吳欣鴻是學(xué)畫畫出身,他早年執(zhí)著于畫藝的精進,對于藝術(shù)的追求曾一度是他創(chuàng)立美圖的初衷。發(fā)布會現(xiàn)場,美圖產(chǎn)品經(jīng)理劉洛麒亦反復(fù)強調(diào),對美與影像的熱愛是整個團隊的內(nèi)在基因。

吳欣鴻其實很早就意識到了AI技術(shù)對于美的創(chuàng)造有著天然的優(yōu)勢。AI這盤大棋,他早有布局。

早在2010 年成立的MT Lab(美圖影像研究院)。

據(jù)美圖工作人員透露,MT Lab做的事情其實相當于一個高級翻譯。

在計算機的世界里,無論是劉亦菲亦或是蘇菲瑪索,再沉魚落雁的美女也只是一串0和1的代碼,而MT Lab所做的便是便0和1加工為人類可以理解的信息,人臉識別可以分析面部皮膚狀態(tài),甚至給出對應(yīng)意見。3D建??梢詣?chuàng)造每一個用戶專屬的私人模型。這類似于一個高級翻譯理解了對方的言語,甚至在翻譯轉(zhuǎn)述時加上了自己的潤色。

MT Lab是美圖AI技術(shù)的研發(fā)中樞,2017年,美圖發(fā)布了AI測膚技術(shù),通過一張手機自拍照全面了解皮膚狀況。2019正式推出人像畫質(zhì)修復(fù)技術(shù),通過便捷的一鍵操作就能實現(xiàn)老照片中低畫質(zhì)人像的高清還原。2021年推出基于StyleGAN的頭發(fā)編輯方案,配對數(shù)據(jù)生成,讓人們夢寐以求的生發(fā)成為現(xiàn)實。去年首屆美圖影像節(jié)上,美圖發(fā)布了6款產(chǎn)品,經(jīng)歷一年持續(xù)迭代,多款產(chǎn)品成績亮眼,如Wink月活躍用戶數(shù)已突破千萬,美圖證件照成為在線證件照行業(yè)冠軍。

而此次美圖最新發(fā)布的7款影像生產(chǎn)力工具:WHEE、開拍、WinkStudio、美圖設(shè)計室2.0、DreamAvatar數(shù)字人、RoboNeo、MiracleVision視覺大模型,均以AI為內(nèi)核,覆蓋視覺創(chuàng)作、商業(yè)攝影、專業(yè)視頻編輯、商業(yè)設(shè)計等領(lǐng)域,旨在全面提升影像行業(yè)的生產(chǎn)力。

值得一提的是,美圖影像節(jié)的7款產(chǎn)品發(fā)布后,美圖正式形成由底層、中間層和應(yīng)用層構(gòu)建的AI產(chǎn)品生態(tài)。

底層MiracleVision為美圖全系產(chǎn)品提供AI模型能力。

中間層由美圖AI開放平臺、美圖創(chuàng)意平臺、美圖AI助手RoboNeo組合而成,分別負責(zé)開放共享AI技術(shù)、搭建創(chuàng)作者生態(tài)、聚合美圖影像服務(wù)。

應(yīng)用層則通過AI圖片、AI視頻、AI設(shè)計以及AI數(shù)字人等四大領(lǐng)域進行創(chuàng)新探索。

行業(yè)巨震,這些變革正悄然發(fā)生

吳欣鴻常常對團隊說,希望能讓更多人享受到AI紅利,一起用上AI時代的影像生產(chǎn)力工具,為行業(yè)降本增效。

這個愿景依托美圖 MiracleVision的AI能力,也在逐漸變成現(xiàn)實。

在設(shè)計場景下,美圖主要解決電商用戶設(shè)計物料的痛點難點,以往因為不懂設(shè)計的原因,很多服裝或電商企業(yè)每年在模特圖拍攝上面需要花掉幾十萬甚至上百萬。美圖此次宣布其正在與華為云進行合作,聯(lián)合研發(fā)“AI模特試衣”功能,能夠幫助企業(yè)降低運營成本并提高成交轉(zhuǎn)化。該功能將在7月份的華為開發(fā)者大會上進行展示。

而在視頻場景中,美圖視覺大模型MiracleVision更是輕車熟路。

美圖敏銳地觀察到,在這個視頻創(chuàng)造不斷更新迭代的時代,有一個全網(wǎng)視頻者大概率都會碰到的場景—口播。簡而言之,便是主播對著鏡頭說話,這就是口播場景。

而在這樣一個很簡單的場景中,卻存在著三個主要痛點:無法短時間內(nèi)輸出腳本、拍攝過程中頻頻失誤以及剪輯過于復(fù)雜,導(dǎo)致用戶口播效率極低。美圖視覺大模型MiracleVision加持的美圖開拍能在前期的內(nèi)容策劃階段,幫助用戶用AI一鍵生成熱門的口播腳本。在中期拍攝過程中,提詞器會智能地跟隨語速進行滾動,同時支持多臺設(shè)備。至于后期剪輯,美拍所有功能都針對口播視頻的工作進行了流程優(yōu)化,提供了一套高質(zhì)量高效率的解決方案。

有意思的是,美圖此次發(fā)布的AI數(shù)字人生成工具DreamAvatar同樣以視覺大模型MiracleVision為驅(qū)動力,在影視場景中也有相應(yīng)探索——AI演員,極大限度地降低了影視特效所消耗的時間和人力成本。操作過程簡而言之便是,用戶一鍵上傳視頻后,AI會制定出視頻里面的人物,把人體進行檢測、跟蹤、擦除,自動把真人替換成數(shù)字人;同時AI通過3D人體姿態(tài)估計還有驅(qū)動算法,讓動作完美同步;AI還會并行通過相機姿態(tài)估計和跟蹤、光照估計,讓數(shù)字人更自然地融入環(huán)境;最后,將前面這一系列AI分處理匯總到3D渲染并輸出,AI演員的影特效大片得以誕生。DreamAvatar生成的AI演員可以極大提高影視CG的制作效率,將原本以天為單位的制作周期,縮減到1小時內(nèi)。

除了設(shè)計、視頻以及影視之外,美圖視覺大模型MiracleVision的優(yōu)勢場景還有不少,而這都要得益于美圖此次發(fā)布會的頂層戰(zhàn)略理念——即以從生活場景向生產(chǎn)力場景進化,構(gòu)建美圖AI產(chǎn)品生態(tài),解決行業(yè)深層問題。

吳欣鴻表示,“AI對工具的價值,就好比電對于電器的價值,電的發(fā)現(xiàn)推動了工業(yè)革命,AI的發(fā)展則讓我們進入到了智能時代。AI正成為推動工具效率變革的能源,屏幕上這些當下熱門的AI產(chǎn)品,讓過去需要花大量時間才能完成的工作,變得前所未有的簡單。”

“我們希望,在這以后,用戶想起美圖。不再是一個簡單的美顏軟件。而是切切實實的智能工具。”

發(fā)布會現(xiàn)場,吳欣鴻壯志酬籌,面帶笑意卻目光堅定,似乎在告訴全世界,關(guān)于美圖與人工智能的故事才剛剛開始。

關(guān)于懂美學(xué)的視覺大模型,我們問了美圖 21 個問題

在美圖影像節(jié)活動現(xiàn)場,AI 科技評論及多家媒體亦與美圖公司創(chuàng)始人、董事長兼首席執(zhí)行官吳欣鴻展開了深入交流,對話摘錄如下:

對話吳欣鴻:目標和能力做好匹配聚焦業(yè)務(wù)最緊密的領(lǐng)域


1、AI科技評論:何為視覺大模型或者多模態(tài)大模型?

吳欣鴻:從企業(yè)經(jīng)營者角度,我很確認美圖今天做的這個視覺大模型一定是公司最核心的業(yè)務(wù),未來能夠為我們提供最重要的支撐?;叵肫鹞以?5歲的時候,也就是1996年,我當時去中國美術(shù)學(xué)院準備考附中,后面又進入了中國美術(shù)學(xué)院的油畫系去進修。那時候是我在視覺能力上的一個啟蒙時期。我開始系統(tǒng)地去學(xué)習(xí)各種藝術(shù)的類別,去感知、認知藝術(shù)與圖像。其實今天的視覺大模型和我當時作為一個15歲的學(xué)生時的狀態(tài)可能是差不多的,如何看到眼前的世界,如何更好地理解這個世界,用大腦和雙手去表達出來,呈現(xiàn)出一幅油畫或者其他的一些藝術(shù)作品,這就是我所理解的當下的視覺大模型。

2、AI科技評論:視覺大模型會推動哪些行業(yè)的發(fā)展?

吳欣鴻:我們是一家擅長做工具、做應(yīng)用、做整合的一家公司,在視覺大模型的應(yīng)用上,我們前期會比較聚焦與我們業(yè)務(wù)最緊密的這些領(lǐng)域。我一直覺得戰(zhàn)略就是目標和能力的匹配,所以目前我們的能力在這,目標也不敢定得太大,先把能力所及的事做好,再一步一步看能否延展到更多的應(yīng)用場景、更多的行業(yè)。

3、AI科技評論:您對公司下一步視覺大模型的技術(shù)創(chuàng)新有什么樣的要求和期待?

吳欣鴻:這個問題我想引入最近新發(fā)布的Apple Vision Pro這個設(shè)備來回答,如果我沒有記錯Vision Pro應(yīng)該有多個攝像頭,無論是往前、往眼睛,還是往下,人們可以看到各個視角下的物體。它其實是一種視覺感知能力的極大強化,我們可以實時去識別一切、分割一切,去做很多跟空間的交互,我們也能拍攝一些臨場感很強的照片或者視頻,這種感覺很難用3D或者其他形容詞來形容它,那是一種近在眼前的體驗,我想這些都會對未來視覺大模型的能力得到一些拓寬。剛才說到大模型的感知和認知需要不斷提升,我想未來如果能借助這些新的設(shè)備進行創(chuàng)新,大模型應(yīng)該會有很大的提升。

4、AI科技評論:美圖和一些行業(yè)伙伴達成了合作,是不是意味著美圖正在將AIGC能力分享給行業(yè)伙伴?具體有哪些領(lǐng)域?

吳欣鴻:我們很希望能夠跟行業(yè)頭部進行AI的共創(chuàng),比如說我們跟FILA進行“AI潮鞋”挑戰(zhàn),事實上我們和FILA做的遠不止一個活動,雙方的團隊進行多輪的深入的討論、調(diào)試。我們很需要這些頭部的合作伙伴的認知和幫助。我們認為這是快速提升美圖視覺大模型以及團隊能力的一種方式。

5、AI科技評論:視覺大模型上如何更新自己對美學(xué)的理解?

吳欣鴻:我們覺得靠美圖自身,哪怕我們有自認為在美學(xué)上比較專業(yè)的團隊,這也還是遠遠不夠,所以我們才有了創(chuàng)作者的生態(tài),我們讓外部非常優(yōu)秀的藝術(shù)家、設(shè)計師在我們的生態(tài)上去訓(xùn)練他們自己的模型。比如說我是插畫藝術(shù)家,我會把自己過往的作品放在美圖上面去訓(xùn)練,并且把它命名為我的專屬模型,為美圖的用戶以及更多外部客戶提供模型生成能力。美圖得到了很多藝術(shù)家以及設(shè)計師的認可,因為美圖幫助他們提升了收入以及粉絲量,他們也從中收獲了很多對于美學(xué)的沉淀。我們是通過生態(tài)的方式來獲得的成功,而不是自己悶頭做的方式,因為悶頭做再怎么做都是有局限的。

6、AI科技評論:如果滿分是100分的話,吳總給目前的美圖大模型會打多少分?

吳欣鴻:我自己的主觀判斷不一定對,我只給大模型打了60分,不知道會不會影響我們團隊的心情,畢竟耗費這么長時間進行投入。雖然說在過去幾個月這個模型進步還可以,但是離我們認為最理想的生成效果還是有比較大的差距,特別是在創(chuàng)造性上面。但起點越低,空間越大,我們還是覺得美圖有很好的基礎(chǔ)去把這個事情做好。我們是比較有韌勁、有耐心的團隊,一個美圖秀秀就是一個小的APP,但是我們花了15年的時間以及巨大的人力去打磨。所以我們會不會用15年,甚至更長的時間去打磨視覺大模型,這也還是個未知數(shù)。所以我們也很期待自己的表現(xiàn),比如說半年后,回頭來看今天,我們會給自己打多少分,這才是更值得關(guān)注的問題。

7、AI科技評論:大模型一旦開源,其他企業(yè)也會迅速拉平這些能力,大家能想到的應(yīng)用場景也都有限,那么未來的美圖大模型的競爭壁壘會在哪里?

吳欣鴻:首先美圖做的是國內(nèi)首發(fā)的懂美學(xué)的模型,美圖在這方面積攢了非常多年,它比較具有主觀性,在十幾年的沉淀中,美圖積攢的對美學(xué)趨勢的探索,是我們非常重要的,而且是非常核心的競爭力。很多人都在做這種視覺模型,但是我們的模型會對人像的理解會更深,圖像的質(zhì)量也會更高清、更可控。

除了在美學(xué)上的積累,美圖還有一個比較大的用戶基數(shù),我們現(xiàn)在是2.43億的月活,這代表著美圖可以很短的時間內(nèi)驗證產(chǎn)品性能,過程會比較的順利。

此外,無論是視覺大模型還是在其之上的一個應(yīng)用,都會面臨一個獲客的問題,獲客成本太高,對于廠商來說是個很大的挑戰(zhàn)。但這對于美圖來說,根本不成問題,美圖在這方面應(yīng)該說算是得天獨厚。另外大模型做出來以后誰買單?我們做出模型首先是我們自己買單,我們內(nèi)部的結(jié)算就會通過API、SDK的調(diào)用,先讓大模型的商業(yè)模式能夠成立。同樣,在應(yīng)用上面,美圖也已經(jīng)把VIP訂閱、單購這些模式跑通,所以未來我們會讓圍繞大模型的應(yīng)用可以很快的商業(yè)化。對于所有廠商而言,造血是一個很重要的能力。另外,還有一個點在于,在美圖平臺上的這些創(chuàng)作者和開發(fā)者,美圖能讓他們實現(xiàn)變現(xiàn)從而獲得分成,這對美圖生態(tài)非常重要。

8、AI科技評論:圖像參數(shù)量越大,需要計算資源越多,如何解決這個難點的呢?

吳欣鴻:參數(shù)量越大,需要的計算資源越多肯定是一個問題,我們通過生態(tài)的方式解決這個問題。比方說把模型能力提供給用戶之后,用戶一起來共創(chuàng),他們也會獲得一些商業(yè)上的收益,這個收益也會反哺模型的計算資源的補充和不足,所以說我們把它變成一個更靈活點借助生態(tài)的方式去把我們這個模型能力建設(shè)起來。

值得一提的是美圖引入了云,我們需要特別感謝云廠商對我們的支持,各家云廠商內(nèi)部有一個服務(wù)的調(diào)度系統(tǒng),當我們遇到算力問題時,我們會實時調(diào)度到各個平臺上去,由云廠商在背后為我們提供大力支持。

9、AI科技評論:美圖如何看待創(chuàng)作 AI 相關(guān)工具與創(chuàng)作者之間的關(guān)系?AI 技術(shù)與人之間如何協(xié)作?

吳欣鴻:美圖發(fā)布的WHEE,主要是去幫創(chuàng)作者去解決創(chuàng)作門檻的問題。在我們的工作中,AI產(chǎn)品能放大設(shè)計師的想象力,比如說一些貼紙文字,只需要數(shù)據(jù)扔進去,便可以訓(xùn)練出一個比較可用的貼紙,對這些設(shè)計師來說是一個很大的提升。另外我覺得對普通用戶或者說初級用戶來說,它降低了門檻,讓一部分原來不會設(shè)計的人也擁有了設(shè)計能力。

10、AI科技評論:這次發(fā)布的新品能夠感受到美圖的一些變化。這種變化是美圖主動的求變?還是被動的求變?美圖能不能夠適應(yīng)這種變化?

吳欣鴻:首先美圖應(yīng)該算是主動的求變,剛才我也有說美圖之前更多的是服務(wù)于生活場景,現(xiàn)在我們看到在生產(chǎn)力場景上其實有巨大的需求和商業(yè)化的機會。這些能力我們其實都具備,我們在過去15年為生活長款服務(wù)的能力逐步的移植到生產(chǎn)力場景上。當然作為一家商業(yè)公司,我們還是很追求收入和利潤的增長,很顯然在這個領(lǐng)域有巨大的商業(yè)空間,這對我們來說會是一個增量。像剛才提到美圖有2.43億月活躍用戶,有百分之二點幾的訂閱滲透率,顯然這個訂閱滲透率有蠻大的提升空間,很多產(chǎn)品都可以達到百分之十幾或者二十幾的訂閱滲透率。但是我想說,這些對我們來說是一個存量用戶的變現(xiàn),如何去尋找增量,機會就在生產(chǎn)力工具上。所以我們特別主動。

11、AI科技評論:美圖為什么要進軍數(shù)字人市場,跟商湯、百度、小冰相比,美圖的優(yōu)勢在哪里?

吳欣鴻:我們會從自身的優(yōu)勢和用戶的需求去出發(fā),美圖剛剛也提到了,這15年來幫助優(yōu)化、美化真人形象?,F(xiàn)在年輕用戶對風(fēng)格化的數(shù)字人即虛擬形象有越來越強烈的需求。在生產(chǎn)力的場景大家對這種寫實的數(shù)字人,像剛才提到的無論是模特、口播、客服等等,也存在較大的需求,所以我們更多從用戶需求和場景的優(yōu)勢出發(fā)。舉個例子,比如用戶在美化自己照片的時候,可以提示是否要創(chuàng)建自己的數(shù)字人,對用戶來說這是一個很自然的場景,再比如說寫實數(shù)字人只要幾張真人的照片就可以創(chuàng)建,當然如果錄制完整的視頻效果會更好,這是自身的場景優(yōu)勢。再結(jié)合剛才提到的用戶需求,所以我們就做了。另外,美圖在美學(xué)上確實有比較多的沉淀或者高要求,所以我們做的數(shù)字人相信未來會去卷它的美學(xué),我相信這也會是跟很多友商有所區(qū)別的一個地方。

12、AI科技評論:以往美圖是專注生活場景,此次發(fā)布會是否意味著美圖現(xiàn)在開始全面進入了生產(chǎn)力場景市場?

吳欣鴻:從生活場景到生產(chǎn)力在影像這方面技術(shù)底層是共通的,舉個例子, 在生活場景,摳圖算法針對用戶以人像和人體為主,進行人像和人體的分割,并且做得很精致。在生產(chǎn)力場景,這個功能可能會用于五金店摳圖螺絲、鎖等等,換上他們的背景圖,摳完圖之后上架做售賣。我們發(fā)現(xiàn)雖然底層技術(shù)相同,但實際應(yīng)用場景很不一樣,所以從生活場景到生產(chǎn)力場景的轉(zhuǎn)變,看起來容易,實際上要做很多精細化適配的工作。過去15年,美圖在生活場景存量市場已經(jīng)挖掘得差不多了,所以轉(zhuǎn)向生產(chǎn)力場景是時勢使然。對于美圖來說,生產(chǎn)力場景是未來十年的重點布局方向,空間很大,美圖團隊也感覺特別興奮、很有干勁。

13、AI科技評論:AI在視頻創(chuàng)作方面,會給行業(yè)什么樣的變化,變化會有多大?

吳欣鴻:從美圖的角度去看,我們發(fā)現(xiàn)視頻創(chuàng)作工具的需求一下子大了起來,變化的話,就是我們內(nèi)部開始變卷,開始沒日沒夜投入到工具的開發(fā)中。我們也看到隨著越來越多的視頻創(chuàng)作工具發(fā)布,創(chuàng)作者大量的時間被節(jié)約,所以他們有更多的時間去考慮說怎么講好故事,把這個腳本打磨好,怎么塑造好IP,讓他的形象更鮮明、記憶點更多。我覺得這是好事,幫我們節(jié)省了很多重復(fù)的工作。

14、AI科技評論:AIGC相關(guān)產(chǎn)品研發(fā)需要強大的技術(shù)支持,請問美圖在技術(shù)研發(fā)上進行了哪些投入?后續(xù)有什么計劃?

吳欣鴻:事實上,美圖在AI早有布局。2010年,美圖通過成立MT Lab(美圖影像研究院)聚焦計算機視覺。自2013年開始重點投入深度學(xué)習(xí),2016年即推出AIGC的產(chǎn)品雛形“手繪自拍”,廣受全球用戶歡迎。2022年11月以來,美圖AIGC產(chǎn)品進入爆發(fā)期。在團隊建設(shè)層面,美圖在北京、深圳、廈門等城市均有設(shè)立研發(fā)團隊,成員來自于新加坡國立大學(xué)、復(fù)旦大學(xué)、廈門大學(xué)、華中科技大學(xué)等國內(nèi)外頂尖高校碩博人才。在計算能力方面,美圖已經(jīng)與頭部云服務(wù)廠均建立了穩(wěn)定友好合作關(guān)系與戰(zhàn)略合作伙伴關(guān)系,同時擁有完備的算力基礎(chǔ)設(shè)施,并持續(xù)迭代升級自有算力能力。美圖也積極參與業(yè)界活動,與行業(yè)伙伴交流合作。2022年,美圖公司攜手國際多媒體頂級會議ACM Multimedia 2022舉辦第四屆Person In Context競賽。美圖影像研究院(MT Lab)在CVPR 2022、ECCV 2022、AAAI 2022等國際頂級會議上發(fā)表多篇學(xué)術(shù)論文。另外,美圖AI開放平臺(Meitu AI Open Platform)持續(xù)為行業(yè)提供經(jīng)市場驗證的專業(yè)AI算法服務(wù)和解決方案。在商業(yè)模式層面,美圖的很多AIGC應(yīng)用場景有已經(jīng)被驗證的商業(yè)模式,用戶愿意為AIGC產(chǎn)品訂閱或單購。高研發(fā)投入是支撐美圖持續(xù)創(chuàng)新的“壓艙石”。2022年,美圖公司研發(fā)投入達人民幣5.86億元,同比2021年增長7.5%。未來,美圖將持續(xù)進行科技創(chuàng)新探索,結(jié)合用戶需求研發(fā)AIGC新品。

15、AI科技評論:MiracleVision是一個怎樣的收費體系?整個商業(yè)化進程是否可以詳細講講?

吳欣鴻:在我看來,好的視覺大模型需要有良好的“模型生態(tài)”支撐,這個過程離不開創(chuàng)作者和開發(fā)者的持續(xù)參與。未來,我們會為創(chuàng)作者提供創(chuàng)作支持,例如像課程、社區(qū)和模型創(chuàng)作大賽等。例如,創(chuàng)作者訓(xùn)練的模型可以在美圖旗下產(chǎn)品進行分發(fā),在分發(fā)的過程中還能持續(xù)進行模型優(yōu)化。此外,行業(yè)客戶可以通過MiracleVision它的API或SDK進行商業(yè)使用,創(chuàng)作者和開發(fā)者也可以從中獲得經(jīng)濟收益。

16、AI科技評論:美圖所理解的“藝術(shù)美感”風(fēng)格是什么樣的,它又怎樣賦能MiracleVision?

吳欣鴻:近年來,美圖公司陸續(xù)推出了“中國潮色” “國潮紋樣”“東方潮妝”等一系列以影像數(shù)字化方式演繹“國風(fēng)國潮”的傳統(tǒng)文化項目,詮釋中國美學(xué)。美圖通過對圖像進行多維度的特征提取和分類,融合“國風(fēng)國潮”本身獨特的色彩配色方案,將概念轉(zhuǎn)化為圖像視覺方案。同時,結(jié)合視覺大模型本身對語義理解的能力和對亞洲人像背后審美藝術(shù)的洞悉,依托美圖在影像領(lǐng)域深厚的技術(shù)積累,MiracleVision視覺大模型實現(xiàn)了對生成圖像的精準化控制,在此基礎(chǔ)上MiracleVision視覺大模型通過自主學(xué)習(xí),對國風(fēng)元素的識別、理解和生成,都具有更高的準確性和創(chuàng)造性,真正實現(xiàn)了對“國風(fēng)國潮”的理解。

17、AI科技評論:在今天 AI時代,對于更多的視頻行業(yè)的從業(yè)者,有什么建議嗎?

吳欣鴻:其實我更希望視頻創(chuàng)作者們給我們多提一些建議,因為在AI工具發(fā)展的初期還是需要很多來自行業(yè)各個職能的聲音,無論是正反饋,還是負反饋,都能夠很好提升服務(wù)。在未來,當AI的工具越來越完善,視頻創(chuàng)作者或者說更廣大的創(chuàng)作者應(yīng)該聚焦哪塊的話,我一時也想不起來,我覺得回到我自身,我是一個興趣驅(qū)動的人,我相信只要你對自己現(xiàn)在所在的領(lǐng)域持續(xù)保持熱愛,充滿好奇心,還是能在未來找到自己非常獨特的價值。

18、AI科技評論:關(guān)于視覺(可以是大模型也可以是小模型)接下來新的技術(shù)突破點會是在什么地方?

吳欣鴻:未來的話,我覺得變革可能還是產(chǎn)生在視頻和3D方面,或者視頻和3D結(jié)合的方面。比方說這十多年以來,無論PC互聯(lián)網(wǎng)到移動互聯(lián)網(wǎng),大家看的內(nèi)容還是2D的內(nèi)容,主要是因為大家用的手機是個2D平面展示。所以說3D沒有發(fā)展起來,這一方面是因為存在技術(shù)的難點,另外一方面大家也缺少一個比較好的互聯(lián)網(wǎng)的接入設(shè)備,但大家看到今年發(fā)生了一些改變,像Apple Vision Pro發(fā)布的時候震撼了整個行業(yè),所以很多廠商也會跟進,把價格拉低。有一個很好的3D接入設(shè)備之后,我相信在視頻上以及各種3D特效制作上一定會有一些改變。像今天發(fā)布的AI演員其實也是簡單的嘗試,希望把3D內(nèi)容的制作和視頻制作結(jié)合起來,早一點進行布局,進行早期的積累。

19、AI科技評論:視覺大模型對人們的審美觀念和美學(xué)研究會帶來什么樣的影響?

吳欣鴻:美圖一直在研究美學(xué)的趨勢,但我們從來不認為審美可以被定義,我們一直在幫助每一位用戶去發(fā)現(xiàn)自己喜歡的美,這是一種個性化的多樣的美。我們要尊重美的形態(tài)各異。AI創(chuàng)作現(xiàn)在確實是處在一個比較缺少靈魂的狀態(tài),我們也很好奇說,未來有沒有可能出現(xiàn)這種真正有創(chuàng)造力的,能夠打造自己獨一無二風(fēng)格的AI藝術(shù)家?

20、AI科技評論:美圖設(shè)計室已經(jīng)更新到2.0版本了,其中有一個功能叫做AI商品圖,如何動態(tài)展現(xiàn)這些模特衣服上身效果?

吳欣鴻:現(xiàn)在很多手機,比如說iPhone它后置的攝像頭有Top模組,理論上可以進行空間建?;蛘哒f物體的掃描。當我們把一款商品去360度圍繞拍攝,理論上可以得到一個3D的草模,AI可以在分類統(tǒng)計上去進行渲染,去做很多效果的提升,可以讓它有這種動態(tài)效果。我不知道剛才大家有沒有關(guān)注美圖設(shè)計師的 AI潮鞋環(huán)節(jié),那個鞋子它是不動的,我們用一個3D的白膜去進行AI逐幀的渲染,基本上每兩三幀就換一個風(fēng)格,它就這樣轉(zhuǎn)起來了。當然我覺得這塊的技術(shù)還遠不成熟,因為3D生成可能還處在一個比較早期的階段,我們現(xiàn)在已經(jīng)在做一些小的探索,如何做到真立體還是假立體。這個是未來我們需要攻克的。

21、AI科技評論:VIP訂閱業(yè)務(wù)已經(jīng)是第一大收入來源,用戶方面,AI的應(yīng)用帶來最大的變化是什么?

吳欣鴻:在AIGC爆發(fā)之前我們也積累了十幾年的影像技術(shù),我們要去做一款效果非常驚艷的產(chǎn)品,其實需要做很大的時間和人力成本,而且還有很大的不確定性,現(xiàn)在這些積累讓我們可以快速把一些構(gòu)想落地去驗證,帶給用戶的反饋也非常正向。從另一個方面而言,這些創(chuàng)新功能用戶之前可能沒有使用過,用戶也會有足夠的動力去使用甚至去付費。比如說像3月份我們?nèi)蚴装l(fā)的AI動漫,當用戶看到自己拍攝的一個視頻,可以被轉(zhuǎn)化成像美漫或者日漫的效果,那一刻我相信用戶會感到非常驚艷,特別能親眼看到自己真人到動漫的變身的過程,這個成果能夠極大地拉動我們訂閱和單購的收入。所以總的來說,AIGC爆發(fā)對我們業(yè)務(wù)產(chǎn)生了一個非常積極、正向的作用。


參考鏈接:

1.https://xueqiu.com/9374162244/246427787

雷峰網(wǎng)(公眾號:雷峰網(wǎng))雷峰網(wǎng)



雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說