0
Deepfake,這一 AI 領(lǐng)域的“大毒瘤”,正在引起越來越多來自行業(yè)的反擊。
當?shù)貢r間 2020 年 1 月 6 日,F(xiàn)acebook 全球政策管理副總裁 Monika Bickert 在博客中表示,F(xiàn)acebook 將刪除滿足其標準的 Deepfake 視頻。這是 Facebook 打擊平臺上「操縱媒體」(Manipulated Media)的最新動作。
【 圖片來源:華盛頓郵報 所有者:華盛頓郵報 】
Monika Bickert 表示:
雖然 Deepfake 視頻當前在互聯(lián)網(wǎng)上仍然很少見,但其數(shù)量的增加將會對行業(yè)和社會構(gòu)成重大挑戰(zhàn)。
Deepfake,大家可能或多或少聽過名字。
2017 年底,美國社交新聞網(wǎng)站 Reddit 的一位用戶 Deepfakes 運用人工智能技術(shù),制作了一段“假”色情視頻,把《神奇女俠》女主角 Cal Gadot 的臉嫁接到一個成人電影女星身上,一時間引起轟動。
實際上,換臉在計算機視覺領(lǐng)域頗為常見,提到 AI 換臉的方法,一個繞不開的話題便是 Cycle GAN——人臉轉(zhuǎn)換在早期的一個重要嘗試。 Cycle GAN 由深度學習模型 GAN(Generative Adversarial Networks,即生成對抗網(wǎng)絡(luò))衍生而來,可以便捷地學習兩個類別之間的轉(zhuǎn)換關(guān)系,因而天然地適用于「圖像到圖像轉(zhuǎn)換」。
不過,Cycle GAN 保證了語義上的轉(zhuǎn)變,卻沒法保證一些細節(jié)問題,而最主要的兩點便是表情無法一一對應(yīng)、會出現(xiàn)混雜無意義的像素。
不同于 Cycle GAN,Deepfake 是一種深度自動編解碼器模型(Autoencoder-Decoder),通過用源人物和目標人物的至少幾百張照片,訓練模型分別識別、還原兩人面部的能力,最后用源人物的照片搭配目標人物的解碼器,從而完成轉(zhuǎn)換。(詳見雷鋒網(wǎng)此前報道)
【 圖片來源:GitHub 所有者:GitHub 】
當然,Deepfake 也有局限——無法在小樣本上工作,也就是說無法憑一兩張照片就替換兩張臉,模型的訓練過程也需要消耗大量資源。
雷鋒網(wǎng)了解到,由于用戶 Deepfakes 制作并上傳的換臉視頻涉及色情內(nèi)容,且侵犯了他人隱私,Reddit 官方將其封號,而作為報復,Deepfakes 也將換臉視頻的 AI 代碼免費公開。
潘多拉的魔盒一打開,Deepfake 開始憑借著驚人的發(fā)展速度、逼真的換臉效果,并最終造成了惡劣的社會的消極影響。荷蘭網(wǎng)絡(luò)安全初創(chuàng)公司 Deeptrace 曾于 2019 年 10 月發(fā)布了一份關(guān)于 Deepfake 現(xiàn)狀的報告(詳見雷鋒網(wǎng)此前報道),并指出網(wǎng)絡(luò)上現(xiàn)有的 Deepfake 視頻中有 96% 涉及色情,各大色情網(wǎng)站上流傳的 Deepfake 視頻中,所有受害者均為女性;同時,娛樂圈名人成為 Deepfake 視頻的主要惡搞對象。
另外,Deepfake 對政局的影響也不容小覷,其中最為典型的兩個例子是:
2018 年,由 Deepfake 合成的加蓬總統(tǒng) Ali Bongo 新年致辭視頻曾引起了兵變;
2019 年,馬來西亞經(jīng)濟部長 Azmin Ali 與男性發(fā)生性關(guān)系的視頻攪動了馬來西亞政局(雷鋒網(wǎng)注:同性性關(guān)系在馬來西亞屬違法行為,Azmin Ali 聲稱視頻是由 Deepfake 技術(shù)偽造,屬政治陰謀);
正如荷蘭網(wǎng)絡(luò)安全初創(chuàng)公司 Deeptrace 創(chuàng)始人兼首席科學官 Giorgio Patrini 所說:
無論是視頻、音頻還是文本,我們一直以來依賴和信任的多個數(shù)字通信渠道都已遭到了顛覆。
Deepfake 視頻的發(fā)展自然而然引發(fā)了人們的恐慌與深思。因此,各大科技企業(yè)也開始聯(lián)合學術(shù)界做出行動,避免造成更深的負面影響。
正如紐約州立大學工程與應(yīng)用科學學院呂思偉教授所說:
解決這一問題需要技術(shù)人員、政府機構(gòu)、媒體、公司以及每一個在線用戶的共同努力。
2019 年 9 月 5 日,F(xiàn)acebook CTO Mike Schroepfer 宣布,F(xiàn)acebook 正與微軟公司聯(lián)合包括麻省理工學院、牛津大學、康奈爾科技校區(qū)和伯克利大學在內(nèi)的多所大學研究檢測 Deepfake 的方法,同時非營利性研究組織 Partnership on AI 也參與其中,該組織的成員包括 Google、蘋果、亞馬遜、IBM 等大型科技公司。
另外,F(xiàn)acebook 投入了 1000 萬美元發(fā)起“Deepfake 檢測挑戰(zhàn)賽”(Deepfake Detection Challenge,DFDC),競賽于 2019 年末在溫哥華舉行的 NeurIPS 2019 上正式啟動,并于 2020 年春季結(jié)束,進而激勵研究人員以及業(yè)余愛好者尋找解決方案。
當月,Google AI 開源 Deepfake 視頻檢測數(shù)據(jù)集,該數(shù)據(jù)集共包含來自 28 個不同場景的由真人演員歷時 1 年現(xiàn)場拍攝的 3000 多段視頻。
2019 年 10 月初,美國參議院情報委員會的 Mark Warner 和 Marco Rubio 召集了包括 Facebook、Twitter、YouTube、Reddit 和領(lǐng)英在內(nèi)的 11 家科技公司負責人,旨在加快制定行業(yè)標準,規(guī)范 AI 合成內(nèi)容的分享、移除及存檔。月末,Twitter 發(fā)布了平臺擬將執(zhí)行的草案,并公開征集用戶意見。
正如本文開頭提到的,F(xiàn)acebook 近日發(fā)布博客,公開了針對 Deepfake 視頻的新政策。
博客提到,F(xiàn)acebook 將刪除符合以下標準的操縱媒體:
過度編輯或合成的視頻,誤導觀眾以為視頻中的人物說了他們實際并沒有說過的話;
通過 AI 或機器學習技術(shù)對原有視頻素材進行整合、替換或疊加生成的視頻。
值得一提的是,對于不符合上述標準的視頻,第三方事實核查員也會審查(包括 Facebook 的全球 50 多個合作伙伴,將使用 40 多種語言進行核查)。如果視頻被評定為虛假或部分虛假,F(xiàn)acebook 將明顯減少其在 News Feed 信息流中的傳播,用戶在分享該視頻時也會收到提醒。
同時,F(xiàn)acebook 指出,新政策不適用于涉及模仿或諷刺內(nèi)容的視頻,以及僅作了刪減或改變了說話順序的視頻。
美智庫新美國安全中心 CNAS 技術(shù)與國家安全項目主任 Paul Scharre 曾警告說:
Deepfake 具有極大的破壞性,利用它來操控選舉只是時間問題。
因此,進入 2020 年,隨著本屆美國總統(tǒng)大選臨近,作為全球最大的社交媒體平臺,F(xiàn)acebook 此舉自然也考慮了政治方面的因素。
雷鋒網(wǎng)了解到,Monika Bickert 的博客于她即將出席國會關(guān)于網(wǎng)絡(luò)操縱和欺騙的聽證會之前發(fā)出,這可能并非巧合——距離 2020 年大選只剩 10 個月時間,很少有哪個政治階層的人對 Facebook 在民主進程中發(fā)揮的作用感到滿意,此次政策的宣布似乎是 Facebook 在向當局證明自己的能力。
談到政治,猶記得,2019 年一段美國民主黨議員 Nancy Pelosi 的演講視頻遭到惡搞(視頻倍速降低至 0.75X,Nancy Pelosi 音調(diào)也被調(diào)高),使其看上去很像是醉酒狀態(tài)。很快,這段視頻就傳遍了各大社交網(wǎng)絡(luò),對當事人形象造成了極大影響。
對此,F(xiàn)acebook 表示,由于視頻屬于常規(guī)剪輯,并未違反平臺的任何規(guī)定,因此不會刪除;不過鑒于其負面影響,F(xiàn)acebook 減少了該視頻在平臺的傳播。
這一做法招致了廣泛批評,而 Facebook 此次推出的“新政”也未針對類似去年 Nancy Pelosi 視頻的虛假內(nèi)容給出令人信服的策略,因此充滿爭議,爭議的主要原因有以下幾條:
第一,第 1 條標準只適用于那些「讓觀眾誤以為視頻中的人物說了他們實際上沒有說過的話」的視頻,也就是說不包含那些讓觀眾誤以為視頻中的人物做了他們實際上沒有做過的事情的 Deepfake 視頻。
其實這是個很大的漏洞。按照 Facebook 的說法,哪怕一個 Deepfake 視頻里面有政客焚燒美國國旗,參加白人民族主義集會,或與恐怖分子握手,F(xiàn)acebook 也不會刪除視頻。雖然以上都是「極端情況」,但在外交政策、國家安全和選舉誠信方面,這些往往是最緊要的。尷尬的是,F(xiàn)acebook 一位發(fā)言人的確向美國付費媒體 OneZero 證實,這些情況下平臺不會刪除視頻。
第二,第 2 條標準對于控制虛假信息的傳播效果有限,因為現(xiàn)階段絕大多數(shù)此類視頻依然是通過視頻剪輯軟件來編輯的,通過手動刪除背景信息或調(diào)整語序,視頻剪輯者便到達了“斷章取義”的目的。正如紐約大學斯特恩商業(yè)和人權(quán)中心副主任、政治虛假信息專家 Paul Barrett 所說:
根據(jù) Facebook 的新政策,即便是虛假視頻,但因為篡改的手段不先進,所以不會被刪除。
第三,Facebook 在博客里提到的「事實核查政策」有嚴重的局限性。美國《連線》雜志作家 Renée DiResta 認為:
事實核查政策的一個主要問題就是太慢了,在查明事實之前,視頻一直在病毒式傳播;而且如果涉及到政治,大多數(shù)人并不會相信事實核查的結(jié)果,這甚至還會升級為黨派之爭。
一個很好的例證便是——2019 年 Facebook 的事實核查機制啟動時,Nancy Pelosi 的視頻已經(jīng)廣為傳播,而且最終也沒被刪除,負面影響并未降低;面對網(wǎng)絡(luò)暴力,Nancy Pelosi 還指責 Donald Trump 團隊也有不可推卸的責任(雷鋒網(wǎng)注:視頻中 Nancy Pelosi 在談?wù)?Donald Trump)。
第四,該政策僅針對視頻。近日,美國亞利桑那州共和黨眾議員 Paul Gosar 在 Twitter 上發(fā)了一張前總統(tǒng) Barack Obama 與伊朗總統(tǒng)握手的偽造照片。Facebook 證實,這確實也不在新政策針對的范圍內(nèi)。
第五,該政策最大的漏洞是不適用于涉及模仿或諷刺的視頻。實際上,虛假信息制造者往往是利用“諷刺”的標簽做幌子,一次次順利通過 Facebook 的事實核查,病毒式傳播著帶有明顯誤導性的消息。除非 Facebook 明確定義什么才算“諷刺”,否則 Deepfake 視頻借著“諷刺”的名號蒙混過關(guān)也不是不可能。
第六,該政策可能有向權(quán)貴低頭之嫌。據(jù)《紐約時報》報道,F(xiàn)acebook 的一位發(fā)言人發(fā)郵件稱:
如果政治演講符合公眾利益,F(xiàn)acebook 不會對其進行審查。 如果是政治人物違反了平臺規(guī)定,我們將通過權(quán)衡「公共利益價值和損害風險」來進行評估。
對此,《紐約時報》認為,所謂的「公共利益價值和損害風險」定義模糊,但可以確定的是,政治人物是受到保護的階級。如此看來,政治人物操縱社交媒體,似乎比普通人更容易。
在批評聲不絕于耳之時,也有一些人士表示了對這一政策的肯定。
比如非營利組織 WITNESS 的項目主管 Sam Gregory 表示:
我認為這個政策很好,在 Deepfake 成為一個普遍的問題之前,社交平臺首先要清楚地表明立場,宣布他們的具體政策,這是很重要的。
另外 OneZero 認為,做得不夠好總比什么都沒做要好,至少 Facebook 的新政策考慮到了一些可能出現(xiàn)的典型 Deepfake 視頻,這對政治是有積極意義的。誠然,如今絕大多數(shù) Deepfake 涉及色情,而非政治,但 Facebook 一直以來禁止裸露和色情的規(guī)定其實也已經(jīng)有了不錯的效果。
在雷鋒網(wǎng)編輯看來,F(xiàn)acebook 一直以來聯(lián)合企業(yè)、學術(shù)界、政府做出的努力,的確表現(xiàn)出了它作為全球最大社交媒體的社會責任感;但不得不說,面對讓眾多女性、名人深受其害的 Deepfake,F(xiàn)acebook 的博客像是一份考慮不周的、匆匆交上的答卷。
要有效地避免受害者群體更加龐大,或許還得三思而后行。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。