0
本文作者: 我在思考中 | 2022-02-10 11:35 |
-論文地址:https://storage.googleapis.com/deepmind-media/AlphaCode/competition_level_code_generation_with_alphacode.pdf
根據(jù)DeepMind的博客介紹,AlphaCode 在號稱「全球最強算法平臺」Codeforces 上的 5,000 名用戶解決的 10 項挑戰(zhàn)中進(jìn)行了測試。AlphaCode能夠以與人類完全相同的格式在這10項挑戰(zhàn)中自動輸入代碼,生成大量可能的答案,然后像人類程序員一樣通過運行代碼和檢查篩選出可行答案,最終在人類程序員中取得了排名前 54%的好成績。
也就是說,AlphaCode的代碼能力媲美在Codeforces上參加過測試的幾乎一半程序員(2300名)。按照一個初級程序員月薪2萬的算法,AlphaCode有望每年替全球人類資本家省下5.52億的人力成本,使一半程序員失業(yè)……
不過,DeepMind團(tuán)隊當(dāng)時也明確指出了:AlphaCode目前只適用于競爭類編程比賽。
不可否認(rèn),這也是繼DeepMind發(fā)布Alpha Go、AlphaZero與AlphaFold之后的又一研究突破,極大地增加了其Alpha系列的傳奇色彩。但與該系列的其他工作(如AlphaGo打敗世界圍棋冠軍)相比,AlphaCode的性能似乎并不突出,
目前正在清華大學(xué)朱軍門下?lián)尾┦亢笱芯繂T的Tea Pearce對AlphaCode的技術(shù)原理十分感興趣,對DeepMind的這篇31頁論文進(jìn)行仔細(xì)閱讀后,制作了一個短視頻發(fā)表在油管上,從系統(tǒng)概述、測試階段、數(shù)據(jù)集的預(yù)訓(xùn)練與微調(diào)、Transformer模型的訓(xùn)練過程與Transformer架構(gòu)等維度對AlphaCode的細(xì)節(jié)進(jìn)行了較為詳細(xì)的講解。
視頻地址:https://www.youtube.com/watch?v=YjsoN5aJChA
與OpenAI之前開發(fā)的GPT-3一樣,AlphaCode也是基于Transformer模型,只不過前者側(cè)重于言生成,后者則強調(diào)對順序文本(如代碼)的解析。
下面AI科技評論對該短視頻進(jìn)行了簡單整理:
當(dāng)前,AlphaCode的目標(biāo)編碼問題集中為特定的競賽類型,在諸如Codeforces的網(wǎng)站上參加編碼挑戰(zhàn),其中,這些挑戰(zhàn)包含對一個問題的簡短描述與帶有測試案例的示例,為挑戰(zhàn)者提供了能與正確預(yù)期輸出相匹配的輸入。
簡而言之,這些挑戰(zhàn)的目標(biāo)就是編寫一些代碼,為示例的測試案例與一組隱藏測試案例提供符合預(yù)期的輸出。如果你的代碼通過了所有測試,那么你就解決了這個問題。
根據(jù)DeepMind的介紹,AlphaCode在Codeforces網(wǎng)站所舉辦的編碼挑戰(zhàn)中取得了與普通用戶相媲美的成功率。
那么,AlphaCode的工作原理究竟是怎樣的呢?
在DeepMind團(tuán)隊所發(fā)表的“Competition-Level Code Generation with AlphaCode”一文中,他們給出了一個高級的概要圖(如下)。如圖所示,AlphaCode的核心組件仍然是Transformer語言模型,其余單獨組件也是舊的。
圖注:AlphaCode的系統(tǒng)圖
我們先看看AlphaCode在測試時是如何工作的。
首先要知道的一點是,在解決寫代碼的問題時,AlphaCode使用了一個非常具體的協(xié)議(protocol),且該協(xié)議決定了該系統(tǒng)的管道。根據(jù)論文顯示,DeepMind團(tuán)隊獲得了使用盡可能多的示例測試案例的權(quán)限,因為這些測試案例也包含在該問題內(nèi)。
不過,他們確實將自己的測試限制在了10個提交的隱藏測試發(fā)送案例內(nèi)。
AlphaCode的測試時間分為三個獨立的階段。
他們首先使用了一個大規(guī)模的Transformer模型,將問題描述示例測試和問題的一些元數(shù)據(jù)作為輸入,然后從模型中取樣,生成大量潛在的解決方案。之所以先生成大量的潛在解決方案,是因為大多數(shù)腳本無法為某些人、甚至編譯器所編譯。
因此,在第二與第三階段,他們就主要針對這100萬個潛在代碼腳本作「減法」,選出他們認(rèn)為在給定協(xié)議的前提下可能有用的10個方案。而他們的做法也很簡單,就是在示例測試案例中測試完這100萬個代碼腳本,然后將無法通過測試的大約99%個腳本排除掉,這就將腳本的數(shù)量減少到了千位數(shù)。
不過,協(xié)議要求其還要繼續(xù)縮減到10個解決方案。于是,他們又采取了一個非常聰明的方法:
他們使用了第二個Transformer模型將問題描述作為輸入,但不是嘗試生成代碼來解決問題,而是用Transformer生成測試案例輸入,并為每個問題抽樣50個測試案例輸入。現(xiàn)在,他們不嘗試生成輸入與輸出對,而只是試圖產(chǎn)生一些與問題相關(guān)的現(xiàn)實輸入。所以,AlphaCode可能必須根據(jù)問題所在,生成字符串、二進(jìn)制數(shù)或數(shù)字列表等。
圖注:Tim Pearce對AlphaCode在測試時的三個階段進(jìn)行講解
為什么這是個好主意?因為他們認(rèn)為如果兩個腳本對所有 50 個生成的測試所返回的答案是相同的,那么它們就可能使用相同的算法,并且可能不想浪費兩個提交來嘗試這兩個腳本。
所以,他們在這 50 個生成的輸入上編譯并運行大約 1000 個腳本。然后,他們根據(jù)這 50 個虛構(gòu)輸入的輸出對腳本進(jìn)行聚類。接著,他們會從每個聚類中選擇一個示例腳本。如果十個腳本中的任何一個通過了所有隱藏測試,那么這些腳本就是最終的10個腳本,他們也就成功地解決了編碼問題,否則就是失敗。這就是 AlphaCode 在測試時的工作方式。
這其中涉及到對Transformer模型的訓(xùn)練,可以看下文。
AlphaCode 使用的是當(dāng)今深度學(xué)習(xí)中相當(dāng)標(biāo)準(zhǔn)的預(yù)訓(xùn)練微調(diào)過程。
這里有兩個數(shù)據(jù)集:第一個數(shù)據(jù)集是由各種編程語言組成的公共 Github 存儲庫,包含 715 GB 海量代碼,用于預(yù)訓(xùn)練階段,目的是讓Transformer學(xué)習(xí)一些非常通用的知識,比如代碼結(jié)構(gòu)和語法。
首先說一下預(yù)訓(xùn)練階段。
他們抓取了一些 github 代碼,并隨機選擇所謂的樞軸點(pivot point)。
樞軸點之前的所有內(nèi)容都會被輸入編碼器,而解碼器的目標(biāo)是重建樞軸點以下的代碼。
編碼器僅輸出代碼的向量表示,可用于整個解碼過程。
解碼器以自回歸方式運行:首先預(yù)測代碼的第一個標(biāo)記。然后,損失函數(shù)只是預(yù)測的 softmax 輸出和真實令牌(token)之間的交叉熵。第一個真正的令牌會成為解碼器的輸入,然后預(yù)測第二個令牌,并且當(dāng)要求解碼器預(yù)測代碼令牌的意外結(jié)束時,重復(fù)此過程直到代碼結(jié)束。
現(xiàn)在,這些損失通過解碼器和編碼器反向傳播,盡管事實證明:只為編碼器添加第二個損失很重要。
這被稱為掩碼語言,可以高效地建模損失。將輸入到編碼器中的一些令牌清空。作為一種輔助任務(wù),編碼器嘗試預(yù)測哪個令牌被屏蔽。一旦預(yù)訓(xùn)練任務(wù)完成,我們就進(jìn)入微調(diào)任務(wù)。
在這里,我們將問題描述的元數(shù)據(jù)和示例輸入投喂到編碼器中,并嘗試使用解碼器生成人工編寫的代碼。這時,你可以看到這與編碼器-解碼器架構(gòu)強制執(zhí)行的結(jié)構(gòu)非常自然地吻合,損失與預(yù)訓(xùn)練任務(wù)完全相同。
還有一個生成測試輸入的Transformer。這也是從同一個 github 預(yù)訓(xùn)練任務(wù)初始化而來的,但它是經(jīng)過微調(diào)來生成測試輸入,而不是生成代碼。
DeepMind 團(tuán)隊對各種大小的模型進(jìn)行了實驗。經(jīng)實驗,較大規(guī)模的模型往往表現(xiàn)更好。編碼器和解碼器本身由多頭注意力層組成,且這些層非常標(biāo)準(zhǔn)。
該論文有許多進(jìn)步之處。在這里,我不打算全部介紹,只想強調(diào)一個我認(rèn)為很酷炫的點,就是標(biāo)簽和評級增強,以及問題描述。
我們總是將元數(shù)據(jù)作為Transformer的輸入。這包括問題的編程語言難度等級。一些問題的標(biāo)簽與解決方案在訓(xùn)練時是否正確?他們顯然知道這些字段的值是什么,但是在測試時他們并不知道什么是酷炫的,那就是他們實際上可以在測試時將不同的內(nèi)容輸入到這些字段中以影響生成的代碼。例如,你可以控制系統(tǒng)將生成的編程語言,甚至影響這種解決方案。
它嘗試生成比如是否嘗試動態(tài)編程方法或進(jìn)行詳盡搜索的答案。他們在測試時發(fā)現(xiàn)有幫助的是,當(dāng)他們對 100 萬個解決方案的初始池進(jìn)行抽樣時,是將其中的許多字段隨機化。通過在這個初始池中擁有更多的多樣性,其中一個代碼腳本更有可能是正確的。
參考鏈接:
1. https://www.youtube.com/watch?v=YjsoN5aJChA
2. https://www.reddit.com/r/MachineLearning/comments/slwh69/p_alphacode_explained/
3. https://storage.googleapis.com/deepmind-media/AlphaCode/competition_level_code_generation_with_alphacode.pdf
4. https://www.deepmind.com/blog/article/Competitive-programming-with-AlphaCode
雷峰網(wǎng)雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。