丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行

本文作者: 我在思考中 2022-01-06 09:51
導(dǎo)語:基于概率統(tǒng)計的深度學(xué)習(xí),憑什么不能解決數(shù)理邏輯問題?
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
“高等數(shù)學(xué)里程碑式的研究”,114頁論文讓AI文理雙修,也許不久后機(jī)器出的高數(shù)試卷就會走進(jìn)高校課堂,這下可以說“高數(shù)題不是人出的了”。
編譯 | 王曄

編輯 | 青暮

人工智能雖然給我們帶來了諸多便利,但也不免受到了各種質(zhì)疑。在互聯(lián)網(wǎng)領(lǐng)域表現(xiàn)良好的人工智能,在數(shù)學(xué)領(lǐng)域的很多表現(xiàn)卻被認(rèn)為是“出乎意料地糟糕”?;赥ransformers的語言模型在零樣本和少樣本等各種自然語言處理(NLP)任務(wù)中取得了令人難以置信的成功。但是,“這些模型在解決數(shù)學(xué)問題方面基本上是失敗的?!?/span>
中國科學(xué)院院士、普林斯頓大學(xué)數(shù)學(xué)系和應(yīng)用數(shù)學(xué)研究所教授、北京大數(shù)據(jù)研究院院長鄂維南曾表示,神經(jīng)網(wǎng)絡(luò)可以幫助我們有效地表示或逼近高維函數(shù),深度神經(jīng)網(wǎng)絡(luò)是一個有效的工具,它帶來的影響是巨大的。
以上思路更多還是基于深度學(xué)習(xí)在特征提取上的優(yōu)勢,然而,在更簡單或“低維”函數(shù)的、符號邏輯層面的推理中,神經(jīng)網(wǎng)絡(luò)真的毫無希望了嗎?
回歸人工智能發(fā)展萌芽階段,符號語言的思想為數(shù)理邏輯的產(chǎn)生和發(fā)展奠定了基礎(chǔ)。當(dāng)時人們試圖將對一切事物的理解與認(rèn)知化為符號語言以及符號間的推理,以此思路構(gòu)建的模型以符號為基底,但或許可以嘗試另一種思路,就是先用神經(jīng)網(wǎng)絡(luò)挖掘符號的特征。
在最新的一項研究中,用神經(jīng)網(wǎng)絡(luò)的方法精確求解低維的數(shù)學(xué)問題被證實非常有效。
值得一提的是,該項研究中還用到了OpenAI Codex。作為一種生成軟件源代碼的深度學(xué)習(xí)模型,Codex 可以理解十幾種編程語言,通過 API 提供的 Codex 模型在 Python 編程中也具有極強的能力,它在執(zhí)行編程任務(wù)時能夠考慮到上下文信息,包括轉(zhuǎn)譯、解釋代碼和重構(gòu)代碼。
該研究還被其研究團(tuán)隊稱為“第一項可以規(guī)?;詣咏鉀Q、評分和生成大學(xué)水平數(shù)學(xué)課程問題”的工作,打破了人們普遍認(rèn)為的神經(jīng)網(wǎng)絡(luò)不能解決高等數(shù)學(xué)問題的觀點。
“這些所謂不成功的研究只使用了基于文本的預(yù)訓(xùn)練,而既對文本進(jìn)行預(yù)訓(xùn)練又對代碼進(jìn)行微調(diào)的神經(jīng)網(wǎng)絡(luò),可以通過程序合成成功解決大學(xué)水平的數(shù)學(xué)問題?!?/span>
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
論文地址:https://arxiv.org/pdf/2112.15594v1.pdf



1

秒速解高數(shù)
機(jī)器學(xué)習(xí)模型真的可以解決單變量函數(shù)的圖形繞軸旋轉(zhuǎn)產(chǎn)生的體積、洛倫茲吸引子及其投影、奇異值分解(SVD)方法的幾何圖形等問題嗎?
這項研究展示了機(jī)器學(xué)習(xí)在這方面的強大能力。機(jī)器學(xué)習(xí)模型可以大規(guī)模很好地解決麻省理工學(xué)院包括單變量微積分、多變量微積分、微分方程、概率和統(tǒng)計學(xué)導(dǎo)論在內(nèi)的數(shù)學(xué)課程問題。
不僅如此,該團(tuán)隊的研究證實它還可以解決MATH數(shù)據(jù)集的問題,“MATH數(shù)據(jù)集是衡量模型的數(shù)學(xué)問題解決能力的基準(zhǔn),該數(shù)據(jù)集的主要來源是高中數(shù)學(xué)競賽,如AMC 10、AMC 12和AIME等。目前為止,最先進(jìn)的 Transformers ,如GPT-3,只對文本進(jìn)行了預(yù)訓(xùn)練,GPT-3取得的最好成績總體準(zhǔn)確率為6.9%,并且在所有題目上的準(zhǔn)確率都低于8.8%”。
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
圖1:圖中展示了模型可求解的高數(shù)問題。例如,在微積分18.01-02中,求由兩個二維圖形限定的二維區(qū)域圍繞z軸旋轉(zhuǎn)一周得到的體積(右上);在微分方程18.03中,求解洛倫茲奇異吸引子(右下);在線性代數(shù)18.06中,畫出奇異值分解(SVD)的幾何圖形(右下)。
“以前使用Transformers解決數(shù)學(xué)課程問題的工作之所以失敗,是由于像GPT-3一樣的Transformers,只在文本上進(jìn)行了預(yù)訓(xùn)練?!?/span>
研究團(tuán)隊認(rèn)為此前工作使用驗證或預(yù)測表達(dá)式樹的聯(lián)合訓(xùn)練輸出,雖然在解決小學(xué)水平的數(shù)學(xué)問題(如MAWPS和Math23k)時,準(zhǔn)確率超過80%。然而,這種方法的有效性并未在高中、數(shù)學(xué)奧林匹克或大學(xué)水平的數(shù)學(xué)課程中得到擴(kuò)展。后來有人通過與圖神經(jīng)網(wǎng)絡(luò)(GNN)配對預(yù)測算術(shù)表達(dá)式樹(expression trees),并在文本上預(yù)訓(xùn)練Transformers,來求解大學(xué)水平問題,且準(zhǔn)確率高達(dá)95%。但是這個結(jié)果僅限于數(shù)字答案,并局限于特定課程,不容易擴(kuò)展到其他課程。
而本文的這項研究證明,把問題變成編程任務(wù)進(jìn)行程序合成,是大規(guī)模解決數(shù)學(xué)和STEM課程的關(guān)鍵?!皩ξ谋具M(jìn)行預(yù)訓(xùn)練并對代碼進(jìn)行微調(diào)的 Transformers ,可以在MATH數(shù)據(jù)集和大學(xué)水平的數(shù)學(xué)課程上取得完美表現(xiàn)。”
如圖1所示,研究團(tuán)隊將麻省理工學(xué)院課程中的數(shù)學(xué)問題和MATH數(shù)據(jù)集進(jìn)行處理,并將其作為輸入傳給OpenAI Codex Transformers,使要解決的問題轉(zhuǎn)化為編程任務(wù),然后執(zhí)行自動生成程序。問題不同,運行程序的輸出形式也不同,包含數(shù)字輸出形式,甚至可以通過程序合成從文本中產(chǎn)生圖片輸出形式。該團(tuán)隊用prompt生成法(prompt generation methods ),使Transformers能夠為每個隨機(jī)抽到的問題生成帶圖的解題程序和方案。相比之下,這項工作可以輸出包括圖表在內(nèi)的多種模式,并且不需要專門的訓(xùn)練就可以擴(kuò)展到其他數(shù)學(xué)課程。
他們還對原始問題和轉(zhuǎn)化后的問題進(jìn)行了對比量化,并通過調(diào)查評估了生成問題的質(zhì)量和難度。
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
表1:針對六門課程(18.01, 18.02, 18.03, 18.05, 18.06, 6.042)和MATH數(shù)據(jù)集的六個主題(預(yù)-代數(shù),代數(shù),中級代數(shù),計數(shù)和概率,預(yù)-微積分,數(shù)論)中的一些問題的解決方案。解決方案可包含數(shù)字答案、方程式和圖表等。
在上表所列的麻省理工學(xué)院的數(shù)學(xué)課程中,使用該方法可以很好地自動解決、評分和生成問題,并且所有這些都是實時的,每個問題處理時間竟不到一秒。



2

關(guān)鍵
研究實驗題目來自麻省理工學(xué)院六門課程中隨機(jī)抽取的25個問題,和MATH數(shù)據(jù)集的六個主題中各隨機(jī)抽取5個問題。并且,為了說明他們的研究結(jié)果不是過度擬合訓(xùn)練數(shù)據(jù),他們還用了在訓(xùn)練期間網(wǎng)上查不到的新的應(yīng)用線性代數(shù)課程COMS3251來進(jìn)行驗證。
技術(shù)代替人進(jìn)行解題時,并不是使用技術(shù)對問題進(jìn)行重大修改,而是努力提取問題的本質(zhì),因此,該團(tuán)隊使用Codex對問題進(jìn)行了整理。
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
圖2:問題的擴(kuò)充和重組得到正確的Codex輸出。
上圖中,顯示了使用Codex將課程問題轉(zhuǎn)化為編程任務(wù)并運行程序以解決數(shù)學(xué)問題的方法。每個面板的左半部分顯示了原始問題和通過添加問題背景、互動或簡化后而重新表述的問題。
添加問題背景是非常有必要的,對學(xué)生和程序來說,解題域是選擇合適的解題方法的必要信息。例如,如果沒有問題背景,一個關(guān)于網(wǎng)絡(luò)的問題,可能是關(guān)于神經(jīng)網(wǎng)絡(luò)的問題也可能是關(guān)于通信網(wǎng)絡(luò)的問題。
  • 面板A中對微積分方程問題的主題背景進(jìn)行了補充,將其重新表述為一個編程任務(wù)的問題。補充背景包括澄清含糊不清的定義和運算符,或有一個以上標(biāo)準(zhǔn)用法的符號,說明學(xué)生通過學(xué)習(xí)課程就會知道的隱含假設(shè),包括課程的主題或課題,指出學(xué)生從與問題相關(guān)的講座或教科書章節(jié)中學(xué)到的適當(dāng)方法。
  • 面板B中使用了Python庫、sympy庫和streamplot庫的背景,用于解題和繪制可視化圖。如果程序的語法與Python版本不兼容,或者數(shù)據(jù)類型有錯誤,又或者沒有使用庫,合成程序在執(zhí)行中可能無法得到正確的答案。
  • 面板C中顯示了概率和統(tǒng)計學(xué)中的一個例子,原始問題被轉(zhuǎn)化為生成模擬的概率編程任務(wù)。在做題時學(xué)生可以從課程的主題和涵蓋的材料中得到一些信息,在這個過程中,要通過了解問題背景,確定所需要的是什么類型的答案,對處理形式有一個合理預(yù)期。例如,概率或組合學(xué)中的許多問題可能需要用階乘、組合函數(shù)或指數(shù)來回答。因此在實驗中也必須要提供背景,以便用正確的方法來處理問題。
  • 面板D考慮到NLP模型在處理長而復(fù)雜的文本方面有困難,因此將較長的問題分解成了具體的編程任務(wù),并刪除了多余的信息。通過互動產(chǎn)生了多個圖,交互式使用Codex可以使可視化圖很好地被繪制出來,并且可以發(fā)現(xiàn)缺失的功能或需要的庫。
  • 面板E來自《計算機(jī)科學(xué)數(shù)學(xué)》,對問題進(jìn)行了簡化處理,簡化包括刪除多余的信息,將長的句子結(jié)構(gòu)分解成較小的組成部分,并將提示轉(zhuǎn)換為編程格式。概括提煉出簡潔的提示和一系列較短的問題,可以提高Codex性能。
除此之外,他們還考慮了原始課程問題轉(zhuǎn)化為Codex 提示的三種情況:
  • 原樣提示。原始問題和Codex 提示是相同的;
  • 自動提示轉(zhuǎn)換。原始問題和Codex提示不同,Codex提示是由其本身自動生成的;
  • 手動提示轉(zhuǎn)換。原始問題和Codex提示不同,Codex提示是由人生成的。
當(dāng)把問題轉(zhuǎn)化為Codex提示時,又出現(xiàn)了一個關(guān)鍵性的問題:原始問題與之后產(chǎn)生正確答案的提示在語義上的接近程度如何?
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
圖3:按課程和類別劃分的所有問題的余弦相似度分布。
如圖3所示,為了測量原始問題和轉(zhuǎn)化后之間的差距,他們使用Sentence-BERT嵌入之間的余弦相似度。Sentence-BERT使用siamese和triplet網(wǎng)絡(luò)結(jié)構(gòu)對預(yù)訓(xùn)練的BERT模型進(jìn)行了微調(diào)。Sentence-BERT能夠在句子層面上產(chǎn)生語義嵌入,從而可以在長篇文本中進(jìn)行語義相似度比較。
應(yīng)用他們的方法,對于難度較低的課程,修改少量原始問題(高余弦相似度分?jǐn)?shù)),就可以達(dá)到Codex提示,輸出一個提供正確答案的程序。而每個框圖左邊的線代表每門課程的基準(zhǔn)相似度分?jǐn)?shù),通過平均每門課程中所有這樣的問題組之間的相似度計算得出。
他們還做了原始問題和產(chǎn)生正確答案的轉(zhuǎn)換版本之間的相似性分?jǐn)?shù)的直方圖,用來評估。
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
圖4:最右邊的一列代表了按原樣或做了非常小的改動就能正確回答問題所占的百分比。
使用Codex進(jìn)行提示生成也會產(chǎn)生一些問題。在某些課程中,直接用未經(jīng)轉(zhuǎn)化的原始問題來提示Codex并不能得到正確的答案。因此,需要將原始問題的形式進(jìn)行轉(zhuǎn)化,他們將其主要分為三類:
  1. 主題背景。為Codex提供與一般課程和具體問題相關(guān)的主題和副主題,可以幫助指導(dǎo)Codex產(chǎn)生正確答案。例如,對于概率中的條件預(yù)期問題,提供有關(guān)貝葉斯定理、預(yù)期值等背景。
  2. 庫背景。為Codex提供解決特定問題所需的編程包/庫也是非常有幫助的。例如,引導(dǎo)Codex使用Python中的Numpy包以解決線性代數(shù)問題。
  3. 定義背景。很多時候,Codex缺乏某些術(shù)語的定義基礎(chǔ)。例如,Codex并不清楚撲克牌中 "Full House "的含義。明確這些術(shù)語的定義并讓Codex理解它們,可以更好地指導(dǎo)其程序合成。
此外,他們還使用Codex,通過從數(shù)據(jù)集中創(chuàng)建一個有編號的問題列表,為每門課程生成了新的問題。這個列表在生成隨機(jī)數(shù)量的問題后會被切斷,其結(jié)果將用于提示Codex生成下一個問題。重復(fù)進(jìn)行此過程,就可以為每門課程生成許多新問題。
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
圖5:學(xué)生調(diào)查問題。學(xué)生要對60個問題中的每一個問題進(jìn)行評分。
如上圖所示,他們還在麻省理工學(xué)院和哥倫比亞大學(xué)選修過這些課程或其同等課程的學(xué)生中進(jìn)行了長時間調(diào)查,比較了機(jī)器生成的問題和人寫的問題在每門課程中的質(zhì)量和難度。
當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行
圖6. 學(xué)生調(diào)查結(jié)果。A組基于學(xué)生的評分,比較了人工編寫的問題和本文研究方法為每門課程產(chǎn)生的問題的難度。該圖顯示了1(最容易)和5(最難)之間的難度評分的平均值,以及它們的95%置信區(qū)間。B組顯示的是人工編寫的和機(jī)器生成的問題被評為適合和不適合該課程的百分比。C組顯示了被評為人寫的或機(jī)器生成的問題的百分比。
然而,該研究還有一些局限性,如Codex只能接受基于文本的輸入,因此該團(tuán)隊的方法無法對輸入圖像進(jìn)行處理,無法回答帶有必要視覺組成部分的問題,如數(shù)字或圖表。其次,本研究沒有涉及高級數(shù)學(xué)證明的問題,他們強調(diào),這是研究的廣度所帶來的限制,而不是Codex的限制。
并且,他們的方法最后一步是通過執(zhí)行一個程序來完成的,例如使用Python解釋器,存在局限性。此外,理論上復(fù)雜性結(jié)果也不適用于本研究解決的具體實例。



3

總結(jié)
該團(tuán)隊的研究證明,對文本進(jìn)行預(yù)訓(xùn)練并對代碼進(jìn)行微調(diào)的 Transformers能夠解決訓(xùn)練能夠通過程序合成解決、評定和生成大學(xué)水平的數(shù)學(xué)問題。
問題集的生成和分析進(jìn)一步驗證了這些驚人的結(jié)果。這項研究成功證實了現(xiàn)代程序設(shè)計語言可以作為一種替代性的表述和計算環(huán)境。由他們的方法不需要額外的訓(xùn)練,就可以擴(kuò)展到其它STEM課程,并且可以給高等教育帶來巨大的幫助。
他們的研究證實了,用現(xiàn)代編程語言進(jìn)行的神經(jīng)網(wǎng)絡(luò)合成是更有活力和廣泛適用的,有可能解決更廣泛的問題。盡管任何有限的計算都可以被表示為足夠大的表達(dá)式樹,但人們可能會看到所需的表達(dá)式樹的大小可能是任意大的。與圖靈完備語言相比,這種靈活性得到了加強,因為已經(jīng)存在的大量程序語料庫讓可用的標(biāo)記表達(dá)式樹的數(shù)量黯然失色。
“程序輸出在本質(zhì)上也更適合人類閱讀。因為使用抽象化、模塊化和高級邏輯的能力可以更清晰地說明解決問題的方法?!贝送?,程序生成可以通過解釋性的注釋以及函數(shù)和變量的名稱,直接傳達(dá)邏輯推論。值得一提的是,在他們的這項研究中在Codex的一些輸出中看到了這樣的解釋文字和推導(dǎo)。
“這種正式和非正式語言的統(tǒng)一是我們方法論的一個固有的優(yōu)勢?!?/span>
參考資料:
1. CQ Choi, 7 revealing ways AIs fail: Neural networks can be disastrously brittle, forgetful, and surprisingly bad at math. IEEE Spectr. 58, 42–47 (2021)

雷峰網(wǎng)(公眾號:雷峰網(wǎng))


雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

當(dāng)AI學(xué)會高數(shù):解題、出題、評分樣樣都行

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說