0
本文作者: 郭思 | 2023-11-30 18:42 |
自去年年底ChatGPT問世以來,大模型火爆的浪潮已經(jīng)持續(xù)了大半年,數(shù)據(jù)顯示截止10月份國內(nèi)已經(jīng)發(fā)布了238個大模型。與眾多基礎(chǔ)大模型形成顯著對比的是國內(nèi)AI應(yīng)用的極度匱乏。這也是現(xiàn)階段中美大模型發(fā)展的顯著差異之一。
早在今年3月,OpenAI推出ChatGPT插件功能之際,英偉達(dá)AI科學(xué)家Jim Fan就曾表示,如果說ChatGPT可以看作蘋果手機(jī)的出現(xiàn),那么第三方插件的出現(xiàn)就意味著類似于蘋果應(yīng)用商店的模式出現(xiàn)了。而在剛剛過去的OpenAI開發(fā)者大會上,OpenAI更是推出了GPTs—人人皆可零代碼實現(xiàn)定制化個人聊天機(jī)器人,甚至可以在應(yīng)用商店進(jìn)行商業(yè)運作。
可以說這預(yù)示著利用大模型的公司進(jìn)入成本效率和創(chuàng)新的新時代,將重塑大模型在業(yè)務(wù)和開發(fā)中的應(yīng)用格局。事實也的確如此,如果不重視AI應(yīng)用,大模型將永遠(yuǎn)停留在空中樓閣,熱潮也將逐漸冷卻。大模型可能僅僅會成為一個概念詞,無法產(chǎn)生真正的生產(chǎn)力變革。
而另一方面,與大模型更強(qiáng)的泛化性能力一同前來的是在AI可信和安全性上的更大挑戰(zhàn),深度學(xué)習(xí)的奠基人之一Yoshua Bengio在前一陣便聯(lián)合多位大佬,發(fā)文探討了如何在人工智能(AI)快速發(fā)展的時代管控相關(guān)風(fēng)險,共同尋求當(dāng)下生成式人工智能迅速發(fā)展時期的潛在風(fēng)險管理措施。AI可信和安全從始至終都是需要解決的重點難點,AGI時代帶來的安全隱患和威脅,可能不會突然爆發(fā),但一定會不緊不慢地向我們走近。
11月15日,在深圳2023西麗湖論壇上,全球科教領(lǐng)軍人物齊聚深圳,圖靈獎得主馬丁·愛德華·赫爾曼,澳門大學(xué)校長宋永華,香港科技園公司主席查毅超,硅谷人工智能研究院創(chuàng)始人、《硅谷百年史》《智能的本質(zhì)》《人類2.0》作者皮埃羅·斯加魯菲,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏紛紛亮相,共同探討人工智能的發(fā)展下半場的走向與關(guān)注重點。
在整個論壇之中,我們發(fā)展,大模型發(fā)展的下半場,AI應(yīng)用和可信是無法忽視的議題,人工智能要想長遠(yuǎn)發(fā)展,AI應(yīng)用和可信必須兩條腿走路。
近期AI圈最火的事件莫過于上周OpenAI的開發(fā)者大會引起技術(shù)圈的全民性討論,OpenAI丟出面向開發(fā)者的 GPT 4 Turbo 整體降價、GPT Assistant API 發(fā)布、自定義 GPT、GPT Store……都給 AI 行業(yè)帶來了巨大的沖擊,引發(fā)了極大的思考,OpenAI丟給廣大中國大模型公司的一個顯著議題便是,卷可以,但是我們是不是卷錯了方向。
在OpenAI開發(fā)者大會結(jié)束后,最為被動的是一眾創(chuàng)業(yè)者們,前斑馬智行聯(lián)合創(chuàng)始人、阿里釘釘副總裁、明略首席戰(zhàn)略官張斯成博士就曾向AI科技評論表示,作為一家準(zhǔn)商業(yè)公司,OpenAl的終極對標(biāo)是Google,這一點和Microsoft的戰(zhàn)略利益高度一致,也是長期穩(wěn)定伙伴關(guān)系的壓艙石。
而作為宇宙頭部AI企業(yè),OpenAl的無代碼編程、降價等一系列措施無疑在往殺掉中間層的趨勢上發(fā)展。這為整個國產(chǎn)大模型劃分了兩條清晰的路徑:要么是和OpenAl血拼,繼續(xù)再造基礎(chǔ)模型,要么開卷上層應(yīng)用生態(tài),在已有大趨勢下殺出血路。
華爾街見聞近期就指出,在應(yīng)用端,海外市場已經(jīng)涌現(xiàn)出眾多新星。如數(shù)據(jù)服務(wù)軟件lamaindex.ai,周計訪問量同比成長122.69%。Llamalndex可以將大模型和企業(yè)數(shù)據(jù)連接起來,做定制化的LLMs,管理數(shù)據(jù)流和任務(wù)調(diào)度。類似的工具還有LangChain 。
而近期成為AI圈明日之星的的Character.ai表現(xiàn)同樣亮眼。該公司正在研發(fā)下一代的對話機(jī)器人技術(shù),應(yīng)用范圍也極其之廣,包括娛樂、教育、常規(guī)問答等。AI應(yīng)用最本質(zhì)的價值,可以從新一波AI的早期受益者之中看出端倪,Adobe、Abnormal、Coda、Notion、Cresta、Instabase、Harvey、EvenUp、CaseText 和 Fermat,這些均是已經(jīng)能夠?qū)⑸尚訟I加入其應(yīng)用的現(xiàn)有公司和初創(chuàng)公司。而放眼至國內(nèi),最早造成全民效應(yīng),實現(xiàn)C端盈利的不是資源雄厚的國家隊,也不是有著長久技術(shù)積累的BAT,而是那個只需要一杯咖啡的價格,就能解鎖近70套不同風(fēng)格的個人寫真的AIGC應(yīng)用妙鴨相機(jī)。
從這一點上而言,對于AI應(yīng)用的重視一方面是來自外圍競爭對手的啟示,另一方面也是商業(yè)本質(zhì)規(guī)律的必然驅(qū)動結(jié)果。在今日的西麗湖論壇上,李彥宏也指出,相比起國外已經(jīng)不斷成熟的AI應(yīng)用生態(tài),我國現(xiàn)有的AI應(yīng)用可以說是十分稀有,在他看來“不斷地重復(fù)開發(fā)基礎(chǔ)大模型是對社會資源的極大浪費”。
百模大戰(zhàn)的背后,是對資源的浪費:算力被反復(fù)糟蹋,人才被割裂稀釋,數(shù)據(jù)依然小院高墻。國內(nèi)下半場的主題并不是奮勇追趕,而是淘汰與整合。人類進(jìn)入AI時代的標(biāo)志,不是產(chǎn)生很多的大模型,而是產(chǎn)生很多的AI原生應(yīng)用。
他指出,現(xiàn)在的行業(yè)現(xiàn)象是,眾多企業(yè)都十分重視這個機(jī)會,但是往往最后就演變成CEO把任務(wù)交給IT負(fù)責(zé)人,以為“自己搞個基礎(chǔ)模型,或者按照網(wǎng)上傳播的評測方法來挑選一款評分高的大模型,”就是擁抱AI時代了,這其實是對公司和社會資源的極大浪費。
上海人工智能實驗室的首席科學(xué)家林達(dá)華也向AI科技評論表示,大模型體現(xiàn)出來的是更強(qiáng)的泛化性能力,能夠在更多領(lǐng)域帶來通用的智能化變革。這個過程中其實最終還是要回歸到一個技術(shù)本身的價值,要應(yīng)用和落地。如果大家都在同樣一個基座大模型上卷,勢必孵化不出創(chuàng)新之果。
順著這個思路,我們會發(fā)現(xiàn),卷AI應(yīng)用是必然趨勢,但是即使知道了這個方向,在行進(jìn)的過程中又會存在哪樣的難題與壁壘呢?梅特卡夫法則提出,如果一個產(chǎn)品或服務(wù)的每一個額外用戶都能為所有其他用戶帶來更多的價值,那么你的產(chǎn)品或服務(wù)就具有"網(wǎng)絡(luò)效應(yīng)"。
雷峰網(wǎng)創(chuàng)始人林軍在近期評論什么才是好做的生意時也表示,當(dāng)一個生意可以傳承可以一代接著一代順延下去時,就證明是頂級的好生意。簡單好用好傳承對于技術(shù)還是商業(yè)而言,都是制勝的不二法則五。在這一點上,上一代互聯(lián)網(wǎng)公司的發(fā)展也提供了很好的佐證,無論是Windons、Facebook,還是Twitter,他們都是開源生態(tài),會把所有的東西開給你,然后你去做第三方應(yīng)用的對接,大家一起把生態(tài)做起來,這是原來的做法,也是為什么頂級技術(shù)都會最終走向開源的原因。
而回到如今的AI應(yīng)用發(fā)展,大家會發(fā)現(xiàn),OpenAI他突然開始讓很多小團(tuán)隊無路可走了,出現(xiàn)和上一代完全不一樣的結(jié)果,這是為什么?其實是因為OpenAI自己做了各種各樣的東西,做了API,做了中間層,又在往應(yīng)用方面切,本質(zhì)原因就在于,不同領(lǐng)域的訓(xùn)練和迭代都是閉環(huán)效應(yīng),如果應(yīng)用和用戶都在他的手里,他就會更好的訓(xùn)練和迭代。
所以超級頭部有足夠強(qiáng)的意愿以及能力,他一定會這么干。在這種方式下,個人小團(tuán)隊做應(yīng)用很難做出來,這就要求廠商的商業(yè)變現(xiàn)邏輯極大縮短,比如一兩年之內(nèi)能夠完成整個周期,否則很容易被拍死在沙灘上。AI原生應(yīng)用之路除了對企業(yè)商業(yè)模式提出了極大要求,對于環(huán)境和政策也提出了較大要求。
西麗湖論壇上,李彥宏以新能源汽車產(chǎn)業(yè)作類比表示,新能源減免購置稅、上路不限號不限行等措施,有效拉動了新能源汽車產(chǎn)業(yè)的快速增長,AI產(chǎn)業(yè)也是需求驅(qū)動,應(yīng)該在需求側(cè)、應(yīng)用側(cè)發(fā)力。
在這一方面,前曠視員工也曾向AI科技評論表示過類似的觀點,AI大潮之中,大型AI企業(yè)都在等兩個強(qiáng)國戰(zhàn)略的落地。一個是質(zhì)量強(qiáng)國,一個是知識產(chǎn)權(quán)強(qiáng)國。大家都說美國都開始卷垂直領(lǐng)域和應(yīng)用層了,中國怎么還沒開始卷,這是因為在美國知識產(chǎn)權(quán)的情況跟中國不一樣。
兩個國家的人口結(jié)構(gòu)和知識產(chǎn)權(quán)的結(jié)構(gòu),決定了在同樣一個技術(shù)出來以后,演化速度和演化方向肯定是不一樣。而回歸企業(yè)本身,整個大環(huán)境帶來的是同樣的難題,一味地等待其實并不是良策,主動擁抱,做好準(zhǔn)備方為正道君子生非異也,善假于物也。
大模型不會真的創(chuàng)造一個應(yīng)用場景,造一百個大模型和造一個好用的基座大模型在商業(yè)上沒有什么本質(zhì)區(qū)別,這的確是對資源的浪費。但如果能充分利用現(xiàn)有的大模型的基礎(chǔ),發(fā)力自己的已有優(yōu)勢,調(diào)用大模型來開發(fā)AI原生應(yīng)用,用市場推動產(chǎn)業(yè)發(fā)展,或許是一個新的解題思路。
(在企業(yè)具體的行進(jìn)道路上,如何細(xì)化用市場推動產(chǎn)業(yè)發(fā)展這一解題思路?或許可以與本文作者郭思聊一聊哦,微信:lionceau2046)
人類現(xiàn)階段是否可以信任人工智能?這個問題從近期的報道中可以找到答案,6月22日,紐約南區(qū)法院作出 判決 :Levidow,Levidow &Oberman律師事務(wù)所因向法院提供虛假信息,行為惡劣,被處以5000美元的罰款。引起關(guān)注的原因是,在這例判決中,虛假信息的提供并非是律師出于利益而故意知法犯法,而是因為他們過于相信了AI的能力。
人類現(xiàn)在無法完全信任AI,但人與AI之間的關(guān)系如果沒有信任便無以為繼。今日西麗湖論壇上,硅谷人工智能研究院創(chuàng)始院長 Piero Scaruffi(皮埃羅·斯加魯菲)對AI可信和安全的重要性進(jìn)行了論述。他指出,Transformer 是大模型的基礎(chǔ),目前席卷全球的人工智能熱潮都可以直接追溯到transformer的發(fā)明,Transformer性能強(qiáng)大可用,也因為這一點,我們在健康醫(yī)療、金融、自動駕駛等眾多領(lǐng)域都見到了它的身影,但這些領(lǐng)域具有高隱私性、高安全性的訴求,可信 AI 是一個非常值得關(guān)注的重點。除他之外,行業(yè)對AI可信和安全的關(guān)注其實一直都有聲音。
今年4月,AI早期創(chuàng)始人馬斯克聯(lián)合業(yè)內(nèi)千名高管和專家發(fā)布公開信,倡議所有人工智能實驗室應(yīng)立即暫停訓(xùn)練至少6個月,以應(yīng)對AI脫離人類掌控的威脅。曾獲得圖靈獎、被稱為“AI 教父”的加拿大計算機(jī)科學(xué)家 Yoshua Bengio 在近期一次采訪中呼吁,AI 領(lǐng)域被少數(shù)科技公司控制的可能性,將會是該技術(shù)帶來生存風(fēng)險之后的“第二大問題”。
而進(jìn)一步追問,我們會發(fā)現(xiàn)GPT的可信性其實可以拆分為體現(xiàn)在多個細(xì)分領(lǐng)域,截至2023年10月19日,共有171臺支持人工智能(AI/ML)的醫(yī)療設(shè)備被添加至FDA批準(zhǔn)的人工智能設(shè)備列表中,但是巨大的問題是人工智能醫(yī)療設(shè)備、療法和診斷可信嗎?放至網(wǎng)絡(luò)和社交媒體之上,互聯(lián)網(wǎng)的內(nèi)容可信嗎?電話交談可信嗎?人類又該如何創(chuàng)建一個更值得信賴的社交媒體生態(tài)系統(tǒng)?
在商業(yè)上也同樣如此,人工智能可以帶來指數(shù)級的效益,但也可能損害公司的聲譽(yù),在皮埃羅看來,如今隨著大模型技術(shù)的演進(jìn),AI的可信度現(xiàn)階段也正在不斷進(jìn)化,安全可信的AI必須具備可靠性、安全性、安保性、可用性、易用性。面對大模型帶來的企業(yè)管理風(fēng)險,
行業(yè)也應(yīng)該幫助企業(yè)在整個人工智能生命周期(從構(gòu)思到設(shè)計、開發(fā)、部署)制定道德保障措施的框架。
這些都是亟待解決的問題。
在這些問題上,美國對于人工智能的管理其實早已從各方面開始了布局。2023年10月30日,美國白宮發(fā)布拜登簽署的最新行政命令——《關(guān)于安全、可靠和可信的AI行政命令》,以確保美國在把握AI的前景和管理其風(fēng)險方面處于領(lǐng)先地位。
作為美政府負(fù)責(zé)任創(chuàng)新綜合戰(zhàn)略的一部分,該行政令以美國總統(tǒng)之前采取的行動為基礎(chǔ),包括促使15家領(lǐng)軍企業(yè)自愿承諾推動安全、可靠和可信的AI發(fā)展的工作。美國出臺的最新政策包含安全測試、標(biāo)準(zhǔn)、最佳實踐、網(wǎng)絡(luò)安全等多個方面。
此外,美國國家科學(xué)基金會計劃撥款1.4億美元,用于啟動7所新的國家人工智能研究院,涉及法律與社會可信人工智能研究所,基于代理的網(wǎng)絡(luò)威脅情報與操作人工智能研究所等。除了出臺的政策之外,皮埃羅也指出,脫離于政府的各類非盈利機(jī)構(gòu)也應(yīng)該密切關(guān)注這一議題,例如分布式人工智能研究所、加州理工學(xué)院的Anima AnandKumor和Michael Alvarez等等均做出了良好的表率。
各類跨國學(xué)科會議也應(yīng)密切關(guān)注這一問題。而放眼至我國對于可信AI的關(guān)注,在政策以及企業(yè)和機(jī)構(gòu)的合力上其實也動作頻頻。
7月13日,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務(wù)管理暫行辦法》。對生成式人工智能服務(wù)提出了多項規(guī)制,開啟了中國對生成式人工智能產(chǎn)業(yè)的監(jiān)管之路。同月OPPO聯(lián)合西安交通大學(xué)、中國信通院華東分院共同發(fā)布了《可信賴AI安全隱私技術(shù)研究》白皮書。
當(dāng)全部人的目光都聚集至可信AI時,我們發(fā)現(xiàn)光有政策其實還不夠,因為可信AI從技術(shù)上以及商業(yè)成本上而言本身就是一個非常大的難題。在技術(shù)技術(shù)層面,可信領(lǐng)域?qū)<乙晾Z伊大學(xué)香檳分校(UIUC)的李博教授曾表示,AI 系統(tǒng)的安全性并沒有單一的解決方案可以解決所有問題,而需要多方面、持續(xù)的努力才能實現(xiàn),大模型的有害內(nèi)容(toxicity)、刻板偏見(stereotype bias)、對抗魯棒性(adversarial robustness)、分布外魯棒性(out-of-distribution robustness)等多個特點都值得我們深入關(guān)注。隨著大模型的發(fā)展,巨大的參數(shù)量和成本也成為可信AI領(lǐng)域一個邁不過去的門檻。
一位過去做隱私計算的行業(yè)人士在此前向AI科技評論表示,以前做隱私計算就三個技術(shù):聯(lián)邦計算、多方安全計算、可信計算,而如今因為大模型的發(fā)展,成本不斷激增,就拿安全多方計算來說,在處理大模型數(shù)據(jù)訓(xùn)練上,要把原本訓(xùn)練周期擴(kuò)張到2-6個數(shù)量級,聯(lián)邦學(xué)習(xí)也是要好幾倍的開銷。這些活在大模型訓(xùn)練里都做不了。而放觀全局,可信 AI 的落地需要跨領(lǐng)域的系統(tǒng)協(xié)作。
可信賴 AI 涉及學(xué)術(shù)界到工業(yè)界整個流程,僅僅關(guān)注算法是不夠的。在工業(yè)界,要做一個可信賴 AI 的系統(tǒng),需要從用戶需求的調(diào)研和用戶問題的提出開始,就要思考這是不是可信賴 AI 的問題,再到數(shù)據(jù)的收集標(biāo)注,算法設(shè)計,開發(fā)上線,最后到產(chǎn)品交付,保持用戶體驗,從工業(yè)角度來講,關(guān)注的是全部的流程,學(xué)術(shù)界更關(guān)注的是中間算法部分,可信 AI 的落地需要學(xué)界、產(chǎn)業(yè)界和監(jiān)管部門一起努力由此可見,可信AI對于整個行業(yè)而言都是一個難且重要的議題。(關(guān)于可信AI的探討,還有哪些角度可以思考?歡迎與本文作者:郭思微信:lionceau2046,共同探討。)
人工智能的崛起可能是人類遇到的最好的事,也可能是最壞的事情,但我們還不知道答案。一方面我們看到了大模型帶來的巨大可能性,GPT4 Turbo一出,OpenAI再次遙遙領(lǐng)先,差距大,但還沒到完全壟斷的地步。這個領(lǐng)域整體目前看應(yīng)該還不存在絕對的護(hù)城河。
國內(nèi)這個全球最大單一市場也仍在醞釀期,但是如果我們持續(xù)現(xiàn)在的競爭模式,統(tǒng)統(tǒng)發(fā)力基座模型,而忽視AI原生應(yīng)用與人類與AI之間的安全可信問題,那么在追逐再造一把普羅米修之火的過程,或許還沒等到我們把火苗造出來,同行便早已將柴火打濕,我們的身后也會因為沒有完善的護(hù)盾而早已遭萬蟲侵蝕。
“斗爭,失敗,再斗爭,再失敗,再斗爭,直至勝利——這就是人民的邏輯,他們也是決不會違背這個邏輯的。這是馬克思主義的又一條定律?!眮G掉幻想,不要貪大,或許再造不出中國版的OpenAl,但或許可以成為世界版的中國某某某。
(本文作者郭思:微信號lionceau2046,長期關(guān)注大模型領(lǐng)域動態(tài)與故事,歡迎添加微信交流。)
雷峰網(wǎng) 雷峰網(wǎng)(公眾號:雷峰網(wǎng)) 雷峰網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。