0
本文作者: 曉楠 | 2024-04-17 20:30 |
去年年初,ChatGPT引爆了新一輪AI浪潮。在人們期待大模型能夠?yàn)楦餍懈鳂I(yè)帶來(lái)顛覆性變革的同時(shí),也不得不承認(rèn),大模型創(chuàng)造了新機(jī)遇,但也帶來(lái)了新的安全風(fēng)險(xiǎn)。
比如,基于大模型的高效內(nèi)容生成特質(zhì),黑客的攻擊成本和門檻變低,發(fā)動(dòng)更加密集的攻擊變得容易,助長(zhǎng)黑客行為;基于生成式AI在多種語(yǔ)言和信息整合的優(yōu)勢(shì),偽造一個(gè)極其逼真的騙局成本和時(shí)間降低,網(wǎng)絡(luò)釣魚(yú)行為規(guī)模范圍、實(shí)施效率大幅度提升;還有老生常談的數(shù)據(jù)泄漏問(wèn)題,將企業(yè)的安全、隱私等置于極大的威脅中。
難以想象,如果不對(duì)大模型的安全問(wèn)題加以防御,任由其野蠻生長(zhǎng),將會(huì)帶來(lái)多么嚴(yán)重的后果。
如今,經(jīng)過(guò)去年持續(xù)一年多的“百模大戰(zhàn)”后,大模型進(jìn)入落地應(yīng)用階段,開(kāi)始走進(jìn)千行百業(yè),與各種各樣的場(chǎng)景進(jìn)行深度融合?;诖?,面對(duì)持續(xù)發(fā)展的大模型所帶來(lái)的安全威脅與挑戰(zhàn),如何采取積極措施,在已有的、傳統(tǒng)的安全工具、策略體系下,進(jìn)行技術(shù)和方法的革新,打造安全可信的大模型,成為全球范圍內(nèi)各大大模型廠商、從業(yè)者關(guān)注的焦點(diǎn)所在。
WDTA就大模型安全發(fā)布國(guó)際標(biāo)準(zhǔn),AI安全評(píng)估測(cè)試進(jìn)入新基準(zhǔn)
4月15日-19日,第27屆聯(lián)合國(guó)科技大會(huì)在瑞士日內(nèi)瓦召開(kāi)。其中,4月16日,在以“塑造AI的未來(lái)”為主題的AI邊會(huì)上,世界數(shù)字技術(shù)院(WDTA)發(fā)布了一系列突破性成果,包括《生成式人工智能應(yīng)用安全測(cè)試標(biāo)準(zhǔn)》和《大語(yǔ)言模型安全測(cè)試方法》兩項(xiàng)國(guó)際標(biāo)準(zhǔn)。
WDTA發(fā)布大模型安全國(guó)際標(biāo)準(zhǔn),OpenAI、螞蟻集團(tuán)、科大訊飛等參編
據(jù)雷峰網(wǎng)了解,世界數(shù)字技術(shù)院(WDTA)是一家在日內(nèi)瓦注冊(cè)的國(guó)際非政府組織,遵從聯(lián)合國(guó)指導(dǎo)框架,致力于在全球范圍內(nèi)推進(jìn)數(shù)字技術(shù),促進(jìn)國(guó)際合作。
其中AI STR(安全、可信、負(fù)責(zé)任)計(jì)劃是WDTA的核心倡議,旨在確保人工智能系統(tǒng)的安全性、可信性和責(zé)任性。螞蟻集團(tuán)、華為、科大訊飛、國(guó)際數(shù)據(jù)空間協(xié)會(huì)(IDSA)、弗勞恩霍夫研究所、中國(guó)電子等均為其成員單位。
而此次會(huì)議上發(fā)布的兩項(xiàng)國(guó)際標(biāo)準(zhǔn)——《生成式人工智能應(yīng)用安全測(cè)試標(biāo)準(zhǔn)》和《大語(yǔ)言模型安全測(cè)試方法》,是國(guó)際組織首次就大模型安全領(lǐng)域發(fā)布的國(guó)際標(biāo)準(zhǔn),代表著全球人工智能安全評(píng)估和測(cè)試進(jìn)入新的基準(zhǔn)。
據(jù)悉,這兩項(xiàng)國(guó)際標(biāo)準(zhǔn)是由OpenAI、螞蟻集團(tuán)、科大訊飛、谷歌、微軟、英偉達(dá)、百度、騰訊等數(shù)十家單位的多名專家學(xué)者共同編制而成。
據(jù)了解,《生成式人工智能應(yīng)用安全測(cè)試標(biāo)準(zhǔn)》(以下簡(jiǎn)稱《標(biāo)準(zhǔn)》)由WDTA作為牽頭單位,該《標(biāo)準(zhǔn)》概述了一個(gè)綜合框架,用于測(cè)試或驗(yàn)證下游人工智能應(yīng)用程序的安全性,特別是那些使用大語(yǔ)言模型(LLM)構(gòu)建的應(yīng)用程序。
整體來(lái)看,該《標(biāo)準(zhǔn)》定義了人工智能應(yīng)用程序架構(gòu)每一層的測(cè)試和驗(yàn)證范圍,包括基礎(chǔ)模型選擇、嵌入和矢量數(shù)據(jù)庫(kù)、RAG或檢索增強(qiáng)生成、APP運(yùn)行時(shí)安全等,確保人工智能應(yīng)用程序各個(gè)方面都經(jīng)過(guò)嚴(yán)格的安全性和合規(guī)性評(píng)估,保障其在整個(gè)生命周期中免受各種威脅和漏洞的侵害。
而《大語(yǔ)言模型安全測(cè)試方法》(以下簡(jiǎn)稱《測(cè)試方法》)由螞蟻集團(tuán)牽頭編制。
相較于《標(biāo)準(zhǔn)》,《測(cè)試方法》則為大模型本身的安全性評(píng)估提供了一套全面、嚴(yán)謹(jǐn)且實(shí)操性強(qiáng)的結(jié)構(gòu)性方案,提出了針對(duì)大語(yǔ)言模型的安全風(fēng)險(xiǎn)分類、攻擊分類和分級(jí)方法以及測(cè)試方法,并率先給出了四類不同攻擊強(qiáng)度的攻擊手法分類標(biāo)準(zhǔn),提供了嚴(yán)格的評(píng)估指標(biāo)和測(cè)試程序等,可有效解決大語(yǔ)言模型固有的復(fù)雜性,測(cè)試其抵御敵對(duì)攻擊的能力,使開(kāi)發(fā)人員和組織能夠識(shí)別和緩解潛在漏洞,并最終提高使用大語(yǔ)言模型構(gòu)建的人工智能系統(tǒng)的安全性和可靠性。
聚焦大模型安全風(fēng)險(xiǎn),筑牢防線刻不容緩
會(huì)上,WDTA 人工智能安全可信負(fù)責(zé)任工作組組長(zhǎng)黃連金表示,這兩項(xiàng)標(biāo)準(zhǔn)匯集了全球AI安全領(lǐng)域的專家智慧,填補(bǔ)了大語(yǔ)言模型和生成式AI應(yīng)用方面安全測(cè)試領(lǐng)域的空白,為業(yè)界提供了統(tǒng)一的測(cè)試框架和明確的測(cè)試方法,有助于提高AI系統(tǒng)安全性,促進(jìn)AI技術(shù)負(fù)責(zé)任發(fā)展,增強(qiáng)公眾信任。
正如黃連金所言,這兩項(xiàng)標(biāo)準(zhǔn)的制定集齊了國(guó)內(nèi)外多位專家學(xué)者的智慧,而像OpenAI、螞蟻集團(tuán)、科大訊飛、谷歌、微軟、英偉達(dá)、百度、騰訊等大模型領(lǐng)域廠商,以及360、奇安信、深信服等安全廠商,也都在打造安全可信的大模型的道路上進(jìn)行了長(zhǎng)期的探索。
比如,作為ChatGPT、GPT-4等最前沿大模型技術(shù)背后的公司,OpenAI 在去年7月宣布成立Superalignment團(tuán)隊(duì),由聯(lián)合創(chuàng)始人Ilya Sutskever和Jan Leike共同領(lǐng)導(dǎo),目的是創(chuàng)建一個(gè)接近人類水平的、負(fù)責(zé)模型對(duì)齊的“AI研究員”,即用AI來(lái)監(jiān)督AI。
作為推動(dòng)大模型快速發(fā)展背后的算力提供者,英偉達(dá)在去年4月推出了一款名為NeMo Guardrails的軟件,該軟件能夠?yàn)锳I模型設(shè)置安全“護(hù)欄”,避免輸出一些錯(cuò)誤的事實(shí)、涉及有害的話題或?qū)е掳踩L(fēng)險(xiǎn),以解決大模型存在的“幻覺(jué)”難題。
今年3月,國(guó)內(nèi)安全廠商360發(fā)布360安全大模型3.0版本,奇安信、深信服等安全廠商也都相繼發(fā)布AI+安全產(chǎn)品,在探索安全大模型的道路上進(jìn)行了深度探索。
而作為此次《大語(yǔ)言模型安全測(cè)試方法》牽頭編制方的螞蟻集團(tuán),更是在安全領(lǐng)域有著豐富的經(jīng)驗(yàn)。
眾所周知,螞蟻集團(tuán)最初是從支付寶這一小工具誕生,發(fā)展至今,而在涉及人們“錢袋子”的問(wèn)題上,安全和可靠的重要性不言而喻,因此,從2015年起,螞蟻集團(tuán)就開(kāi)始積極投入可信AI技術(shù)研究,目前已建立了大模型綜合安全治理體系。
據(jù)雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))了解,去年9月,螞蟻集團(tuán)自研了業(yè)界首個(gè)大模型安全一體化解決方案“蟻天鑒”, 包含大模型安全檢測(cè)平臺(tái)“蟻鑒”、大模型風(fēng)險(xiǎn)防御平臺(tái)“天鑒”兩大產(chǎn)品,可用于AIGC安全性和真實(shí)性評(píng)測(cè)、大模型智能化風(fēng)控、AI魯棒和可解釋性檢測(cè)等。
此次發(fā)布的《測(cè)評(píng)方法》,便是螞蟻集團(tuán)基于“蟻天鑒”AI安全檢測(cè)體系的應(yīng)用實(shí)踐,與全球生態(tài)伙伴交流編制。
此外,螞蟻集團(tuán)在公司內(nèi)成立了科技倫理委員會(huì)和專門團(tuán)隊(duì)來(lái)評(píng)估和管理生成式AI的風(fēng)險(xiǎn),公司所有AI產(chǎn)品均需通過(guò)科技倫理評(píng)測(cè)機(jī)制,確保AI安全可信。
不僅如此,去年2 月,螞蟻集團(tuán)還在設(shè)立公司內(nèi)部科技倫理委員會(huì)的基礎(chǔ)上,成立科技倫理顧問(wèn)委員會(huì),定期邀請(qǐng)AI領(lǐng)域的專家學(xué)者圍繞著科技倫理治理體系建設(shè)、生成式 AI 治理、大模型風(fēng)險(xiǎn)管理等議題進(jìn)行深入討論,力求打造“安全、合規(guī)、可控、可靠”的大模型。
螞蟻集團(tuán)王維強(qiáng)作為標(biāo)準(zhǔn)參與單位代表,在會(huì)上發(fā)言
正如螞蟻集團(tuán)機(jī)器智能部總經(jīng)理、螞蟻安全實(shí)驗(yàn)室首席科學(xué)家王維強(qiáng)在會(huì)上所言,“生成式AI將釋放巨大的生產(chǎn)力,但也要對(duì)它帶來(lái)的新風(fēng)險(xiǎn)高度警惕?!?/p>
大型科技公司應(yīng)在促進(jìn)生成式AI安全和負(fù)責(zé)任的發(fā)展中發(fā)揮關(guān)鍵作用,利用其資源、專業(yè)知識(shí)和影響力推動(dòng)最佳實(shí)踐,構(gòu)建一個(gè)優(yōu)先考慮安全、隱私、可靠和倫理優(yōu)先的生態(tài)系統(tǒng)。例如,通過(guò)制定行業(yè)標(biāo)準(zhǔn)與指南,為開(kāi)發(fā)和部署生成式AI系統(tǒng)的開(kāi)發(fā)者和機(jī)構(gòu)提供清晰指導(dǎo);投入研發(fā)并開(kāi)放保障生成式AI安全的工具,形成產(chǎn)業(yè)共治。
如今,當(dāng)大模型開(kāi)始走進(jìn)各行各業(yè),在成千上個(gè)場(chǎng)景落地的時(shí)候,打造安全、可信、可靠的大模型已經(jīng)不是某一家大模型廠商需要解決的問(wèn)題,而應(yīng)該是產(chǎn)業(yè)各界攜手,群策群力,一起面對(duì)、迎接AI新時(shí)代的挑戰(zhàn),創(chuàng)造更美好的未來(lái)。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。