0
本文作者: 曉楠 | 2024-04-17 20:30 |
去年年初,ChatGPT引爆了新一輪AI浪潮。在人們期待大模型能夠為各行各業(yè)帶來顛覆性變革的同時,也不得不承認,大模型創(chuàng)造了新機遇,但也帶來了新的安全風險。
比如,基于大模型的高效內(nèi)容生成特質(zhì),黑客的攻擊成本和門檻變低,發(fā)動更加密集的攻擊變得容易,助長黑客行為;基于生成式AI在多種語言和信息整合的優(yōu)勢,偽造一個極其逼真的騙局成本和時間降低,網(wǎng)絡(luò)釣魚行為規(guī)模范圍、實施效率大幅度提升;還有老生常談的數(shù)據(jù)泄漏問題,將企業(yè)的安全、隱私等置于極大的威脅中。
難以想象,如果不對大模型的安全問題加以防御,任由其野蠻生長,將會帶來多么嚴重的后果。
如今,經(jīng)過去年持續(xù)一年多的“百模大戰(zhàn)”后,大模型進入落地應(yīng)用階段,開始走進千行百業(yè),與各種各樣的場景進行深度融合?;诖?,面對持續(xù)發(fā)展的大模型所帶來的安全威脅與挑戰(zhàn),如何采取積極措施,在已有的、傳統(tǒng)的安全工具、策略體系下,進行技術(shù)和方法的革新,打造安全可信的大模型,成為全球范圍內(nèi)各大大模型廠商、從業(yè)者關(guān)注的焦點所在。
WDTA就大模型安全發(fā)布國際標準,AI安全評估測試進入新基準
4月15日-19日,第27屆聯(lián)合國科技大會在瑞士日內(nèi)瓦召開。其中,4月16日,在以“塑造AI的未來”為主題的AI邊會上,世界數(shù)字技術(shù)院(WDTA)發(fā)布了一系列突破性成果,包括《生成式人工智能應(yīng)用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。
WDTA發(fā)布大模型安全國際標準,OpenAI、螞蟻集團、科大訊飛等參編
據(jù)雷峰網(wǎng)(公眾號:雷峰網(wǎng))了解,世界數(shù)字技術(shù)院(WDTA)是一家在日內(nèi)瓦注冊的國際非政府組織,遵從聯(lián)合國指導(dǎo)框架,致力于在全球范圍內(nèi)推進數(shù)字技術(shù),促進國際合作。
其中AI STR(安全、可信、負責任)計劃是WDTA的核心倡議,旨在確保人工智能系統(tǒng)的安全性、可信性和責任性。螞蟻集團、華為、科大訊飛、國際數(shù)據(jù)空間協(xié)會(IDSA)、弗勞恩霍夫研究所、中國電子等均為其成員單位。
而此次會議上發(fā)布的兩項國際標準——《生成式人工智能應(yīng)用安全測試標準》和《大語言模型安全測試方法》,是國際組織首次就大模型安全領(lǐng)域發(fā)布的國際標準,代表著全球人工智能安全評估和測試進入新的基準。
據(jù)悉,這兩項國際標準是由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數(shù)十家單位的多名專家學者共同編制而成。
據(jù)了解,《生成式人工智能應(yīng)用安全測試標準》(以下簡稱《標準》)由WDTA作為牽頭單位,該《標準》概述了一個綜合框架,用于測試或驗證下游人工智能應(yīng)用程序的安全性,特別是那些使用大語言模型(LLM)構(gòu)建的應(yīng)用程序。
整體來看,該《標準》定義了人工智能應(yīng)用程序架構(gòu)每一層的測試和驗證范圍,包括基礎(chǔ)模型選擇、嵌入和矢量數(shù)據(jù)庫、RAG或檢索增強生成、APP運行時安全等,確保人工智能應(yīng)用程序各個方面都經(jīng)過嚴格的安全性和合規(guī)性評估,保障其在整個生命周期中免受各種威脅和漏洞的侵害。
而《大語言模型安全測試方法》(以下簡稱《測試方法》)由螞蟻集團牽頭編制。
相較于《標準》,《測試方法》則為大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結(jié)構(gòu)性方案,提出了針對大語言模型的安全風險分類、攻擊分類和分級方法以及測試方法,并率先給出了四類不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程序等,可有效解決大語言模型固有的復(fù)雜性,測試其抵御敵對攻擊的能力,使開發(fā)人員和組織能夠識別和緩解潛在漏洞,并最終提高使用大語言模型構(gòu)建的人工智能系統(tǒng)的安全性和可靠性。
聚焦大模型安全風險,筑牢防線刻不容緩
會上,WDTA 人工智能安全可信負責任工作組組長黃連金表示,這兩項標準匯集了全球AI安全領(lǐng)域的專家智慧,填補了大語言模型和生成式AI應(yīng)用方面安全測試領(lǐng)域的空白,為業(yè)界提供了統(tǒng)一的測試框架和明確的測試方法,有助于提高AI系統(tǒng)安全性,促進AI技術(shù)負責任發(fā)展,增強公眾信任。
正如黃連金所言,這兩項標準的制定集齊了國內(nèi)外多位專家學者的智慧,而像OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等大模型領(lǐng)域廠商,以及360、奇安信、深信服等安全廠商,也都在打造安全可信的大模型的道路上進行了長期的探索。
比如,作為ChatGPT、GPT-4等最前沿大模型技術(shù)背后的公司,OpenAI 在去年7月宣布成立Superalignment團隊,由聯(lián)合創(chuàng)始人Ilya Sutskever和Jan Leike共同領(lǐng)導(dǎo),目的是創(chuàng)建一個接近人類水平的、負責模型對齊的“AI研究員”,即用AI來監(jiān)督AI。
作為推動大模型快速發(fā)展背后的算力提供者,英偉達在去年4月推出了一款名為NeMo Guardrails的軟件,該軟件能夠為AI模型設(shè)置安全“護欄”,避免輸出一些錯誤的事實、涉及有害的話題或?qū)е掳踩L險,以解決大模型存在的“幻覺”難題。
今年3月,國內(nèi)安全廠商360發(fā)布360安全大模型3.0版本,奇安信、深信服等安全廠商也都相繼發(fā)布AI+安全產(chǎn)品,在探索安全大模型的道路上進行了深度探索。
而作為此次《大語言模型安全測試方法》牽頭編制方的螞蟻集團,更是在安全領(lǐng)域有著豐富的經(jīng)驗。
眾所周知,螞蟻集團最初是從支付寶這一小工具誕生,發(fā)展至今,而在涉及人們“錢袋子”的問題上,安全和可靠的重要性不言而喻,因此,從2015年起,螞蟻集團就開始積極投入可信AI技術(shù)研究,目前已建立了大模型綜合安全治理體系。
據(jù)雷峰網(wǎng)了解,去年9月,螞蟻集團自研了業(yè)界首個大模型安全一體化解決方案“蟻天鑒”, 包含大模型安全檢測平臺“蟻鑒”、大模型風險防御平臺“天鑒”兩大產(chǎn)品,可用于AIGC安全性和真實性評測、大模型智能化風控、AI魯棒和可解釋性檢測等。
此次發(fā)布的《測評方法》,便是螞蟻集團基于“蟻天鑒”AI安全檢測體系的應(yīng)用實踐,與全球生態(tài)伙伴交流編制。
此外,螞蟻集團在公司內(nèi)成立了科技倫理委員會和專門團隊來評估和管理生成式AI的風險,公司所有AI產(chǎn)品均需通過科技倫理評測機制,確保AI安全可信。
不僅如此,去年2 月,螞蟻集團還在設(shè)立公司內(nèi)部科技倫理委員會的基礎(chǔ)上,成立科技倫理顧問委員會,定期邀請AI領(lǐng)域的專家學者圍繞著科技倫理治理體系建設(shè)、生成式 AI 治理、大模型風險管理等議題進行深入討論,力求打造“安全、合規(guī)、可控、可靠”的大模型。
螞蟻集團王維強作為標準參與單位代表,在會上發(fā)言
正如螞蟻集團機器智能部總經(jīng)理、螞蟻安全實驗室首席科學家王維強在會上所言,“生成式AI將釋放巨大的生產(chǎn)力,但也要對它帶來的新風險高度警惕。”
大型科技公司應(yīng)在促進生成式AI安全和負責任的發(fā)展中發(fā)揮關(guān)鍵作用,利用其資源、專業(yè)知識和影響力推動最佳實踐,構(gòu)建一個優(yōu)先考慮安全、隱私、可靠和倫理優(yōu)先的生態(tài)系統(tǒng)。例如,通過制定行業(yè)標準與指南,為開發(fā)和部署生成式AI系統(tǒng)的開發(fā)者和機構(gòu)提供清晰指導(dǎo);投入研發(fā)并開放保障生成式AI安全的工具,形成產(chǎn)業(yè)共治。
如今,當大模型開始走進各行各業(yè),在成千上個場景落地的時候,打造安全、可信、可靠的大模型已經(jīng)不是某一家大模型廠商需要解決的問題,而應(yīng)該是產(chǎn)業(yè)各界攜手,群策群力,一起面對、迎接AI新時代的挑戰(zhàn),創(chuàng)造更美好的未來。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。