0
本文作者: 嘉嘉 | 2022-09-06 10:46 |
一年一度的AI產(chǎn)業(yè)盛會——世界人工智能大會剛剛落下帷幕。據(jù)不完全統(tǒng)計,三天會期間,有10余場圍繞AI倫理、可持續(xù)發(fā)展相關(guān)的主題論壇。其中,近半數(shù),都涉及可信AI,如何落實為AI立信、為技術(shù)立規(guī),成為既原則與政策之后,新的倫理熱點話題。
本屆WAIC上,商湯正式發(fā)布《“平衡發(fā)展”的人工智能治理白皮書——商湯人工智能倫理與治理年度報告(2022年)》深入探討并分享了商湯在推動AI治理落地進程中的洞察、思考、目標與實踐。
今年以來,新加坡、歐盟、美國、中國等國家的監(jiān)管機構(gòu)和第三方機構(gòu)紛紛發(fā)布AI治理測試工具箱、技術(shù)監(jiān)管沙箱,推進AI治理的落地實施。報告指出,當前,人工智能治理已經(jīng)進入了以技術(shù)驗證為主的落地實踐階段。
商湯高度重視人工智能治理,去年就提出了“平衡發(fā)展”的人工智能倫理觀,同時明確了“以人為本、技術(shù)可控、可持續(xù)發(fā)展”的倫理原則。隨著人工智能治理進入落地實踐階段,商湯此次進一步提出了發(fā)展“負責任且可評估”的人工智能,并將其作為商湯開展人工智能治理的愿景目標,打造倫理治理閉環(huán)。
從發(fā)展歷程看,人工智能治理至今已經(jīng)經(jīng)歷了以原則討論為主的1.0階段,以政策討論為主的2.0階段。進入2022年,隨著全球人工智能治理進程的持續(xù)推進,以及可信、負責任人工智能等相關(guān)理念的持續(xù)滲透,有關(guān)驗證人工智能治理如何落地實施的倡議日益增多。人工智能治理開始進入以技術(shù)驗證為主的3.0階段,即落地實踐階段。
而目前,人工智能治理的落地實踐仍面臨許多挑戰(zhàn),各行各業(yè)需要重點處理“理念與行動”、“政策與實踐”、“技術(shù)與用戶”三組關(guān)系,即將人工智能倫理的共同原則付諸實施;將政策要求轉(zhuǎn)化為技術(shù)和業(yè)務團隊可執(zhí)行的實踐標準;深化用戶對AI治理的理解、提升用戶參與AI治理的能力,最終才能深入推進人工智能治理。
為有效地推進人工智能治理,商湯科技基于對全球人工智能治理訴求的分析,結(jié)合自身對技術(shù)和市場的理解,在白皮書中提出,“人工智能治理應當是一個價值牽引、技術(shù)先行、多方參與、分層推進的動態(tài)進程”,為人工智能治理的落地實踐建立了有效路徑。
報告認為,從治理效果看,人工智能治理的實現(xiàn)由低至高,可分為可用、可靠、可控、可信四個層次。其中,“可用”是指人工智能系統(tǒng)在功能、性能層面應當能夠滿足應用場景需求;“可靠”是指人工智能系統(tǒng)在安全性、魯棒性層面應當能夠滿足部署環(huán)境和可持續(xù)運營要求;“可控”是指人工智能系統(tǒng)在功能層面應當能夠充分保護人類的自主意志和權(quán)利、保障人類對系統(tǒng)的控制權(quán);“可信”是指人工智能系統(tǒng)的設計和應用應當符合人類的價值理念和倫理道德。
人工智能治理的“分層目標”
報告指出,人工智能治理體系建構(gòu)的目標,就是發(fā)展負責任的人工智能;但相關(guān)工作不應停留在“口頭上”、“紙面上”,還應做到有跡可循、有據(jù)可查。因此,基于“平衡發(fā)展”的倫理觀,“以人為本、技術(shù)可控、可持續(xù)發(fā)展”的倫理原則,商湯此次提出發(fā)展“負責任且可評估”的人工智能,并將其作為開展人工智能治理的愿景目標。
“負責任且可評估的人工智能”的核心要求
作為業(yè)界最先組建人工智能倫理與治理委員會,并將倫理治理工作當作公司戰(zhàn)略級方向的科技創(chuàng)新企業(yè)之一,商湯自2020年1月統(tǒng)籌推進人工智能倫理治理工作體系建設以來,已在內(nèi)部開展大量治理創(chuàng)新實踐,并形成了一整套可評估的人工智能治理落地方案,將倫理原則嵌入到產(chǎn)品設計、開發(fā)、部署的全生命周期,初步形成了人工智能治理閉環(huán)。
在數(shù)據(jù)風險方面,商湯將個人信息保護融入產(chǎn)品研發(fā)全生命周期,設立“數(shù)據(jù)安全與個人信息保護委員會”,實施個人信息保護評估審查,確保產(chǎn)品遵循默認符合個人信息保護的設計要求。
在算法風險方面,商湯作為領(lǐng)先的人工智能企業(yè),主動承擔算法開發(fā)者的主體責任,針對商業(yè)化算法場景,開展基于真實場景下的算法驗證與評測,實現(xiàn) AI 技術(shù)的真正可信與可控。
在應用風險方面,商湯持續(xù)完善人工智能倫理治理體系,建立覆蓋設計、開發(fā)、部署全生命周期的產(chǎn)品倫理風險審查流程;緊隨全球人工智能行業(yè)發(fā)展變化,建立“全球AI倫理風險庫”;定期組織員工進行人工智能倫理培訓,持續(xù)完善內(nèi)部倫理傳播體系,不斷提升員工倫理素養(yǎng)。
商湯AI治理閉環(huán),推進構(gòu)建負責任且可評估的AI
為保障人工智能治理體系的有效落實、推動形成倫理治理“人人有責”的企業(yè)文化,商湯還建立了倫理風險目標管理機制、倫理風險事件處置機制和倫理治理質(zhì)量控制機制。此外,為推動發(fā)展“負責任且可評估”的人工智能,商湯還在內(nèi)部開發(fā)了一系列覆蓋數(shù)據(jù)治理、算法測評、模型體檢、倫理審查的流程工具和技術(shù)平臺。
隨著人工智能逐漸深入產(chǎn)業(yè)應用,AI的發(fā)展與治理之間的關(guān)系越來越像汽車的“發(fā)動機”和“方向盤”一樣,相輔相成、缺一不可。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。