丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給奕欣
發(fā)送

6

深度 | 人工智能的盲點在哪?

本文作者: 奕欣 2016-10-18 09:39
導(dǎo)語:自主智能系統(tǒng)在許多社會機構(gòu)早已司空見慣,但我們卻無法找到真正能評估其持續(xù)性影響的方法。

編者按:當(dāng)我們都在關(guān)注人工智能對生活帶來的積極影響時,另一種擔(dān)憂的聲音正在產(chǎn)生:自主智能系統(tǒng)在許多社會機構(gòu)早已司空見慣,但我們卻無法找到真正能評估其持續(xù)性影響的方法。本文提出了目前業(yè)界解決 AI 系統(tǒng)的社會和倫理學(xué)影響的三種方法,并提出了從社會系統(tǒng)分析入手的第四種方法,指出要關(guān)注人工智能在社會層面的意義。文章首發(fā)于Nature,作者 Kate Crawford 和Ryan Calo,雷鋒網(wǎng)作者老呂及何忞編譯,未經(jīng)許可不得轉(zhuǎn)載。

深度 | 人工智能的盲點在哪?

芝加哥警察利用算法推測涉及槍案的嫌疑人,

但事實證明這種方法效果不明顯

Sanchez/Chicago Tribune/TNS/Getty

白宮于本周發(fā)布了一份報告,闡述了它們對未來人工智能(AI)的看法。這份報告由來自西雅圖、匹茲堡、華盛頓和紐約的四個研究小組耗費三個月時間撰寫而成。

在這份報告中,許多來自不同領(lǐng)域的世界頂尖思想家討論了 AI 如何改變我們的生活方式,其中包含大量的例子,生動地解釋了機器學(xué)習(xí)和其他 AI 技術(shù)在解決生活中復(fù)雜問題方面的巨大作用,涉及從皮膚的變化預(yù)測癌癥,到減少數(shù)據(jù)中心的能源消耗等多個方面。

此外,報告還強調(diào)了眼下我們在 AI 研究上存在的主要盲點:自主智能系統(tǒng)在許多社會機構(gòu)早已司空見慣,但我們卻無法找到真正能評估其持續(xù)性影響的方法。

最近幾年,人類在人工智能領(lǐng)域取得了巨大的進步。相應(yīng)的,來自多個學(xué)科的設(shè)計師和研究人員需要對 AI進行系統(tǒng)性的分析,他們必須評估出技術(shù)對社會、文化以及政治環(huán)境的影響。

舉例來說,我們需要研究出 AiCure 應(yīng)用是如何改變醫(yī)患關(guān)系的,這款應(yīng)用可以追蹤病人是否堅持吃藥并將數(shù)據(jù)傳給醫(yī)師。同時,此類技術(shù)的使用還能通過對歷史數(shù)據(jù)的分析來預(yù)測犯罪高發(fā)地帶,減少警方對邊緣社區(qū)的警力濫用。此外,我們還需找出為何出手闊綽的投資者與低收入的借貸者總是會被區(qū)別對待。

老生長談的“奇點降臨”

“人們總是擔(dān)心電腦變聰明后會接管世界,但現(xiàn)實問題是它們在相當(dāng)愚蠢時已然統(tǒng)治了全世界?!边@是計算機科學(xué)家 Pedro Domingos 在其 2015 年的著作《The Master Algorithm》中給出的經(jīng)典論述。許多研發(fā)人員也認為 AI 的發(fā)展正處于初級階段,技術(shù)奇點還未到來,他們正推動 AI 系統(tǒng)(相對未經(jīng)測試的)進入各個社會機構(gòu)。

正是由于 AI 研發(fā)人員的不斷努力,此類系統(tǒng)才成了醫(yī)師們指導(dǎo)診斷的利器。此外,法律機構(gòu)也利用 AI 給客戶提建議,幫助他們打贏官司。金融機構(gòu)則可利用 AI 找出貸款放給誰最安全,而雇主則能通過 AI 在應(yīng)聘者中找出綜合實力最強的人。

分析師認為未來 AI 系統(tǒng)的適用范圍將得到大幅擴展,其經(jīng)濟價值更是高達數(shù)十億美元。而 IBM CEO 更是看好該技術(shù)的發(fā)展,她認為未來十年 AI 系統(tǒng)中蘊含著價值 2 萬億美元的新機遇。當(dāng)然,這一切都只是初步預(yù)測,畢竟我們對如何衡量 AI 的價值還沒有形成共識。

深度 | 人工智能的盲點在哪?

CB Insights 的研究顯示,AI領(lǐng)域的投資呈逐年上升趨勢

CB Insights

許多人認為,AI 在做預(yù)測和指導(dǎo)性決策時沒有人類明智,但工程師卻認為 AI 能找出人類在決策時存在的偏見和傲慢。不過,它也不是萬能良藥。至少在當(dāng)下,AI 的缺點依然會讓它在種族、性別和社會經(jīng)濟背景方面犯錯,而這些因素本就是人類做決策時的軟肋。

2013 年的一項研究顯示,在谷歌搜索典型的黑人名字,搜索結(jié)果中出現(xiàn)犯罪記錄搜索的可能性比白人名字高 25%。在另一例與種族有關(guān)的案例中,非營利機構(gòu) ProPublica 發(fā)現(xiàn),法庭普遍使用的算法也存在種族歧視,在它眼中,黑人罪犯再次入獄的幾率是白人的兩倍。

三種工具

如何避免這種影響呢?目前,解決 AI 系統(tǒng)的社會和倫理學(xué)影響的有三種主流模式:服從模式、價值觀設(shè)計、思維實驗。這三者都很有意義,但是不論是單獨為人們所用,或是三者齊頭并進,都不能有效解決這個問題。

部署和執(zhí)行方法(deploy and comply)

通常情況下,企業(yè)或者其他組織采取基本的步驟,堅持一系列行業(yè)最佳實踐或是法律義務(wù),來躲避政府或媒體的監(jiān)督。這種方法可以得到短期利益。比如說,2015 年谷歌系統(tǒng)錯誤地將一對美籍非裔夫妻識別為大猩猩后,及時調(diào)整了他的圖像識別算法。公司還提出了想法,將一種“紅色按鈕”引入其 AI 系統(tǒng)中,當(dāng)工程師發(fā)現(xiàn)系統(tǒng)不對勁時,可以按下按鈕防止失控。

同樣地,F(xiàn)acebook 因為將這張越南小女孩 Kim Phúc 逃離燃燒彈襲擊的照片認定為裸體兒童照片并予以屏蔽,遭到了公眾的強烈譴責(zé)。而就在上個月,包括微軟、亞馬遜和 IBM 在內(nèi)的幾家領(lǐng)先的 AI 公司,達成合作伙伴關(guān)系,意圖提升公眾的理解,并以此設(shè)立一些公共的標準。

“部署和執(zhí)行”方法盡管可以是活躍的點對點模式,但如果他們?nèi)鄙俪渥愕呐新曇艉酮毩⒌挠^點貢獻者,那么該行業(yè)的努力仍舊存在進步空間。新的 AI 合作伙伴關(guān)系正在邀請倫理學(xué)家好社會組織者們的參與。但是人們的關(guān)注點依然在于,企業(yè)是否可以相對自由地在公眾中測試他們的 AI 系統(tǒng),而無需持續(xù)地研究短期或中期的影響。

價值觀設(shè)計方法(Values in design)

多虧了技術(shù)中倫理道德方面設(shè)計的先驅(qū)們,包括極有影響力的學(xué)者 Batya Friedman 和 Helen Nissenbaum 的貢獻,現(xiàn)在的研究者和企業(yè)都執(zhí)行了諸如價值敏感設(shè)計或“有責(zé)任的創(chuàng)新”的方法來定義可能涉及的利益相關(guān)者,并對他們的價值觀進行界定。焦點小組或其他研究手段被用來建立人們關(guān)于個人隱私、環(huán)境問題等等的觀點。無論設(shè)計的是 App 還是無人車,這些未來用戶的價值觀都應(yīng)滲透進技術(shù)的設(shè)計中。AI 系統(tǒng)的開發(fā)者們應(yīng)該對這些方法加以重視。

不過,這些工具常常有一個前提假設(shè):這個系統(tǒng)一定會被設(shè)計出來。他們無法幫設(shè)計者、政策制定者或者整個社會回答,某個系統(tǒng)是否應(yīng)該被設(shè)計出來?某個基礎(chǔ)設(shè)施的系統(tǒng)原型是否太過于初級、不夠可靠而無法作為基礎(chǔ)設(shè)施(比如醫(yī)院系統(tǒng)或法庭系統(tǒng))?

深度 | 人工智能的盲點在哪? 

哮喘患者被一個預(yù)測肺炎的 AI 系統(tǒng)錯誤地評為低風(fēng)險等級

Craig F. Walker/Denver Post/Getty

思維實驗方法(Thought experiments)

過去的幾年中,各種假設(shè)情境涌現(xiàn),成為了公眾討論 AI 社會影響的爭論熱點。

最熱門的討論是關(guān)于人類設(shè)計出的高級智能系統(tǒng)最終統(tǒng)治或毀滅了人類自己的可能性。另外,還有一個從1967 年就開始的相關(guān)思維實驗——電車難題也獲得了新生,這個場景提出了關(guān)于責(zé)任和罪行的問題。在該問題中,一個人既可以讓一列正在行駛的電車碾壓過五個正在工作的人,也可以是電車變道沖向另一條只有一個人的路。很多評論家把這個假設(shè)的場景放在自動駕駛汽車中考慮,他們認為汽車應(yīng)該自動做出包含有道德要求的選擇。

與機器人末日相比,無人車發(fā)生“謀殺選擇”的可能性提供了一種更為狹窄的道德推理框架。電車問題為我們解決更廣泛的社會問題提供了一些方便的指導(dǎo):比如大量對自動汽車而非對公共交通的投資的價值問題;在無人車被允許上路前,安全性能應(yīng)該有多高;(我們應(yīng)該用什么工具來定義安全性?)、無人車在交通擁堵、環(huán)境和就業(yè)問題上的潛在影響有哪些等問題。

社會系統(tǒng)分析方法(Social-systems analysis)

我們相信誠然還需要第四種方法。一種實踐的、可以廣泛應(yīng)用的社會系統(tǒng)分析法,它可以考慮到 AI 系統(tǒng)對所有方面的可能影響,并且能同時包括在每一個階段中的社會影響,包括概念階段、設(shè)計階段、部署階段和調(diào)控階段。

在第一階段,政府部門和行業(yè)等大范圍的研究者們需要開始調(diào)查大眾的信息、財富和基本服務(wù)的獲取渠道與 AI 系統(tǒng)的訓(xùn)練數(shù)據(jù)之間有什么區(qū)別,如何匹配。

用芝加哥、伊利諾斯的“熱度地圖”(heat maps)識別那些人更容易卷入槍擊事件的算法為例,上個月發(fā)表的一份研究表明,這種地圖是無效的,他們擴大了特定人群的可能性,吸引了更多警力,但是卻沒有減少當(dāng)?shù)氐姆缸锫省?/p>

社會系統(tǒng)方法可以在“熱度地圖”中考慮到當(dāng)?shù)厣鐣途值臍v史數(shù)據(jù)。這可能要求對社區(qū)成員的問詢和對警察針對社區(qū)治安積極或消極反饋的權(quán)衡。這也可能意味著要將監(jiān)督委員會和法律機構(gòu)的發(fā)現(xiàn)考慮進去。這種社會系統(tǒng)分析法還會要求系統(tǒng)的風(fēng)險和報酬要保持平衡。所以在這個案例中,警方使用相似的技術(shù)來識別官員們誰可能有不正當(dāng)行為(比如暴力)。

在另一個例子中,2015 年的一份研究表明,應(yīng)用于預(yù)測醫(yī)院的哪個病人會得肺炎的機器學(xué)習(xí)技術(shù)在很多情形中都運行良好。但是它卻犯了一個嚴重的錯誤:盡管一些哮喘病人情況危急,它仍然指導(dǎo)醫(yī)生將這些病人送回了家。因為通常醫(yī)院會自動將哮喘病人送去重癥監(jiān)護病房,所以在系統(tǒng)被訓(xùn)練的數(shù)據(jù)記錄中,這些病人很少出現(xiàn)在“需要后續(xù)護理”的分類里。使用社會系統(tǒng)分析法,我們就需要將醫(yī)院治療、保險政策等隱形因素考慮其中,適當(dāng)?shù)卣{(diào)整患者的病例記錄。

社會系統(tǒng)分析法可以讓系統(tǒng)回答一些提問:比如自身是如何運轉(zhuǎn)的?金融咨詢者們曾經(jīng)在應(yīng)用機器學(xué)習(xí)時受到限制,因為他們的客戶總是希望他們回答為何做出某個決定。但是到目前為止,已經(jīng)受到 AI 算法限制的個體,還不可以像人類一樣回答為什么的問題。

社會系統(tǒng)分析法在各種學(xué)科中,需要重點關(guān)注心理、法律、社會學(xué)、人類學(xué)和科學(xué)技術(shù)領(lǐng)域的研究。 該方法必須開始研究社會的、政治的和文化上的價值觀是如何與技術(shù)發(fā)展和科學(xué)研究相互影響的。與單純只包含計算機科學(xué)和犯罪學(xué)的思考相比,我們只有在對 AI 影響社會層面提出更加廣泛的問題,才能夠?qū)θ斯ぶ悄艿挠绊懏a(chǎn)生出更加完整而和諧的理解。

未來還是有希望的。像下一個月在紐約舉行的研討會“機器學(xué)習(xí)的公平性、責(zé)任感和透明度”研討會就是一個很好的例子。但是贊助者們——包括政府、基金和企業(yè),都應(yīng)該為我們描述的 AI 發(fā)展方法付出更多的努力才行。

人工智能代表了一種技術(shù)層面上的文化轉(zhuǎn)變。這跟歷史上的很多技術(shù)對文化的重大影響轉(zhuǎn)折點很像,比如印刷術(shù)的使用、火車的開通,等等。自動化的系統(tǒng)正在改變工作室、街道和學(xué)校。我們需要保證,在技術(shù)逐漸滲透進我們?nèi)粘I畹幕A(chǔ)設(shè)施之前,這些改變是對我們有益的。

via nature

推薦閱讀:

谷歌 DeepMind 的可微分神經(jīng)計算機 DNC 怎么樣?看 Facebook AI 研究員田淵棟、賈揚清怎么說

CCL 2016| 中科院張鈸院士:后深度學(xué)習(xí)時代的計算語言學(xué)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

深度 | 人工智能的盲點在哪?

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說