0
本文作者: 劉子榆 | 2017-01-11 18:10 |
《西部世界》里,機(jī)器人向人類開槍。圖源網(wǎng)絡(luò)
雷鋒網(wǎng)消息,MIT 媒體實驗室(MIT Media Lab)和哈佛大學(xué)伯克曼克萊恩互聯(lián)網(wǎng)及社會研究中心(Berkman Klein Center)共同成為了“人工智能倫理和監(jiān)管基金”的管理機(jī)構(gòu)。該基金將用于解決人工智能所帶來的人文及道德問題。
雷鋒網(wǎng)了解到,除了 LinkedIn 創(chuàng)始人 Reid Hoffman、eBay 創(chuàng)始人 Pierre Omidya 的非盈利組織 Omidyar Network 各捐出的 1000 萬美金之外,Knight 基金會也捐助了 500 萬美元,此外,還有 William and Flora Hewlett 基金會和 Raptor 集團(tuán)創(chuàng)始人 Jim Pallotta 各捐出了 100 萬美元。這筆總計 2700 萬美元的基金將由 MIT 媒體實驗室和哈佛大學(xué) Berkman Klein 中心共同管理。將來,也會有更多的捐款者加入,基金的規(guī)模還將擴(kuò)大。
“人工智能將影響我們每一個地球人,對社會的各個領(lǐng)域意義重大?!盞night 基金會 CEO Alberto Ibargüen 表示。
盡管人工智能幫助人類干了不少事兒,比如用自動駕駛技術(shù)來減少大量的交通事故,掃描醫(yī)學(xué)影像來發(fā)現(xiàn)癌癥等等。但是有不少業(yè)界人士也在發(fā)出警告稱 AI 很有可能在給人類帶來幫助的同時,也帶給人不小的威脅。
人工智能系統(tǒng)能分析大量數(shù)據(jù),但其中也可能存在偏見。
“ AI 的飛速發(fā)展帶來了很多嚴(yán)峻的挑戰(zhàn),”麻省理工學(xué)院媒體實驗室主任伊藤穰一( Joi Ito)解釋道,“人工智能給社會以及人類帶來了不可忽視的影響,機(jī)器變得越來越智能,以至于有時候我們會擔(dān)心它們是否會脫離我們的控制。其中最關(guān)鍵的挑戰(zhàn)之一就是,我們?nèi)绾未_保自己培訓(xùn)的機(jī)器永遠(yuǎn)不會產(chǎn)生并且放大人類的偏見,以此來困擾社會?我們該如何針對這項技術(shù)展開更廣泛,深入的討論?社會該如何與AI 共同演變?人們?nèi)绾螌⒂嬎銠C(jī)科學(xué)和社會科學(xué)連接在一起,開發(fā)出不僅‘聰明’,更重要的是對社會負(fù)責(zé)的智能機(jī)器?”
人工智能倫理和監(jiān)管基金將用于研究 AI 應(yīng)當(dāng)如何承擔(dān)社會責(zé)任,例如教育、交通運(yùn)輸和司法等領(lǐng)域的計算機(jī)程序怎樣確保公平性問題。該基金還希望探索出 AI 是以何種方式與公眾展開對話的,幫助公眾理解AI 的復(fù)雜性和多樣性。此外,建立這項基金的必要性在于它將會跨越學(xué)科之間的障礙,打破不同領(lǐng)域的孤島。MIT 媒體實驗室、哈佛 Berkman Klein 中心以及其他潛在合作者,將作為一種共同機(jī)制,加強(qiáng)基金組織的跨學(xué)科工作,并鼓勵交叉學(xué)科的并行對話和協(xié)作。
據(jù)雷鋒網(wǎng)了解,該組織預(yù)計在未來數(shù)年以階段式來達(dá)成目標(biāo),比如在 MIT 媒體實驗室原定于 7 月 10 日舉辦的 AI 研討會上將進(jìn)行一定的補(bǔ)充。此外,該基金還將監(jiān)督 AI 獎學(xué)金計劃,對一些相關(guān)的合作項目進(jìn)行支持,引導(dǎo) AI 向利于社會的方向發(fā)展。
協(xié)作型網(wǎng)絡(luò)
MIT 媒體實驗室和哈佛 Berkman Klein 中心在網(wǎng)絡(luò)社區(qū)以及多學(xué)科人才的幫助下,使用機(jī)器學(xué)習(xí)從數(shù)據(jù)中學(xué)習(xí)倫理和法律規(guī)范,并且使用數(shù)據(jù)驅(qū)動技術(shù)來量化人工智能對勞動力市場的潛在影響。
據(jù)悉,這項工作已經(jīng)在兩個機(jī)構(gòu)中開始進(jìn)行。其中一個是自動駕駛汽車的合作小組,由 Iyad Rahwan 領(lǐng)導(dǎo),旨在討論汽車中相關(guān)的 AI 道德復(fù)雜性;另一個是機(jī)器人小組,由 Cynthia Breazeal 領(lǐng)導(dǎo),旨在研究人類與機(jī)器人互動過程中所涉及的道德問題。
“正如 18 、 19 世紀(jì),工業(yè)革命對整個世界產(chǎn)生的影響那樣,AI 的影響力也是類似的?!盧ahwan 表示,他將運(yùn)輸系統(tǒng)和就業(yè)列為最可能受到自動化和人工智能影響的領(lǐng)域之一?!拔覀冃枰氖亲屨麄€社會處在這些系統(tǒng)的控制環(huán)路中,包括技術(shù)專家、工程師、倫理學(xué)家、認(rèn)知科學(xué)家、經(jīng)濟(jì)學(xué)家、法律學(xué)者、人類學(xué)家、信仰領(lǐng)袖、政府監(jiān)管者等等,以達(dá)到公眾效益?!?/p>
Breazeal 表示,“人工智能為所有年齡和階段的人提供了深度個性化的學(xué)習(xí)體驗,”她強(qiáng)調(diào)人工智能需要接觸發(fā)展中國家和少數(shù)派人群。同時,她補(bǔ)充到,“人工智能也是一把雙刃劍,這種技術(shù)該如何惠及大眾,又該如何保護(hù)人類的隱私和安全?這些問題都需要慢慢思考。”
共同的目標(biāo)
哈佛大學(xué) Berkman Klein 中心一直致力于研究以公共利益導(dǎo)向的解決方案,比如知識共享和美國數(shù)字公共圖書館。此外,目前它還和 MIT 媒體實驗室合作,將一部分高水平的開發(fā)人員和高科技行業(yè)的專業(yè)人士匯集在哈佛大學(xué)進(jìn)行為期三周的嚴(yán)格培訓(xùn),隨后還將展開 12 周的協(xié)同研究,讓各路人才共同探索網(wǎng)絡(luò)安全問題。
哈佛大學(xué) Berkman Klein 中心的聯(lián)合創(chuàng)始人兼計算機(jī)科學(xué)教授 Jonathan Zittrain 表示:“這些研究會幫助我們判斷 AI 事業(yè)更深層次的目標(biāo)。雖然有時人工智能讓人擔(dān)憂,但是人類應(yīng)該做的工作是確定和培養(yǎng)自身在技術(shù)面前的自主性和尊嚴(yán),而不是去削弱技術(shù)?!?/p>
據(jù)了解,“人工智能倫理和監(jiān)管基金”將由一個小型董事會進(jìn)行管理。此外,董事會在選舉出一組專家顧問,其中包括 Daniela Rus、Andrew,以及 Max Tegmark 等 MIT CSAIL 實驗室的大牛。
麻省理工學(xué)院媒體實驗室主任伊藤穰一表示,現(xiàn)在對各個領(lǐng)域進(jìn)行覆蓋是至關(guān)重要的。“我們決定創(chuàng)建一個動態(tài)網(wǎng)絡(luò),而不是建立一個機(jī)構(gòu)。解決問題最好的方法就是展開跨學(xué)科、交叉領(lǐng)域的研究。我們這個項目只是一個開始?!?/p>
Via MIT
*文中圖片及封面來源于網(wǎng)絡(luò)。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。