0
本文作者: 叢末 | 2019-10-16 20:34 |
雷鋒網(wǎng) AI 科技評論:作為一家跨學(xué)科研究 AI 對社會、政治和倫理的影響的 AI 研究機構(gòu),AI Now 研究所自創(chuàng)立以來的四年時間里,已發(fā)布三份年度報告,在去年的《AI Now Report 2018》中,該研究所對圍繞 2018 年人工智能的一連串技術(shù)丑聞的核心——問責(zé)制進(jìn)行了回應(yīng),并從該問題出發(fā),對包括監(jiān)控問題,公平、偏見與歧視問題以及倫理問題在內(nèi)的其他相關(guān)問題提出了解決提議,AI 科技評論也對該報告進(jìn)行了報道。
作為年度報告的前期預(yù)熱,AI Now 研究所也舉辦每年一屆的「AI Now 研討會」,邀請了跨學(xué)科的研究者來一同探討相關(guān)主題。日前,紐約大學(xué) AI Now 研究所舉辦的第四屆 AI Now 研討會上,邀請到了研究所的組織者以及相關(guān)領(lǐng)域的學(xué)者以及律師,聚焦于 AI 帶來的負(fù)面影響所引起的與日俱增的抵制之聲展開了討論。
2019 年距離尾聲還有一段時日,在迎接 AI Now 研究所的年度報告之前,我們不妨先從今年的「AI Now 研討會」來一窺本年度 AI 對社會、政治和倫理帶來了哪些問題和影響。
左為 Meredith Whittaker,右為 Kate Crawford
與往年一樣,AI Now 的聯(lián)合創(chuàng)始人 Kate Crawford 和 Meredith Whittaker 為該研討會做開場致辭。在開場致辭中,兩位創(chuàng)始人主要聚焦以下五個主題,簡短地過去一年中人工智能領(lǐng)域出現(xiàn)的「反對」聲音:
(1)人臉和情感識別;
(2)從「AI 偏見」到公正的轉(zhuǎn)變;
(3)城市、監(jiān)視、邊界;
(4)勞力、工會和 AI;
(5)AI 對氣候的影響。
AI 科技評論將兩位的致辭實錄編譯如下,并進(jìn)行了不改變原意的刪減。
2019 這一年,企業(yè)和政府都在加大力度推廣人臉識別技術(shù)在公共住房、招聘和城市街道等場景中的應(yīng)用。目前,美國一些航空公司甚至采用人臉識別的登機方式而無需登機牌,它們表示這樣更加方便。
人臉識別的一個子類別——情感識別也得到了更加廣泛的使用,它通過解析面部的微表情來「讀取」人的內(nèi)在情緒。正如心理學(xué)家 Lisa Feldman Barret 在一份廣泛的調(diào)查報告所提到的,這種 AI 相貌學(xué)并沒有可靠的科學(xué)依據(jù)。然而,這種沒有可靠的科學(xué)依據(jù)的技術(shù)現(xiàn)在卻已經(jīng)用到了課堂和工作面試中,并且往往是在讓人們不知情的情況下使用。
例如,喬治城大學(xué)隱私和科技中心獲得的一份文件就曾揭露,F(xiàn)BI 和 ICE 在未經(jīng)個人同意或未經(jīng)州或聯(lián)邦立法機構(gòu)授權(quán)的情況下,一直在暗自訪問駕駛執(zhí)照數(shù)據(jù)庫,并對數(shù)百萬張照片進(jìn)行面部識別搜索。
而在今年,隨著美國公民自由聯(lián)盟(ACLU)的 Kade Crockford、羅切斯特理工學(xué)院的 Evan Selinger 和東北大學(xué)的 Woodrow Hertzog 等一眾組織者和學(xué)者呼吁對人臉識別進(jìn)行嚴(yán)格限制后,選民和立法者也開始針對該問題做出了一些舉措。第九巡回上訴法庭(The Ninth Circuit Court of Appeals)最近對將 Facebook 因未經(jīng)許可而對用戶的照片進(jìn)行面部識別的起訴案裁定為隱私侵犯。
在傳媒正義(Media Justice)等組織領(lǐng)導(dǎo)的運動下,舊金山于今年 5 月簽署了第一個人臉識別禁止法案,隨后又有另外兩個城市也相繼簽訂了該禁止法案。不久前,Bernie Sanders 民主黨總統(tǒng)候選人也曾承諾將在全國范圍內(nèi)推行該禁令。另外大部分音樂人也要求在音樂節(jié)上停止使用人臉識別技術(shù),與此同時,現(xiàn)在還出了一部叫做《禁止生物識別屏障住房法》(No Biometric Barriers to Housing Act)的聯(lián)邦法案,旨在禁止在公共住房中使用人臉識別。
歐洲同樣也發(fā)生著此類抵制運動:英國議會委員會呼吁,在建立法律框架前要停止對人臉識別的試驗;而布魯塞爾警方對這些人臉識別技術(shù)工具進(jìn)行測試的行為,近來也被視作是非法的。
當(dāng)然,要實現(xiàn)這些改變,我們還有很長一段路要走。而現(xiàn)在我們需要明確的一點是,這并不屬于完善技術(shù)和消除偏見方面的問題。鑒于被監(jiān)視、追蹤和逮捕的人存在種族、收入方面的差異,即便是再精準(zhǔn)的人臉識別技術(shù)也會帶來不同的危害。正如 Kate Crawford 最近在《自然》雜志上所寫道的:消除系統(tǒng)的偏見并非 AI 的重點,這些系統(tǒng)「發(fā)生故障時會帶來危險,順利工作時則會帶來危害」。
今年,我們也看到了人工智能界的一項重要進(jìn)步:從狹隘地聚焦于從純技術(shù)層面對 AI「去偏見」轉(zhuǎn)變到更實質(zhì)性地關(guān)注公正。
一定程度上,這也是由很多令人不安的事件所推動的。
例如,密歇根州前州長 Rick Snyder 是一位技術(shù)主管,曾主導(dǎo)治理過「弗林特水危機」,也正是他決定安裝一個可用于整個州的自動化決策系統(tǒng)——MiDAS。該系統(tǒng)設(shè)計的初衷就是用來自動標(biāo)記出涉嫌福利欺詐的工人。為了削減福利開支,該州安裝了 MiDAS 系統(tǒng),整個欺詐檢測部門的人都遭解雇。然而,該系統(tǒng)最終被證明存在 93% 的錯誤率——它錯誤地檢測出 40,000 多名居民涉嫌福利欺詐,導(dǎo)致很多人面臨破產(chǎn)甚至自殺。值得一提的是,MiDAS 還只是一眾旨在縮減貧困人口的緊縮政策中的一個案例。
另外一個案例來自于 AI Now 的政策負(fù)責(zé)人 Rashida Richardson 所領(lǐng)導(dǎo)的研究,她研究了警察的日常工作與預(yù)測性警務(wù)軟件之間的關(guān)聯(lián)性。最終,她和她的團隊發(fā)現(xiàn),在美國多個警察部門中,預(yù)測性警務(wù)系統(tǒng)可能使用了來自存在種族主義和徇私舞弊的警察所留下的帶有誤導(dǎo)性的記錄。
顯而易見,在這種情況下,糾正系統(tǒng)的偏見的關(guān)鍵點不在于刪除數(shù)據(jù)集中的某一個或另一個變量,而是需要改變警察記錄數(shù)據(jù)的做法。
人權(quán)數(shù)據(jù)分析組(Human Rights Data Analysis Group)研究人員 Kristian Lum 的一項開創(chuàng)性的工作——算法如何放大警務(wù)中的歧視性記錄,也表明了這一點。
來自普林斯頓大學(xué)的 Ruha Benjamin,最近出版兩本意義非凡的書:《追逐科技》(Race After Technology)和編輯本《迷人的科技》(Captivating Technology)。她與 Dorothy Roberts 、Alondra Nelson 等一眾學(xué)者強有力地研究了分類政治、如何利用種族來調(diào)整社會等級以及此類邏輯如何應(yīng)用到 AI 技術(shù)中。
Kate Crawford 和 AI Now 藝術(shù)家研究員 Trevor Paglen 最近還在他們的 Training Humans 展覽中審視了分類政治。該展覽是第一個著眼于用來創(chuàng)建機器學(xué)習(xí)系統(tǒng)的訓(xùn)練數(shù)據(jù)的大型藝術(shù)展,它研究了從 Woody Bledsoe 在1963 年所做的第一個實驗到最著名和使用最廣泛的基準(zhǔn)集(例如 Wilded Labeled Faces 和 ImageNet)的 AI 訓(xùn)練集的歷史和邏輯。
ImageNet Roulette 是與展覽一起使用的視頻安裝和應(yīng)用程序。
該程序在 9 月份風(fēng)靡一時,成千上萬的人在上面上傳了他們的照片以查看 ImageNet 如何對這些照片進(jìn)行分類。此事件具有重大意義。ImageNet 作為一個規(guī)范的目標(biāo)識別數(shù)據(jù)集,它在塑造 AI 的產(chǎn)業(yè)化方面比其他數(shù)據(jù)集更有潛力。
雖然 ImageNet 所做的一些分類很奇怪,甚至很滑稽,但數(shù)據(jù)集也囊括了極端問題的分類,其中很多是與種族主義和婦女歧視相關(guān)的。Imagenet Roulette 則為人們了解 AI 系統(tǒng)如何分類這些極端問題提供了一個界面,這實際上暴露出了 AI 系統(tǒng)在復(fù)雜和動態(tài)世界場景中所做的分類工作的狹隘性和高度格式化。Kate Crawford 和 Trevor Paglen 在發(fā)表的一篇調(diào)查性文章中,揭開了 AI 系統(tǒng)在多個基準(zhǔn)訓(xùn)練集上工作的面紗,進(jìn)而揭示了這些系統(tǒng)存在的政治性架構(gòu)。
這是為什么藝術(shù)與科研的結(jié)合有時會比單個學(xué)科能夠產(chǎn)生更大影響的另一個原因,這也促使我們考慮:由誰來定義我們所屬的類別以及由此帶來的后果。
能源、分類和控制問題是今年美國在全國范圍內(nèi)大規(guī)模部署企業(yè)監(jiān)視系統(tǒng)的背景色。以亞馬遜的門鈴(Ring)為例,這就是一款監(jiān)控攝像頭和門鈴系統(tǒng),人們能夠用它來 24 小時監(jiān)控家和附近地區(qū)。
亞馬遜正在與 400 多個警察部門合作推廣這款門鈴,并推動警察說服當(dāng)?shù)孛癖妬碣徺I該系統(tǒng),讓這些警察都變成有點像挨家挨戶上門推銷安防產(chǎn)品的銷售員了。
作為達(dá)成合作的一部分,亞馬遜能夠持續(xù)獲取視頻內(nèi)容;與此同時,警察也能夠訪問監(jiān)控視頻以隨時調(diào)用。亞馬遜目前已經(jīng)對此申請了人臉識別專利,暗示他們具備將視頻中的人臉與「可疑人員數(shù)據(jù)庫」進(jìn)行比對從而有效地在全國范圍內(nèi)建立私有化的家庭監(jiān)控系統(tǒng)的能力。
但是這款門鈴僅是更嚴(yán)峻的監(jiān)控問題的一個部分。正如 Burku Baykurt、Molly Sauter 和 AI Now 研究員 Ben Green 等學(xué)者所說的,「智慧城市」這一科技烏托邦式的言論,正在掩蓋更深層次的不公正和不平等問題。
如今,居民們也開始意識到這個問題。就在 8 月份,圣地亞哥居民就對安裝「智能」燈柱進(jìn)行了抵制;就在同一時間,香港居民也對「智能」燈柱進(jìn)行抵制。
今年 6 月,紐約州洛克波特市的學(xué)生和家長對學(xué)校使用人類識別系統(tǒng)進(jìn)行抵制,這種人臉識別系統(tǒng)能夠讓該地區(qū)隨時追蹤和定位所有學(xué)生或老師的位置?,F(xiàn)在,學(xué)校已暫停使用該系統(tǒng)。
而在 2 月份,在紐約一個大型聯(lián)合組織的施壓下,亞馬遜廢置了其在皇后區(qū)的第二個總部。組織者們強調(diào),紐約不僅給亞馬遜提供了豐厚的激勵政策,還給其勞動者帶來了工作機會以及人臉識別技術(shù)部署及與 ICE 的簽訂合同的好處。這也給我們敲了一記警鐘:這些抵制活動其實是由多重問題引發(fā)的——尤其是當(dāng)這些科技公司能夠從不同的部門攝取利益時。
而最不負(fù)責(zé)任地濫用這些監(jiān)控工具的地區(qū)之一就是美國南部邊境,ICE、海關(guān)和邊境巡邏隊都在部署這類 AI 系統(tǒng)。
目前,有 52000 名移民被關(guān)在監(jiān)獄、拘留所以及其他限制人身自由的地方,40000 名無家可歸的人在靠近墨西哥的邊境等著提出庇護(hù)申請。在過去的一年中,已經(jīng)有 7 名兒童在 ICE 的拘留中死亡,與此同時,還有許多兒童面臨食物不足和醫(yī)療資源匱乏的問題。這些正在發(fā)生的令人驚心的現(xiàn)狀,已無法用語言來形容。
根據(jù)宣傳組織 Mijente 的報告,我們知道亞馬遜和 Palantir 這樣的公司正在為 ICE 提供驅(qū)逐難民出境的引擎系統(tǒng)。而為了反抗,已經(jīng)有來自十一所大學(xué)的超過 2000 名學(xué)生簽署了拒絕與 Palantir 合作的保證書。與此同時,已經(jīng)與 ICE 簽約合作的科技公司總部幾乎每周都有抵制活動。
當(dāng)然,當(dāng)我們審視到 AI 領(lǐng)域的多樣性問題日益加劇時,種族、階級和性別等方面的結(jié)構(gòu)性歧視問題也在暴露無遺。
4 月,AI Now 發(fā)布了由博士后 Sarah Myers West 領(lǐng)導(dǎo)開發(fā)的歧視系統(tǒng)(Discriminate Systems),這項研究體現(xiàn)了 AI 內(nèi)在的歧視性文化和 AI 系統(tǒng)中嵌入的偏見及歪曲事實之間的反饋回路。這項發(fā)現(xiàn)令人震驚。
正如 AI 行業(yè)將自己標(biāo)榜為財富和權(quán)力的紐帶一樣,AI 也正在變得更日益同質(zhì)化。顯而易見,AI 整個領(lǐng)域存在一個普遍的問題。
但是,也有人不斷呼吁求變。爆料人 Signe Swenson 和記者 Ronan Farrow 曾推動揭示了 MIT 將地位和金錢置于女性安全之上的籌款文化。最早要求問責(zé)的人之一是來自肯尼亞的研究生 Arwa Mboya。她討要公道的做法,與從前沒有制度性權(quán)利的有色人種婦女為爭取權(quán)利發(fā)聲的方式非常相像,成為該事件的破曉之聲。當(dāng)然,MIT 并非個例。
從谷歌罷工到 Riot game,再到微軟工人與 CEO 當(dāng)面「對質(zhì)」,我們已經(jīng)看過了多家科技公司發(fā)聲的一系列罷工和抵制,他們的要求無一例外:消除工作中的種族和性別不平等。
或許大家都知道,今年早些時候,AI Now 聯(lián)合創(chuàng)始人 Meredith Whittaker 離開了谷歌。當(dāng)時,她對行業(yè)的發(fā)展方向越發(fā)感到震驚:事情正在變得更糟,而非更好。因此,她和她的同事們開始圍繞工作場所中 AI 的負(fù)面應(yīng)用和濫用進(jìn)行梳理,其他老師和研究者也發(fā)揮了集體力量為他們提供了寶貴的意見。
另外,AI Now 的研究和許多其他學(xué)者的研究也為這項梳理工作提供了信息,而這項梳理工作也為政治行動和組織提供了寶貴的指導(dǎo)。在此過程中,科技工作者發(fā)起的運動也在增多,其中多數(shù)運動取得了勝利,并為那些敢于站出來說話的抵制者積累了一些經(jīng)驗。
合同工是這一事件的核心人物,他們是科技公司中最早組織抵制活動并為此類活動鋪路的群體之一。他們在科技公司的勞動力中占了一半以上的比重,但是沒有得到全面的就業(yè)保障,并且收入通常只能勉強維持生計。Lilly Irani、Sarah Roberts、 Jessica Bruder 以及 Mary Gray 等學(xué)者的工作,有助于引起這些「影子勞動力」對此方面的關(guān)注。
用于員工管理的 AI 平臺也是一個日益嚴(yán)重的問題。從 Uber 到亞馬遜的倉庫,這些巨型自動化平臺指揮員工工作、設(shè)定績效目標(biāo)并決定他們的工資,這就讓員工完全受制于 AI。
例如,在今年早些時候,Uber 在沒有任何解釋或警告的情況下,通過對其平臺更新暗自大幅削減了員工的工資。與此同時,外賣公司 Door Dash 被曝,毫不夸張地說——竊取了用戶以為存在了應(yīng)用程序上的小費。
慶幸的是,我們也看到這些員工取得了一些重大勝利。例如 CA 的 Rideshare 司機在 AB-5 法中取得了巨大勝利,這項法案要求基于應(yīng)用程序的公司向司機們提供全面的就業(yè)保障。對于這些員工而言,這為其現(xiàn)狀帶來了里程碑式的改變。
在美國東岸,Bhairavi Desai 正領(lǐng)導(dǎo)著她在 1998 年創(chuàng)辦的紐約出租車從業(yè)者聯(lián)盟(New York Taxi Workers Alliance)開展相關(guān)抵制活動,目前該組織成員已超過 21,000 人。她領(lǐng)導(dǎo)的首次抵制活動之一,在與共乘公司的對抗中贏得了勝利。
而所有這些問題產(chǎn)生的背景都是氣候。需要整個地球的資源來進(jìn)行的運算,也會對整個地球產(chǎn)生影響。
AI 極度耗費能源,并消耗了大量自然資源。在今年早些時候,來自阿姆赫斯特的研究員 Emma Strubell 發(fā)表了一篇論文,揭示了訓(xùn)練 AI 系統(tǒng)所造成的大量碳排放。她的團隊表明,僅創(chuàng)建一個用于自然語言處理的 AI 模型,就可以排放多達(dá) 600000 磅的二氧化碳,相當(dāng)于紐約和北京之間 125 架往返航班所產(chǎn)生的二氧化碳。
大型 AI 的碳排放,往往就暗藏于諸如「云」此類的抽象產(chǎn)品。實際上,據(jù)估計,世界上的計算基礎(chǔ)設(shè)施的碳排放量與航空業(yè)差不多,在全球碳排放總量占很大比重。
目前,針對該問題的抵制活動也在增多。就在本月,我們看到了空前的「跨技術(shù)部門員工行動」,他們都在為氣候問題抗?fàn)帯?/p>
他們要求科技巨頭到 2030 年實現(xiàn)零碳排放量,與燃料公司實現(xiàn)零合作,并且要求這些公司不再部署引發(fā)氣候問題的 AI 技術(shù)。
與此同時,我們也看到了大家對于 AI 的使用邊界以及氣候正義運動的共同關(guān)注。
我們可以看到的是,一股逐漸增強的抵制浪潮席卷而來,從抵制「人臉識別必不可少」的言論到拒絕在家庭和城市各個空間中安裝追蹤技術(shù):大量相關(guān)的抵制活動正在開展中。
顯而易見的是,AI 引發(fā)的主要問題是社會、文化和政治問題,而非技術(shù)問題。并且這些問題——從刑事司法到工人權(quán)利,再到種族和兩性平等,都有悠久且難以打破的歷史淵源。這就意味著,我們這些對 AI 的影響有所擔(dān)憂的人,需要找出已針對這些問題所做的相關(guān)工作并進(jìn)一步開展,同時還要了解曾經(jīng)為解決這些問題開辟了道路的成果的歷史。
定格在 2019 年的這些抵制之聲,也提醒我們:現(xiàn)在還有一扇窗的機會來決定哪些類型的 AI 是我們能夠接受的,以及如何讓 AI 自身負(fù)起責(zé)任。
編者注: 演講者在致辭中,對出席本次研討會的一眾嘉賓進(jìn)行了介紹,AI 科技評論保留了對本文內(nèi)容具有補充意義的一部分嘉賓介紹,而刪減了不對全文內(nèi)容造成影響的另一部分嘉賓介紹。希望了解所有出席本次研討會的嘉賓的讀者可前往 https://medium.com/@AINowInstitute/ai-in-2019-a-year-in-review-c1eba5107127 閱讀原文。
雷鋒網(wǎng) AI 科技評論編譯。 雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。