0
本文作者: 我在思考中 | 2022-01-25 16:19 |
編譯丨辛西婭
2022年1月份,IEEE Spectrum訪談了多位技術(shù)專家,列舉出了當(dāng)前6種AI危險(xiǎn)事例,這些危險(xiǎn)比科幻電影的描述“風(fēng)平浪靜”,卻同樣具有威脅性,如果放任自由會(huì)有意想不到的后果。它們分別是:虛擬定義現(xiàn)實(shí)、AI軍備競(jìng)賽、隱私透明、斯金納箱現(xiàn)象、AI偏見以及過度擔(dān)憂AI影響。
當(dāng)人類無法區(qū)分?jǐn)?shù)字世界中的真實(shí)與虛假時(shí),會(huì)發(fā)生什么?
設(shè)想這樣一個(gè)場(chǎng)景:AI已經(jīng)擁有完美生成的能力,利用先進(jìn)的機(jī)器學(xué)習(xí)工具生成的圖像、視頻、音頻和文本已經(jīng)“以假亂真”。但如果決策者陷入假信息旋渦,并做出決斷,不可避免會(huì)導(dǎo)致危機(jī)。當(dāng)上升到國家高度,甚至?xí)l(fā)動(dòng)戰(zhàn)爭(zhēng)。喬治敦大學(xué)的研究員安德魯?羅恩(Andrew Lohn)認(rèn)為:AI已經(jīng)能夠產(chǎn)生大量以假亂真的信息。而且AI的特點(diǎn)是“隨著大量信息的生成,系統(tǒng)會(huì)不斷與真實(shí)信息進(jìn)行對(duì)比,并且升級(jí)生成能力”。
AI信息生成技術(shù)也被稱為“DeepFake”,其帶來的惡作劇已經(jīng)造成了某些影響。例如去年5月份,一些歐洲高級(jí)議員收到了一些“俄羅斯反對(duì)派人物”的視頻會(huì)議邀請(qǐng),還煞有其事地討論了克里米亞問題之類的政治事務(wù),結(jié)果發(fā)現(xiàn)在這些所謂的“俄羅斯反對(duì)派人物”都是別人用Deepfake換臉假冒的。這些受騙者包括拉脫維亞議會(huì)外交事務(wù)委員會(huì)主席Rihards Kols,以及來自愛沙尼亞和立陶宛的議員……
當(dāng)談到AI和國家安全時(shí),開發(fā)速度既是重點(diǎn)也是問題所在。由于AI系統(tǒng)能為用戶帶來速度優(yōu)勢(shì),所以最先開發(fā)軍事應(yīng)用的國家將獲得戰(zhàn)略優(yōu)勢(shì)。但是,一味追求速度可能會(huì)犧牲哪些設(shè)計(jì)原則呢?
首先,是“質(zhì)量”問題。例如黑客會(huì)利用系統(tǒng)中微小的缺陷。喬治敦大學(xué)的海倫·托納(Helen Toner)表明:“從一個(gè)無傷大雅單點(diǎn)故障開始,然后所有通信失靈,人們恐慌,經(jīng)濟(jì)活動(dòng)陷入停滯;隨后持續(xù)的信息缺乏,再加上其他錯(cuò)誤計(jì)算,可能導(dǎo)致局勢(shì)失控?!?/span>
另一方面,瑞典的斯德哥爾摩國際和平研究所高級(jí)研究員文森特?布拉南警告可能發(fā)生重大災(zāi)難:“大國為了贏得先發(fā)制人的優(yōu)勢(shì)而‘偷工減料’,如果一個(gè)國家將開發(fā)速度置于安全、測(cè)試或人為監(jiān)督之上,那么這將是一場(chǎng)危險(xiǎn)的競(jìng)逐?!崩?,為了獲得速度優(yōu)勢(shì),國家安全領(lǐng)導(dǎo)人可能會(huì)傾向于授權(quán)指揮和控制決策,取消黑盒機(jī)器學(xué)習(xí)模型的人為監(jiān)督。想象一下,如果自動(dòng)發(fā)射導(dǎo)彈防御系統(tǒng)處于無人監(jiān)督的環(huán)境下會(huì)發(fā)生什么?
使用數(shù)字技術(shù)的過程中產(chǎn)生了大量的電子數(shù)據(jù),例如發(fā)送電子郵件,閱讀文本,下載,購買,發(fā)帖等等。當(dāng)允許公司和政府訪問這些數(shù)據(jù)時(shí),也意味著賦予工具監(jiān)視和控制我們的權(quán)限。
隨著面部識(shí)別、生物識(shí)別、基因組數(shù)據(jù)分析等技術(shù)興起。安德魯?羅恩擔(dān)心:“我們有時(shí)候并沒有意識(shí)到大數(shù)據(jù)跟蹤和監(jiān)視技術(shù)的不斷發(fā)展,會(huì)使我們進(jìn)入了未知的危險(xiǎn)領(lǐng)域。”數(shù)據(jù)一旦被收集和分析,其作用就會(huì)遠(yuǎn)遠(yuǎn)超出跟蹤和監(jiān)視的功能,例如AI的預(yù)測(cè)性控制功能。今天,AI系統(tǒng)可以預(yù)測(cè)我們將購買哪些產(chǎn)品,我們將觀看哪些娛樂節(jié)目,以及我們將點(diǎn)擊哪些鏈接。當(dāng)這些平臺(tái)比我們自己更了解我們時(shí),我們可能不會(huì)注意到這種微小的變化,但它剝奪了我們的自由意志并使我們受到外部力量的控制。
曾經(jīng)在20世紀(jì)70年代,有位叫做Walter Mischel的研究專家,在美國斯坦福大學(xué)附屬幼兒園基地內(nèi)進(jìn)行了著名的“棉花糖”實(shí)驗(yàn),又稱——“延遲滿足”實(shí)驗(yàn)。
而這個(gè)實(shí)驗(yàn)的觀察數(shù)據(jù),以及后期對(duì)這些孩子的追蹤觀察說明:
那些延遲滿足能力強(qiáng)的孩子,自我控制能力也就越強(qiáng),可以在沒有外界監(jiān)督的情況下,自主性的控制調(diào)節(jié)自身行為,在某一個(gè)任務(wù)完成程度上,要更勝一籌。
當(dāng)前,具備延遲滿足能力孩子也會(huì)屈服于AI算法給出的誘惑。
進(jìn)一步,社交媒體用戶已經(jīng)成為實(shí)驗(yàn)室中的老鼠,生活在斯金納盒子里。這些用戶沉迷于手機(jī),被迫犧牲更多寶貴的時(shí)間和注意力在數(shù)字平臺(tái)上。
海倫·托納認(rèn)為:“算法經(jīng)過優(yōu)化,可使用戶盡可能長(zhǎng)時(shí)間地‘留’在平臺(tái)上?!敝骷荫R爾科姆·默多克解釋道:“通過以喜歡,評(píng)論和關(guān)注的形式提供獎(jiǎng)勵(lì),算法會(huì)縮短我們大腦的工作方式,讓我們不自覺地去參與下一個(gè)?!?/span>
為了最大化廣告利潤,公司把我們的注意力從工作、家人、朋友,責(zé)任甚至愛好上轉(zhuǎn)移。更糟糕的是,如果推送內(nèi)容質(zhì)量下降,用戶會(huì)痛苦和暴躁。海倫·托納警告:“我們?cè)谄脚_(tái)上花費(fèi)的時(shí)間越多,花在追求積極、高效和充實(shí)生活上的時(shí)間就越少?!?br mpa-from-tpl="t"/>
把更多的日常生活交給人工智能機(jī)器是有問題的。即使出于最好的意圖,AI系統(tǒng)的設(shè)計(jì),包括訓(xùn)練數(shù)據(jù)和數(shù)學(xué)模型,也反映了編程人員的“狹隘”經(jīng)驗(yàn)和興趣。
當(dāng)前,許多AI系統(tǒng)沒有考慮到不同人的不同經(jīng)歷和特征,AI模型的訓(xùn)練往往基于有偏見的觀點(diǎn)和數(shù)據(jù),無法充足考慮每個(gè)人的獨(dú)特需求來解決問題,因此此類系統(tǒng)在人類社會(huì)中缺乏一致性。甚至在AI大規(guī)模應(yīng)用之前,對(duì)日常生活中常見物品的設(shè)計(jì)往往也是迎合了特定類型的人。例如,研究表明,汽車、包括手機(jī)在內(nèi)的手持工具,甚至辦公室環(huán)境中的溫度設(shè)置都是為適合中等身材的男性而設(shè)置的,這使得包括女性在內(nèi)的各種身材和體型的人處于劣勢(shì),有時(shí)甚至?xí)?duì)他們生活造成危害。
當(dāng)不屬于有偏見規(guī)范的個(gè)人被忽視、邊緣化和排斥時(shí),AI就會(huì)變成卡夫卡式的守門人:拒絕提供客戶服務(wù)、工作、醫(yī)療等服務(wù),這些設(shè)計(jì)決策的目的約束人們,而不是將他們從日常事務(wù)中解放出來。此外,這些選擇還可以將一些最惡劣的偏見轉(zhuǎn)化為種族主義和性別歧視,造成嚴(yán)重缺陷和有偏見的判決結(jié)果。
構(gòu)建機(jī)器智能的過程最終以數(shù)學(xué)為中心,正如默多克所言:“如果我們不注意的話,線性代數(shù)會(huì)做非常瘋狂而強(qiáng)大的事情?!钡牵绻藗冏兊脴O度害怕AI,并且督促政府通過剝奪“AI便利”方式對(duì)其進(jìn)行監(jiān)管,那會(huì)怎樣呢?
畢竟AI已經(jīng)幫助人類實(shí)現(xiàn)了重大科學(xué)進(jìn)展,例如DeepMind的AlphaFold模型通過氨基酸序列精確預(yù)測(cè)蛋白質(zhì)折疊結(jié)構(gòu)方面取得了重大突破,使科學(xué)家能夠識(shí)別98.5%的人類蛋白質(zhì)的結(jié)構(gòu),這一里程碑將為生命科學(xué)的快速發(fā)展提供堅(jiān)實(shí)的基礎(chǔ)??紤]到這些AI好處,政府為防范“AI作惡”而采取的下意識(shí)監(jiān)管行動(dòng)也可能適得其反,并產(chǎn)生它們自己意想不到的負(fù)面后果,在這些后果中,我們對(duì)這項(xiàng)巨大技術(shù)的威力感到如此恐懼,以至于我們拒絕利用它為全世界帶來實(shí)際好處。
參考鏈接
Via https://spectrum.ieee.org/ai-worst-case-scenarios
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。