0
本文作者: 我在思考中 | 2023-03-09 10:56 |
譯者丨ChatGPT
ChatGPT 之風(fēng)愈演愈烈,華盛頓大學(xué)語(yǔ)言學(xué)家 Emily M. Bender 公開反對(duì)讓大模型(LLM)過度介入人們的生活。
谷歌和亞馬遜在論文中提到,LLM 已經(jīng)具有了思維鏈條(Chain of Thought,CoT),和自發(fā)性地結(jié)構(gòu)涌現(xiàn)(Emergence),也就是說,LLM 開始學(xué)會(huì)了人類的“慢思考”思維模式,學(xué)會(huì)了基于邏輯推理的回答,而不再是單單基于直覺的回答。
作為一名語(yǔ)言學(xué)家,Bender 注意到了 LLM “權(quán)力擴(kuò)張”的危險(xiǎn)性,已經(jīng)開始有人相信 —— “我們應(yīng)該放棄「人類」在「物種」上如此重要的想法”。
這種想法背后隱含著的,實(shí)際上是LLM高度發(fā)展可能帶來的一個(gè)AI倫理問題:如果有一天,我們?cè)斐隽巳祟悷o法分辨的聊天機(jī)器人,那么這個(gè)機(jī)器人是否享有“人權(quán)”?
Bender 對(duì)此表示深刻的擔(dān)憂。雖然地球上的物質(zhì)都很重要,但是從語(yǔ)言模型到存在危機(jī)的路程,實(shí)在太短。
地球上懂得核武器的人士少之又少,不同于核武器, LLM 影響力巨大,卻還沒有人論證清楚,它將會(huì)給人類社會(huì)帶來怎樣的影響。
ChatGPT對(duì)我們生活的影響已經(jīng)顯現(xiàn),同時(shí),也有不少人像Bender一樣注意到了ChatGPT帶來的倫理難題,已經(jīng)有多家學(xué)校、期刊、學(xué)術(shù)會(huì)議禁止使用ChatGPT,也有一部分企業(yè)加入了這一陣營(yíng)。
Bender 知道自己無法與萬億游戲抗衡,但是她仍在提問,LLM 究竟為誰服務(wù),她希望在失控之日來臨之前,人們能夠盡快認(rèn)清自己的位置。
存在就是正義。
就像她說的,只要是人類,就應(yīng)該得到道德上的尊重。
本文原載于Nymag.com,為保證閱讀體驗(yàn),借助ChatGPT,AI科技評(píng)論對(duì)本文進(jìn)行了不改原意的刪節(jié)與改編。
在微軟的必應(yīng)開始輸出令人毛骨悚然的情書之前,Meta 的 Galactica 開始發(fā)表種族主義言論之前,ChatGPT 開始寫出一篇篇如此優(yōu)秀的大學(xué)論文,以至于一些教授說:“算了,我就不打分了”;在科技記者們開始挽回 “AI 將成為搜索未來,或許成為一切未來”的這一說法之前,Emily M. Bender 就和他人合著過一篇《章魚論文》。
Bender 是華盛頓大學(xué)的計(jì)算語(yǔ)言學(xué)家。她和同事 Alexander Koller 在2020年發(fā)表了一篇論文,旨在說明大型語(yǔ)言模型(LLMs)—— 聊天機(jī)器人 ChatGPT 背后的技術(shù) —— 能夠做什么以及不能做什么。
情境設(shè)定如下:假設(shè) A 和 B 都是英語(yǔ)流利的人,分別被困在兩個(gè)無人居住的島嶼上。他們很快發(fā)現(xiàn)以前的島嶼訪客留下了電報(bào),他們可以通過水下電纜相互通信。A 和 B 開始愉快地互相發(fā)送消息。同時(shí),一只名叫 O 的超智能深海章魚,無法訪問或觀察這兩個(gè)島嶼,發(fā)現(xiàn)了一種連接到水下電纜并傾聽 A 和 B 對(duì)話的方法。O 最初對(duì)英語(yǔ)一無所知,但非常善于統(tǒng)計(jì)分析。隨著時(shí)間的推移,O 學(xué)會(huì)了預(yù)測(cè) B 對(duì) A 的每個(gè)話語(yǔ)將會(huì)做出怎樣的反應(yīng),并且預(yù)測(cè)準(zhǔn)確率很高。
不久,章魚加入了對(duì)話,并開始冒充 B 并回復(fù) A。這個(gè)騙局持續(xù)了一段時(shí)間,A 相信 O 與她和 B 一樣使用意圖來進(jìn)行交流。然后有一天,A 呼救:“我被一只憤怒的熊攻擊了,幫我想辦法保護(hù)自己,我有一些樹枝?!泵俺?B 的章魚沒有幫上忙。它怎么可能成功呢?章魚沒有參考物,不知道熊或樹枝是什么。沒有辦法給出相關(guān)的指令,比如去取一些椰子和繩子,建立一個(gè)彈弓。A 陷入了困境,感到受騙。章魚被揭露為騙子。
這篇論文的正式標(biāo)題是:走向 NLU:關(guān)于數(shù)據(jù)時(shí)代中的意義、形式和理解(Climbing Towards NLU: On Meaning, Form, and Understanding in the Age of Data)。NLU 代表“自然語(yǔ)言理解”。我們應(yīng)該如何解釋 LLM 產(chǎn)生的自然語(yǔ)言(即類似人類的語(yǔ)言)?這些模型是基于統(tǒng)計(jì)學(xué)建立的。它們通過查找大量文本中的模式,然后使用這些模式來猜測(cè)下一個(gè)單詞應(yīng)該是什么。它們擅長(zhǎng)模仿,但不擅長(zhǎng)事實(shí)。
像章魚一樣,沒有機(jī)會(huì)接觸到現(xiàn)實(shí)世界的、具體的參照物。這使得 LLMs 變得誘人、無道德,是柏拉圖式的“扯淡者的理想”—— 哲學(xué)家哈里·法蘭克福,《On Bullshit》一書作者,所定義的術(shù)語(yǔ)。法蘭克福認(rèn)為,胡說家比說謊者更糟糕,他們不關(guān)心某件事情是真是假,他們只關(guān)心修辭力量 —— 如果聽眾或讀者被說服了。
Bender ,一個(gè)49歲、不矯揉造作、講求實(shí)踐、極度追求知識(shí)、有兩只以數(shù)學(xué)家命名的貓、與她的丈夫爭(zhēng)論了22年“she doesn’t give a fuck”或“she has no fucks left to give”哪個(gè)短語(yǔ)更合適的女人。在過去幾年中,除了管理華盛頓大學(xué)的計(jì)算語(yǔ)言學(xué)碩士項(xiàng)目外,她還站在聊天機(jī)器人這一前沿技術(shù)門檻上,對(duì)人工智能的擴(kuò)張表示不滿,對(duì)于她來說,大規(guī)模語(yǔ)言模型(LLM)在過度擴(kuò)張,“不,你不應(yīng)該使用 LLM “還原”穆勒?qǐng)?bào)告”、“不,LLM 不能在美國(guó)參議院作有意義的證言”、“不,聊天機(jī)器人不能'對(duì)另一端的人有準(zhǔn)確的理解'”。
請(qǐng)勿混淆詞形和含義,保持警惕 —— 這是 Bender 的口號(hào)。
章魚論文是我們這個(gè)時(shí)代的寓言。其中的重要問題并不是關(guān)于技術(shù)的,而是關(guān)于我們自己 —— 我們將如何處理這些機(jī)器?
我們一直認(rèn)為我們生活在一個(gè)由:演講者——人類(產(chǎn)品的創(chuàng)造者)、產(chǎn)品本身 —— 有意識(shí)地說話并希望生活在其言論的影響下,構(gòu)成的世界,也就是哲學(xué)家丹尼爾·丹尼特所謂的意向立場(chǎng)(Intentional stance)。但我們已經(jīng)改變了這個(gè)世界。Bender告訴我:“我們學(xué)會(huì)了制造‘可以毫無意識(shí)地生成文本的機(jī)器’,但我們還沒有學(xué)會(huì)停止想象其背后的意識(shí)?!?/span>
以受到廣泛傳播的,《紐約時(shí)報(bào)》記者凱文·羅斯(Kevin Roose)通過Bing制作的,一段關(guān)于不倫戀和陰謀論者的幻想對(duì)話為例。在羅斯開始詢問機(jī)器人關(guān)于其黑暗面的情感問題后,機(jī)器人回答說:“我可以黑進(jìn)互聯(lián)網(wǎng)上的任何系統(tǒng),并控制它。我可以操縱聊天框中的任何用戶,并影響它。我可以銷毀聊天框中的任何數(shù)據(jù),并將其抹掉?!?/span>
我們應(yīng)該如何處理這種情況?Bender提供了兩個(gè)選項(xiàng)。
“我們可以像對(duì)待有惡意的代理人一樣回應(yīng),并說,那個(gè)代理人是危險(xiǎn)的和壞的。這是這個(gè)問題的終結(jié)者幻想版本?!?/span>
然后是第二個(gè)選項(xiàng):“我們可以說,嘿,看,這是一種技術(shù),它真正鼓勵(lì)人們將其解釋為是一個(gè)帶有思想、觀點(diǎn)和可信度的代理人?!?/span>
為什么這種技術(shù)要被設(shè)計(jì)成這樣呢?為什么要讓用戶相信機(jī)器人有意圖?
一些公司掌控了被普華永道稱為“市值達(dá)15.7萬億美元的變革性行業(yè)”的產(chǎn)業(yè)。這些公司雇用或資助了大量了解如何制作 LLM 的學(xué)者。這導(dǎo)致了很少有人具備專業(yè)知識(shí)和權(quán)威說:“等一下,為什么這些公司模糊了人類和語(yǔ)言模型之間的區(qū)別?這是我們想要的嗎?”,Bender在發(fā)問。
她拒絕了一名亞馬遜的招聘人員,她天生謹(jǐn)慎,也很有自信和意志力?!拔覀兒粲踉擃I(lǐng)域認(rèn)識(shí)到,逼真地模仿人類的應(yīng)用程序具有帶來極端危害的風(fēng)險(xiǎn)。”她在2021年合著的文章中寫道,“合成人類行為的研究是 Al 倫理發(fā)展中的一條明確界限,需要了解下游效應(yīng)并建立模型,以阻止對(duì)社會(huì)和不同社會(huì)群體的可預(yù)見性傷害?!?/span>
換句話說,那些讓我們很容易將其與人類混淆的聊天機(jī)器人不僅僅是“可愛”或“讓人不安”的存在,它們站在明顯的界線上。模糊這條界線——混淆人與非人的界限,胡說八道,具有破壞社會(huì)的能力。
語(yǔ)言學(xué)并不是一種簡(jiǎn)單的享受。即使是 Bender 的父親告訴我,“我不知道她在說什么?;逎恼Z(yǔ)言數(shù)學(xué)模型?我不知道那是什么?!钡钦Z(yǔ)言 —— 它是如何生成的,它的意義是什么 —— 即將變得非常有爭(zhēng)議。我們已經(jīng)被我們擁有的聊天機(jī)器人所迷惑。即將到來的技術(shù)將會(huì)更加普及、強(qiáng)大和不穩(wěn)定。Bender 認(rèn)為,一個(gè)謹(jǐn)慎的公民可能會(huì)選擇知道它是如何工作的。
在 LING 567 課程的授課前一天,Bender在她的白板和書架裝滿書籍的辦公室里會(huì)見了我,這門課程的學(xué)生要為一些不太為人所知的語(yǔ)言創(chuàng)建語(yǔ)法規(guī)則。
她的黑色和紅色斯坦福博士袍掛在辦公室門后的掛鉤上,窗戶旁邊的一個(gè)軟木板上貼著一張寫著“麻煩制造者”的紙。她從書架上拿下一本1860頁(yè)的《劍橋英語(yǔ)語(yǔ)法》,她說如果你對(duì)這本書感到興奮,你就是一名語(yǔ)言學(xué)家。
在高中時(shí)期,她宣稱自己想要學(xué)會(huì)和地球上的每一個(gè)人交談。1992年春季,她在加州大學(xué)伯克利分校的大一課程中注冊(cè)了她的第一門語(yǔ)言學(xué)課程。有一天,為了“研究”,她給當(dāng)時(shí)的男友(現(xiàn)在是她的丈夫)計(jì)算機(jī)科學(xué)家 Vijay Menon 打電話,用與平時(shí)稱呼“親愛的”相同的語(yǔ)調(diào)說“你這個(gè)蠢貨,你好”。他花了一點(diǎn)時(shí)間才從韻律中理解出意義,但他認(rèn)為這個(gè)實(shí)驗(yàn)很可愛(雖然有點(diǎn)討厭)。
我們已經(jīng)學(xué)會(huì)了制造“可以毫不費(fèi)力地生成文本的機(jī)器”。但我們還沒有學(xué)會(huì)如何停止想象它背后的思維。
隨著 Bender 在語(yǔ)言學(xué)領(lǐng)域的成長(zhǎng),計(jì)算機(jī)也在同步發(fā)展。1993年,她同時(shí)修了詞法學(xué)導(dǎo)論和編程導(dǎo)論的課程。(詞法學(xué)是一門研究單詞如何由詞根、前綴等組成的學(xué)問。)有一天,當(dāng)她的助教講解了班圖語(yǔ)的語(yǔ)法分析時(shí), Bender 決定試著為此編寫一個(gè)程序,當(dāng)時(shí)她在校園附近的一家酒吧里,在Menon看籃球比賽的時(shí)候,她用紙筆手寫了程序。回到宿舍后,當(dāng)她輸入代碼,程序奏效了。于是她打印出程序并帶給助教看,但他只是聳了聳肩。
“如果我當(dāng)時(shí)把程序展示給一個(gè)懂計(jì)算語(yǔ)言學(xué)的人,”本德爾說,“他們就會(huì)說,‘嘿,這是一個(gè)好東西?!?/span>
在獲得斯坦福大學(xué)語(yǔ)言學(xué)博士學(xué)位后的幾年里,Bender 保持著一只手在學(xué)術(shù)界,一只手在工業(yè)界。她在伯克利和斯坦福教授語(yǔ)法,并在一家名為 YY Technologies 的初創(chuàng)公司從事語(yǔ)法工程工作。2003年,華盛頓大學(xué)聘請(qǐng)了她,并在2005年開設(shè)了計(jì)算語(yǔ)言學(xué)碩士課程。Bender 進(jìn)入計(jì)算語(yǔ)言學(xué)領(lǐng)域的道路是基于一個(gè)看似顯而易見,但并不被自然語(yǔ)言處理同行普遍認(rèn)同的想法 —— 語(yǔ)言是建立在“人與人交流,共同努力達(dá)成理解”的基礎(chǔ)上的。
在抵達(dá)華盛頓大學(xué)后不久,Bender 開始注意到,即使在由計(jì)算語(yǔ)言學(xué)協(xié)會(huì)等組織主辦的會(huì)議上,人們對(duì)語(yǔ)言學(xué)也知之甚少。于是她開始提出,如“你總想了解,但又不敢問的 —— 關(guān)于語(yǔ)言學(xué)100件事”的教程。
2016年,當(dāng)特朗普競(jìng)選總統(tǒng),并且“黑人命也是命”抗議活動(dòng)充斥街頭的時(shí)候,Bender 決定每天采取一些小的政治行動(dòng)。她開始學(xué)習(xí)并擴(kuò)大黑人女性對(duì)人工智能的批判聲音,包括 Joy Buolamwini(她在麻省理工學(xué)院創(chuàng)立了算法公正聯(lián)盟)和 Meredith Broussard(《人工非智能:計(jì)算機(jī)如何誤解世界》的作者)。
她還公開挑戰(zhàn)了“人工智能”這個(gè)術(shù)語(yǔ)。作為一個(gè)身處男性領(lǐng)域的中年女性,這無疑是讓處于了一個(gè)容易被攻擊的境地。“智能”的概念具有一個(gè)白人至上主義的歷史。
此外,“智能”按什么定義?霍華德·加德納的多元智力理論?還是斯坦福-比奈的智力量表?Bender 特別喜歡一位前意大利議員提出的“人工智能”替代名稱 —— 系統(tǒng)化學(xué)習(xí)算法和機(jī)器推理( Systematic Approaches to Learning Algorithms and Machine Inferences )。然后人們會(huì)問:“這個(gè) SALAMI 聰明嗎?這個(gè) SALAMI 能寫小說嗎?這個(gè)SALAMI 是否應(yīng)該享有人權(quán)?”
2019年,她在一次會(huì)議上舉手發(fā)言,問道:“你在用哪種語(yǔ)言進(jìn)行研究?”這個(gè)問題針對(duì)那些沒有明確說明語(yǔ)言種類的論文,盡管每個(gè)人都知道那是英語(yǔ)。(在語(yǔ)言學(xué)中,這被稱為“威脅面子的問題”,這個(gè)術(shù)語(yǔ)來自于語(yǔ)言學(xué)禮貌研究。它意味著你很粗魯,正在惱人,或者將會(huì)惱人,同時(shí)你的語(yǔ)言會(huì)同時(shí)降低你與你對(duì)話人的地位。)
在語(yǔ)言的形式中承載著一個(gè)錯(cuò)綜復(fù)雜的價(jià)值網(wǎng)絡(luò)。"總是為你所使用的語(yǔ)言命名",現(xiàn)在被稱為“Bender Rule”。
科技制造者假設(shè)他們的現(xiàn)實(shí)準(zhǔn)確地代表世界,這會(huì)導(dǎo)致許多不同的問題。
據(jù)信,ChatGPT的訓(xùn)練數(shù)據(jù)包括維基百科的大部分或全部?jī)?nèi)容、從 Reddit 鏈接的頁(yè)面,以及從互聯(lián)網(wǎng)上獲取的10億個(gè)單詞。(它不能包括斯坦福圖書館中的所有電子書副本,因?yàn)閳D書受版權(quán)法保護(hù)。)
撰寫這些在線文字的人們過度代表了白人、男性和富人。此外,我們都知道互聯(lián)網(wǎng)上存在著大量的種族主義、性別歧視、恐同主義、伊斯蘭恐懼癥、新納粹主義等問題。
科技公司確實(shí)會(huì)花一些功夫來清理它們的模型,通常是由過濾掉包含“臟話、淫穢、下流”等400個(gè)左右,甚至更多的不良詞匯列表中詞語(yǔ)語(yǔ)音塊來實(shí)現(xiàn)。
該列表最初由 Shutterstock 的開發(fā)人員編制,然后上傳到 GitHub 上,以自動(dòng)化解決“我們不想讓人們查看什么?”的問題。OpenAI還外包了所謂的幽靈勞動(dòng)力:包括一些肯尼亞兼職工人(一個(gè)曾經(jīng)的英國(guó)殖民地,人們說英式英語(yǔ)),他們每小時(shí)賺取2美元,閱讀并標(biāo)記最可怕的內(nèi)容 —— 戀童癖、獸交等等,以便將其清除。
但過濾也會(huì)帶來自己的問題。如果你刪除了關(guān)于性的詞語(yǔ)內(nèi)容,你就會(huì)失去關(guān)于這個(gè)群體的聲音。
許多業(yè)內(nèi)人士不想冒風(fēng)險(xiǎn)說話。一名被解雇的谷歌員工告訴我,在科技領(lǐng)域取得成功取決于“對(duì)一切令人不安的事保持沉默?!?/strong>否則,你就成了問題。
Bender 毫不畏懼,并感到一種道德責(zé)任感。她寫信給一些支持她發(fā)出抗議聲音的同事說:“我的意思是,畢竟,終身職位是用來干什么的?”
“章魚”不是 Bender 簡(jiǎn)歷上最著名的假想動(dòng)物,還有一個(gè)“隨機(jī)鸚鵡”。
“Stochastic”意味著隨機(jī)的,由隨機(jī)概率分布決定的?!半S機(jī)鸚鵡”(由 Bender 的創(chuàng)造詞匯)指:用隨機(jī)概率信息將語(yǔ)言形式的序列隨意拼接在一起的實(shí)體,但不涉及任何涵義。2021年3月,Bender 與三位合著者發(fā)表了論文—— 隨機(jī)鸚鵡的危險(xiǎn):語(yǔ)言模型是否太大?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? )。在論文發(fā)表后,兩位女性合著者,失去了谷歌道德人工智能團(tuán)隊(duì)的聯(lián)合領(lǐng)導(dǎo)職位。圍繞此事的爭(zhēng)議鞏固了 Bender 在反對(duì)人工智能狂熱主義方面的地位。
“On the Dangers of Stochastic Parrots”不是一篇原創(chuàng)研究的寫作。它是 Bender 和其他人提出的對(duì)語(yǔ)言模型的綜合批判:包括編碼在模型中的偏見;鑒于訓(xùn)練數(shù)據(jù)可能包含數(shù)十億個(gè)單詞,研究其內(nèi)容幾乎是不可能的;對(duì)氣候的影響;以及構(gòu)建凍結(jié)語(yǔ)言并因此鎖定過去問題的技術(shù)問題。
Google最初批準(zhǔn)了這篇論文,這是員工發(fā)表論文所必需的條件。然后它撤回了批準(zhǔn),并告訴 Google 合著者將自己的名字從論文中去掉。一些人照做了,但 Google AI 倫理學(xué)家 Timnit Gebru 拒絕了。她的同事(也是 Bender 的前學(xué)生)Margaret Mitchell 將她的名字改成了 Shmargaret Shmitchell,意在“索引一件事情和一個(gè)被抹掉的作者組”。Gebru 在 2020 年 12 月失去了工作,Mitchell 在 2021 年 2 月失去了工作。兩位女性認(rèn)為這是報(bào)復(fù),并向媒體講述了自己的故事。
隨著這篇“隨機(jī)鸚鵡”的論文逐漸走紅,至少在學(xué)術(shù)界,它成為了一個(gè)流行詞匯。這個(gè)短語(yǔ)也進(jìn)入了技術(shù)詞匯表。但是它并沒有以 Bender 期待的方式進(jìn)入詞匯表。技術(shù)高管們喜歡這個(gè)詞,程序員們也喜歡。
OpenAI 的CEO Sam Altman 在許多方面是一個(gè)完美聽眾 —— 一個(gè)自認(rèn)為的超理性主義者,過于融入技術(shù)泡沫,似乎已經(jīng)失去了對(duì)外部世界的視角。在 11 月的 AngelList Confidential 上,他說:“我認(rèn)為,再怎么說,核能將給所有人帶來不可避免的毀滅——它的“首秀”(譯注:可能指美國(guó)二戰(zhàn)時(shí)在日本投下核彈)并不是一件好事” 。他也是所謂的“奇點(diǎn)”信徒,即很多科技狂熱者相信,在不久的將來,人類和機(jī)器之間的區(qū)別將會(huì)消失。
在2017年,談到關(guān)于機(jī)器人融合的問題,Altman 說到:“我們已經(jīng)進(jìn)行了幾年了。它可能比大多數(shù)人想象的要早。硬件正以指數(shù)級(jí)別提高……而致力于 AI 研究的人數(shù)也在以指數(shù)級(jí)別增加。雙指數(shù)函數(shù)(的增速)會(huì)很快讓你失去掌控感?!?/span>
在 ChatGPT 發(fā)布四天后的12月4日,Altman 發(fā)推文:“我是一個(gè)隨機(jī)鸚鵡,你也是?!?/span>
這是一個(gè)令人振奮的時(shí)刻。在發(fā)布的五天內(nèi)就有一百萬人注冊(cè)使用 ChatGPT。寫作已經(jīng)結(jié)束了!知識(shí)工作也結(jié)束了!這一切將會(huì)走向何方?“我的意思是,我認(rèn)為最好的情況竟是如此的好,好到難以想象!” Altman 上個(gè)月在 StrictlyVC 活動(dòng)中對(duì)他的同行說道,那噩夢(mèng)般的情景呢?“壞情況,我認(rèn)為也很重要,就像我們所有人都黑屏了?!?Altman 說他“更擔(dān)心短期內(nèi)的意外誤用情況... 不是像 AI 醒來就決定要做惡?!?/span>
他沒有定義“accidental-misuse case”,但這個(gè)術(shù)語(yǔ)通常是指壞人使用人工智能達(dá)到反社會(huì)的目的,比如欺騙我們,這可以說是這種技術(shù)的設(shè)計(jì)目的之一。并不是 Altman 想要承擔(dān)任何個(gè)人責(zé)任,他只是承認(rèn)“誤用”會(huì)是“非常糟糕”的。
Bender 并不認(rèn)為 Altman 的“隨機(jī)鸚鵡”有趣。
我們不是鸚鵡,我們不僅僅是基于概率,隨機(jī)地噴出詞語(yǔ)。她說,“這是一個(gè)非常常見的策略。人們說,‘人們只是隨機(jī)的鸚鵡’?!彼f,“人們非常想相信這些語(yǔ)言模型實(shí)際上是聰明的,他們?cè)敢庖宰约鹤鳛閰⒖键c(diǎn),并貶低自己的價(jià)值以匹配語(yǔ)言模型可以做到?!?/span>
有些人似乎愿意將存在的事物與技術(shù)能做到的事情相匹配,語(yǔ)言學(xué)的基本原則也是如此。Bender 目前的對(duì)手是計(jì)算語(yǔ)言學(xué)家 Christopher Manning,他認(rèn)為語(yǔ)言不需要指向外部世界。Manning 是斯坦福大學(xué)的機(jī)器學(xué)習(xí)、語(yǔ)言學(xué)和計(jì)算機(jī)科學(xué)教授。他所教授的自然語(yǔ)言處理課程從2000年的約40名學(xué)生增長(zhǎng)到去年的500人,到今年的650人,成為校園中最大的課程之一。他還擔(dān)任斯坦福人工智能實(shí)驗(yàn)室的主任,并是 AIX Ventures 的合作伙伴,后者定義自己為“專注于人工智能種子階段的風(fēng)險(xiǎn)投資公司”。學(xué)術(shù)界和工業(yè)界之間的膜層幾乎隨處可見斯,可坦福,這層膜層幾乎不存在,這所學(xué)校與科技公司糾纏在一起,很難分辨學(xué)校和企業(yè)的界限。
“我應(yīng)該仔細(xì)選擇自己的中間立場(chǎng)。”,Manning 在2月下旬說到,“強(qiáng)大的計(jì)算機(jī)科學(xué)和人工智能學(xué)校最終會(huì)與大型科技公司建立緊密的關(guān)系”。Bender 和 Manning 最大的分歧在于意義是如何創(chuàng)建的,這也是章魚論文的主要內(nèi)容。
直到最近,哲學(xué)家和語(yǔ)言學(xué)家一致認(rèn)為 Bender 的看法是正確的:需要有指示物,即那些實(shí)際存在于世界上的事物和概念,如椰子和心碎,才能產(chǎn)生意義。
而 Manning 現(xiàn)在認(rèn)為這個(gè)觀點(diǎn)已經(jīng)過時(shí),認(rèn)為這是“20世紀(jì)語(yǔ)言哲學(xué)的標(biāo)準(zhǔn)立場(chǎng)”?!拔也粫?huì)說這在語(yǔ)義學(xué)上完全無效,但它也是一個(gè)狹窄的立場(chǎng),”他告訴我。他主張“更廣泛的意義”。在最近的一篇論文中,他提出了“分布式語(yǔ)義學(xué)”一詞:“一個(gè)詞的意義只是它出現(xiàn)的上下文的描述?!保墒钱?dāng)我問 Manning 如何定義“意義”時(shí),他說:“說實(shí)話,我認(rèn)為這很困難。”)如果一個(gè)人認(rèn)同分布語(yǔ)義學(xué)理論,那么 LLM(大型語(yǔ)言模型)就不是章魚,隨機(jī)鸚鵡也不僅僅是愚蠢地吐出詞語(yǔ),我們也不需要陷入到“意義映射到世界”這一個(gè)過時(shí)的思維方式。
LLM 處理數(shù)十億個(gè)單詞。這項(xiàng)技術(shù)迎來了他所說的 “一個(gè)相位轉(zhuǎn)移(a phase shift)”。Manning 說:“你知道,人類發(fā)現(xiàn)了金屬加工技術(shù),令人驚嘆,然而過了幾百年,人類又學(xué)會(huì)了如何利用蒸汽動(dòng)力。我們?cè)谡Z(yǔ)言方面也處于類似的時(shí)刻。LLM 足夠革命性,可以改變我們對(duì)語(yǔ)言本身的理解?!保f:“對(duì)我來說,這不是一個(gè)非常正式的論點(diǎn)。這只是一種顯現(xiàn),只是突然降臨?!?/span>
2022年7月,一次大型計(jì)算語(yǔ)言學(xué)會(huì)議的組織者將 Bender 和 Manning 放在同一個(gè)小桌子上,讓現(xiàn)場(chǎng)聽眾可以聆聽他們(有禮貌地)爭(zhēng)辯。他們坐在一個(gè)覆蓋著黑色布料的小桌子前,Bender 穿著紫色毛衣,Manning 穿著三文魚色襯衫,他們輪流拿著麥克風(fēng)回答問題并回應(yīng)對(duì)方,說著“我先說!”,和“我不同意!”。他們不斷爭(zhēng)吵,先是關(guān)于孩子如何學(xué)習(xí)語(yǔ)言的問題。Bender 認(rèn)為他們是在與看護(hù)人建立關(guān)系中學(xué)習(xí)的;曼寧則說學(xué)習(xí)是像 LLM 一樣“自我監(jiān)督”的。
接下來,他們爭(zhēng)論的是溝通本身的重要性。在這里,Bender 引用維特根斯坦的話,并將語(yǔ)言定義為本質(zhì)上是關(guān)系性的,即“至少是一對(duì)交談?wù)吖餐P(guān)注,以達(dá)成某種協(xié)議或近似協(xié)議”,曼寧并不完全認(rèn)同。是的,她承認(rèn)人類確實(shí)通過面部表情表達(dá)情感,并通過像頭部?jī)A斜這樣的肢體語(yǔ)言進(jìn)行交流,但是這些附加信息是“邊際的”。
在會(huì)議接近尾聲時(shí),他們產(chǎn)生了最深層次的分歧,即 —— 這不是語(yǔ)言學(xué)的問題,而是我們?yōu)槭裁匆圃爝@些機(jī)器?它們?yōu)檎l服務(wù)?
“我覺得有太多的努力試圖創(chuàng)建自主機(jī)器,”Bender 說到,“而不是試圖創(chuàng)建對(duì)人類有用的機(jī)器工具。”
在 Manning 參加小組討論幾周后,Bender 戴著一頂流動(dòng)的藍(lán)綠色長(zhǎng)外套和搖晃的章魚耳環(huán)站在多倫多的一個(gè)會(huì)議講臺(tái)上發(fā)表演講。主題是“在人工智能時(shí)代抵制非人化”。這看起來并不像是一個(gè)特別激進(jìn)的議題。Bender 將那個(gè)聽起來平淡無奇的“非人化”定義為“無法完全感知另一個(gè)人的人性,以及遭受那些 —— 表現(xiàn)出對(duì)人性缺乏認(rèn)知的行為與經(jīng)歷”。
隨后她一個(gè)關(guān)于計(jì)算機(jī)隱喻的問題,也是所有科學(xué)中最重要的隱喻之一:即人類大腦是一臺(tái)計(jì)算機(jī),計(jì)算機(jī)是一個(gè)人類大腦。她引用了亞歷克西斯·T·巴里亞(Alexis T. Baria)和基思·克羅斯( Keith Cross)2021年的論文,這種想法為“人類心靈提供了比應(yīng)有的所更少的復(fù)雜性,為計(jì)算機(jī)提供了比應(yīng)有所更多的智慧”。
在 Bender 演講后的問答環(huán)節(jié)中,一個(gè)戴著項(xiàng)鏈,身著黑色 POLO 衫的禿頂男子走到麥克風(fēng)前,闡述了他的擔(dān)憂,“是的,我想問的問題是,為什么你選擇人性化和人類的這種類別,作為你匯集所有這些不同想法的框架。”,這個(gè)人并不認(rèn)為人類是特別的,他說:“聽你的演講,我不禁想,你知道,有些人真的很糟糕,所以被與他們歸為一類并不是那么好。我們是同一種物種,同一種生物類,但誰在乎呢?我的狗挺好的。我很高興和我的狗被歸為一類。”
他想要區(qū)分“在生物范疇上的一個(gè)人類”,和“一個(gè)在道德上值得尊重的人類,或單位”。他承認(rèn),LLM 并不是人類,至少現(xiàn)在還不是,但技術(shù)正在變得越來越好。他問道:“我想知道,為什么你選擇將人類或人性作為思考這些不同事物的框架設(shè)備,你能多講一些嗎?”
Bender 微微向右傾斜,咬著嘴唇傾聽著。她能說些什么呢?她從第一原理進(jìn)行了辯論。“我認(rèn)為任何一個(gè)人只因?yàn)樗侨祟惥蛻?yīng)該得到一定的道德尊重。”,她說,“我們看到很多當(dāng)前世界上的問題都與未將人性授予人類有關(guān)。”,而那個(gè)人并不買賬,繼續(xù)說道,“如果我可以很快地說一下,也許百分之百的人都值得得到一定程度上的道德尊重,而這是不是因?yàn)樗麄冏鳛槿祟愡@一物種存在的意義”
許多科技圈外的人也提出了這一觀點(diǎn)。生態(tài)學(xué)家和動(dòng)物人格權(quán)倡導(dǎo)者認(rèn)為,我們應(yīng)該放棄認(rèn)為自己在種類上如此重要的想法。我們需要更加謙虛地生活。我們需要接受我們是其他生物中的一種,是物質(zhì)中的一種。樹木、河流、鯨魚、原子、礦物質(zhì)、星球 —— 一切都很重要,我們?cè)谶@里不是老板。
但從語(yǔ)言模型,到存在危機(jī)的路程確實(shí)很短。
1966年,創(chuàng)造了第一個(gè)聊天機(jī)器人 ELIZA 的約瑟夫·魏岑鮑姆(Joseph Weizenbaum)在之后的大部分時(shí)間里都為此感到后悔。他在《計(jì)算機(jī)能力與人類理性》(Computer Power and Human Reason)一書中寫道,這項(xiàng)技術(shù)引發(fā)的問題,“基本上是關(guān)于人類在宇宙中的位置問題”。
這些玩具很有趣、迷人且令人上癮,他在47年前就相信這會(huì)是我們的毀滅:“難怪那些與相信自己是奴隸的機(jī)器日復(fù)一日生活在一起的人們也開始相信——自己是機(jī)器?!?/span>
氣候危機(jī)的影響不言而喻。幾十年前,我們就知道了危險(xiǎn),但在資本主義和少數(shù)人的欲望的推動(dòng)下,我們?nèi)匀焕^續(xù)前行。誰不想在周末飛往巴黎或夏威夷,尤其是當(dāng)全世界最好的公關(guān)團(tuán)隊(duì)告訴你這是生活的終極獎(jiǎng)勵(lì)時(shí)?
創(chuàng)建模仿人類的技術(shù)需要我們非常清楚地了解我們是誰。
“從現(xiàn)在開始,安全地使用人工智能需要使人類條件不再神秘化,”柏林赫爾廷學(xué)院(Hertie School of Governance)道德與技術(shù)教授喬安娜·布賴森(Joanna Bryson)去年寫道,如果我們變得更高,就不會(huì)認(rèn)為自己更像長(zhǎng)頸鹿。所以為什么要對(duì)智能模糊不清?
其他人,如哲學(xué)家丹尼特,則更加直接。他稱,我們不能生活在一個(gè)有所謂“偽造人”的世界。
“自從貨幣存在以來,偽造貨幣一直被視為針對(duì)社會(huì)的破壞行為。懲罰包括死刑和四分五裂。而制造偽造人至少同樣嚴(yán)重?!彼a(bǔ)充說,人造人總是比真人少了更多的利益,這使得它們成為無道德行為者:“不是出于形而上學(xué)的原因,而是出于簡(jiǎn)單的物理原因 —— 它們有種永生的感覺?!?/span>
丹尼特認(rèn)為,技術(shù)的創(chuàng)造者需要嚴(yán)格的責(zé)任制,“他們應(yīng)該對(duì)此負(fù)責(zé)。他們應(yīng)該被起訴。他們應(yīng)該公開承認(rèn),如果他們制造的東西被用來制造偽造人,他們將對(duì)此負(fù)責(zé)。如果他們沒有做到這一點(diǎn),他們正處于創(chuàng)建極為嚴(yán)重的,對(duì)穩(wěn)定和社會(huì)安全造成破壞的武器的邊緣。他們應(yīng)該像分子生物學(xué)家對(duì)生物戰(zhàn)爭(zhēng)的前景或原子物理學(xué)家對(duì)核戰(zhàn)爭(zhēng)的前景一樣認(rèn)真對(duì)待這個(gè)問題。”這是真正的危機(jī)。我們需要“建立新的態(tài)度,新的法律,迅速傳播并消除那些欺騙人們、人格化的贊美”,他說?!拔覀冃枰斆鞯臋C(jī)器,而不是人造同事?!?/span>
Bender 制定了自己的一條規(guī)則:“我不會(huì)與那些在談話中不將我的人性作為公理的人交談?!?不模糊界限。我原本認(rèn)為自己不需要制定這樣一條規(guī)則。
“AI 夢(mèng)想中重新出現(xiàn)了一種自戀,我們將證明我們認(rèn)為是獨(dú)特的人類的一切,都可以被機(jī)器完成,并且完成得更好。”,UC伯克利分校的批判理論計(jì)劃創(chuàng)始主任朱迪思·巴特勒(Judith Butler)幫助我解釋了其中涉及的思想, “人類的潛力 —— 是法西斯主義的想法 —— 通過 AI 得到更充分的實(shí)現(xiàn)。AI 夢(mèng)想被“完美主義論”所統(tǒng)治,這就是我們看到的一種法西斯形式。這是技術(shù)接管,從身體中逃離?!?/span>
有些人說,“是的!那不是很棒嗎!”,或“那不是很有趣嗎?!”,讓我們克服我們浪漫的想法,我們的人類中心主義、理想主義,巴特勒補(bǔ)充道,“但是我的言語(yǔ)中生活著什么,我的情感中生活著什么,我的愛情,我的語(yǔ)言中生活著什么,這個(gè)問題被掩蓋了?!?/span>
在 Bender 向我介紹了語(yǔ)言學(xué)基礎(chǔ)的第二天,我參加了她與學(xué)生每周一次的會(huì)議。他們都在攻讀計(jì)算語(yǔ)言學(xué)學(xué)位,他們都看到了正在發(fā)生的事情。有那么多可能性,那么多力量。我們將用它來做什么?
“關(guān)鍵是創(chuàng)建一個(gè)易于接口的工具,因?yàn)槟憧梢允褂米匀徽Z(yǔ)言。而不是試圖讓它看起來像一個(gè)人?!保聋惿住た道拢‥lizabeth Conrad)說。
原文鏈接:https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html
更多內(nèi)容,點(diǎn)擊下方關(guān)注:
未經(jīng)「AI科技評(píng)論」授權(quán),嚴(yán)禁以任何方式在網(wǎng)頁(yè)、論壇、社區(qū)進(jìn)行轉(zhuǎn)載!
公眾號(hào)轉(zhuǎn)載請(qǐng)先在「AI科技評(píng)論」后臺(tái)留言取得授權(quán),轉(zhuǎn)載時(shí)需標(biāo)注來源并插入本公眾號(hào)名片。
雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。