不久前,人工智能系統(tǒng)的專利申請權有了最新動態(tài):上周五,澳大利亞聯(lián)邦法院作了一個裁決,判定人工智能(AI)可以跟人類一樣被認定為發(fā)明家!而在澳大利亞法院頒布這項裁決的前幾天,南非成為第一個授予人工智能專利權的國家,承認人工智能機器人 DABUS 是一個“發(fā)明者”。這是一項具有歷史里程碑意義的判決,因為這是人工智能系統(tǒng)首次在法律上被承認可以作為專利申請的發(fā)明者。此前,法律一直默認:只有人類才可以成為發(fā)明家。DABUS 是一個由美國企業(yè) Imagination Engines 的創(chuàng)始人 Stephen Thaler 所開發(fā)出的人工智能系統(tǒng),一共發(fā)明了兩項新技術,分別是分形食品容器,與能夠引起更大注意力的警示燈。圖注:DABUS 所發(fā)明的分形食品容器,其形狀有利于堆疊與被機械手臂操作圖注:通過特定的模式模仿人類神經(jīng)活動、從而吸引更多注意力的警示燈因為這兩件發(fā)明都是 DABUS “自己的創(chuàng)意”,所以 Stephen Thaler 認為 DABUS 應該被認定為發(fā)明者,而他本人則獲得這兩項技術的專利權。然而,當 Stephen Thaler 在去年向歐盟及十幾個國家的法院提出,要將 DABUS 列為專利的發(fā)明人時,他們遭到了一致拒絕,從而在全球掀起了一場浩大的爭論與法庭大戰(zhàn)。但 Stephen Thaler 與他的法律團隊沒有氣餒,而是一直在努力,希望 DABUS 能夠得到一個它應有的身份,即“發(fā)明家”。如今,他們的訴求終于在南非與澳大利亞得到了肯定,Stephen Thaler 及其團隊都感到非常高興!不過,據(jù) ABC News 報道,Stephen Thaler 表示,對他來說,這從來不是一場官司,而更像是一場“哲學戰(zhàn)爭”,讓人類相信 DABUS 是一個具有令人信服的認知、創(chuàng)造力、感覺和意識的模型,可以像一個有意識的人腦一樣“走路”和“說話”。事件簡介
負責 DABUS 案件的英國律師 Ryan Abbott(同時著有《The Reasonable Robot: Artificial Intelligence and the Law》一書)談道,當他發(fā)現(xiàn)法律采用“雙重標準”評估人工智能的行為與人類的行為時,他就想為人工智能辯護:“比方說,如果一家制藥公司用 AI 系統(tǒng)開發(fā)出一種新的藥物,他們就無法獲得專利;但如果是一個人開發(fā)了一種新的藥物,就可以獲得專利?!?/span>DABUS 的全稱是“device for the autonomous bootstrapping of unified sentience”(統(tǒng)一感知自動引導設備),本質上是一個經(jīng)過編程來獨立進行發(fā)明的計算機系統(tǒng)。從技術上來講,它是一“群”斷開的神經(jīng)網(wǎng)絡,可以不斷地產生“思維過程”與“記憶”;隨著時間的推移,這些思維與記憶會獨立產生新的創(chuàng)造性輸出。自“誕生”以來,DABUS 已獨立發(fā)明了一個分形食品容器與一個能夠引起注意力的警示燈。從2018年10月開始,Stephen Thaler便將這兩項技術的專利發(fā)明人列為 DABUS,將申請?zhí)峤坏搅耸畮讉€國家與歐盟。DABUS 的申請在世界各地的知識產權辦公室和法庭引起了長達數(shù)月的審議。當時,這個法案打到英國最高法院,但被駁回,與美國、歐盟法院的結果相同:由于上述申請的發(fā)明人是人工智能,或被要求變更發(fā)明人,或被拒絕。盡管 Stephen Thaler 向美國專利商標局(USPTO)提交了 Request for Reconsideration,但USPTO 最終還是決定:確認專利申請不能以人工智能作為發(fā)明人。在這番浪潮中,澳大利亞聯(lián)邦法院的法官 Johnathan Beach 是第一個裁定“發(fā)明者…可以是人工智能系統(tǒng)或設備”的人。對于這項裁決,Ryan Abbott 等人十分高興,并表示:“這是一個里程碑式的決定,也是確保澳大利亞能夠最大限度地發(fā)揮人工智能社會效益、并促進創(chuàng)新的重要進展?!?/span>不過,值得注意的是,這項裁決是一個行政決定,不涉及司法考量。但負責該案的另一個律所合伙人 Richard Hamer 認為,隨著國際司法管轄區(qū)繼續(xù)審議這個問題,這份長達 41 頁的綜合判決書肯定會引領風潮。Richard Hamer 還提到:“人工智能輔助(發(fā)明)已經(jīng)被人工智能獨立發(fā)明所替代。這些發(fā)明能夠獲得專利非常重要,因為它們在未來將成為創(chuàng)新的重要組成部分,而專利制度的目的就是為了鼓勵創(chuàng)新…并鼓勵發(fā)明在專利說明書中發(fā)布。”不過,澳大利亞的知識產權局表示,專利委員目前只是正在考慮這一決定,現(xiàn)階段還不會進一步置評。事件評價
Stephen Thaler 的法律團隊表示,他們的目的是測試專利體系的邊界,并推動專利制度的改革。Ryan Abbott 認為,目前的專利制度并不是一項完善的體系,因為隨著技術的進步,我們應該從鼓勵人類發(fā)明事物到鼓勵人工智能發(fā)明事物,因為“在某些領域,比如當需要大量數(shù)據(jù)、或使用非常廣泛的計算資源時,人工智能可能比人類更有發(fā)明事物的優(yōu)勢”。客觀來看,目前的專利制度主要是面向人類發(fā)明者,這阻礙了許多人工智能發(fā)明的專利注冊,也增加了對 AI 投入的不確定性。以西門子為例:2019年,西門子用人工智能開發(fā)了一個新的汽車懸架系統(tǒng),但在申請專利時被駁回,原因是這個系統(tǒng)是 AI 發(fā)明的。而人類工程師又無法把自己列為發(fā)明者,因為他們不能證明自己在發(fā)明的過程中進行了投入,而在美國,如果在申請專利時填了錯誤的發(fā)明者,是要受到處罰的。所以,他們希望,通過這個案例,可以推動專利制度的改革,從而充分鼓勵人們開發(fā)能夠促進社會創(chuàng)新的人工智能。此外,ABC News 的記者 Alexandra Jones 提出一個有趣的觀點:將人工智能列入專利的發(fā)明者,也許有利于促進針對人工智能技術的問責制。因為專利一旦被接受與注冊,就會在公開的登記冊上公布,所有人都可以查詢到有關發(fā)明的詳細信息。盡管 DABUS 的兩項發(fā)明如今看起來很有用,但隨著自主發(fā)明技術變得越來越普遍,AI 肯定有可能開發(fā)出不太有益或可能有害的技術。為此,評論員建議專利局制定通用的指導方針來管理人工智能及其創(chuàng)造的任何發(fā)明。Ryan Abbott 強烈否認人工發(fā)明者或創(chuàng)造者會引起對法人身份的討論,或在法律上將機器與人類同等而論。同樣地,在裁決書中,澳大利亞法官 Johnathan Beach 表示,在討論人工智能時,他會“將意識、感知或個人的看法先放在一邊”。寫在最后
歸根到底,DABUS 案件的核心是如何監(jiān)管現(xiàn)有的、新興的人工智能技術。大多數(shù)人工智能技術是基于機器學習,這意味著 AI 系統(tǒng)實際上是由團隊訓練的,然后系統(tǒng)從人類所提供的數(shù)據(jù)中學習。由于人工智能系統(tǒng)不斷積累“知識”,不會像人類一樣忘記事情,所以 AI 的學習潛力是非常大的。當 AI 在發(fā)展,AI 的產品卻沒有受到法律的保護。比如,2018年,在佳士得拍賣會上,一幅由人工智能系統(tǒng)所生成的藝術品便以超過 60 萬美元的價格被出售。但是,根據(jù)現(xiàn)行法律,AI 所生成的藝術作品并不受版權保護,現(xiàn)有的版權只保護人類原創(chuàng)的藝術品。那么,人工智能機器人被列為專利發(fā)明人,究竟是利大于弊,還是弊大于利?大家怎么看?1. https://www.abc.net.au/news/2021-08-01/historic-decision-allows-ai-to-be-recognised-as-an-inventor/100339264?utm_campaign=news-article-share-2-control&utm_content=twitter&utm_medium=content_shared&utm_source=abc_news_web2. https://www.infopatent.com.cn/news-detail-tonglijunchengzhinengjiqiren.html
贈書福利
AI科技評論本次聯(lián)合【圖靈教育】為大家?guī)?strong>10本《算法(第四版)》正版新書。

AI科技評論將一共選出 10名讀者,每人送出《算法(第四版)》一本。
在2021年8月8日二條文章《贈書 | 看不懂《算法導論》?先讀完豆瓣評分 9.4 的算法入門巨著》留言區(qū)留言,歡迎大家暢所欲言,談一談你對本書的看法和期待。在綜合留言質量(留言是敷衍還是走心)和留言點贊最高(注:點贊最高的前10不意味著一定會中獎)的讀者中選出10位讀者獲得贈書。獲得贈書的讀者請聯(lián)系 AI 科技評論客服(aitechreview)。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)特約稿件,未經(jīng)授權禁止轉載。詳情見轉載須知。