發(fā)布時間:2023-09-18 16:39:15
序言:作為思想的載體和知識的探索者,寫作是一種獨特的藝術,我們?yōu)槟鷾蕚淞瞬煌L格的5篇人工智能的法律規(guī)制,期待它們能激發(fā)您的靈感。
【關鍵詞】人工智能 超級計算力
一、引言
(一)問題提出
人工智能作為下一代技術發(fā)展的趨勢,其方向也是眾多科技界人士關心的問題。很多科學家預言,人工智能不僅僅是人類技術突破的下一個階段,而且更是人工智能的發(fā)展?jié)摿Ρ貙⒊鋈祟惖目刂疲蔀樾乱粋€物種,甚至可能替代人類,“統(tǒng)治”地球,我們抱著研究的目的,來探討人工智能技術發(fā)展的方向與途徑。
人工智能技術的發(fā)展對大多數人而言,是渾然不覺,全無概念的,但是從近年來各大科技公司的戰(zhàn)略與產品上看,人工智能的確已經成為當下科技界爭奪的戰(zhàn)略制高點,蘋果的Siri語音助手,谷歌的無人駕駛等單向的人工智能技術已經非常成熟,而大量的科技公司正在投入巨大的精力與財力進行研究,可以預見,在不久的將來,人工智能技術必將成為人類生產生活領域中廣泛應用的技術之一。而對其進行發(fā)展脈絡和規(guī)律的判斷與估計也是十分必要的,也是順應技術趨勢,推動技術創(chuàng)新的必由之路。
(二)目的與意義
一方面,對于科學研究來說,繁重的科學和工程計算本來是要人腦來承擔的,如今計算機不但能完成這種計算,而且能夠比人腦做得更快、更正確,因此當代人已不再把這種計算看作是“需要人類智能才能完成的復雜任務”,人工智能這門科學的詳細目標也天然跟著時代的變化而發(fā)展。這些創(chuàng)造力以各種數學定理或結論的方式呈現出來,而數學定理最大的特點就是:建立在一些基本的概念和公理上,以模式化的語言方式表達出來的包含豐碩信息的邏輯結構。這種途徑是數學賦予的,是普通人無法擁有但計算機可以擁有的“能力”。從此,計算機不僅精于算,還會因精于算而精于創(chuàng)造。我們可以將這樣的學習方式稱之為“連續(xù)型學習”。本質上,這種方法為人的“創(chuàng)造力”的模式化提供了一種相稱有效的途徑。
另一方面,對于人類的生產生活甚至未來來說,人工智能技術的快速發(fā)展,不僅會在更大程度上解放人的勞動時間與降低工作辛勞程度,使得人們越來越離不開機器的工作,并且每個人的生活方式發(fā)生根本性的轉變,而且,更重要的是,在未來,人類是否會與機器進行深度融合,發(fā)展處全新的生命構造體,以此來迭代和進化,實現人類和機器人的和諧共存,還是人工智能會自動發(fā)展出自我意識,而在將來的某一個時點,機器人們將會對他們的締造者――人類舉起屠刀,實現自己稱霸的野心,這也不得而知,因此,對人工智能的路徑探討是十分必要和有重大意義的。
二、人工智能發(fā)展趨勢
(一)人工智能的準確定位
人工智能(Artificial Intelligence),它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學。 人工智能是計算機科學的一個分支,它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。人工智能從誕生以來,理論和技術日益成熟,應用領域也不斷擴大,可以設想,未來人工智能帶來的科技產品,將會是人類智慧的“容器”。人工智能是對人的意識、思維的信息過程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過人的智能。
(二)人工智能的發(fā)展趨勢研究
1、自我存續(xù)。這是一個十分顯眼的要求,人工智能如果作為一個新物種存在,其必須擁有自我生存的能力,即離開人類,人工智能技術必將仍然存在。而且人工智能將與其他物種和環(huán)境形成新型交流互動方式。以極端的情況來說,如果人類在將來的某一天消失了,而人工智能必須擁有維持自身生存和發(fā)展機制和技術,如果是電量不足,核心機器人將會指揮挖掘型機器再次挖煤,或核能機器人運用核能來發(fā)電,以維持自身的正常運轉,而這一切的工作都是在人工智能的機器內部解決,而并不需要人類的參與,這就是人工智能的自我生存功能。
2、自我迭代更新。這是在自我存續(xù)的基礎之上發(fā)展而來的。一個機器,一代機器的存在可能并不是問題,而要想機器向人類一樣代代繁衍不絕,則對人工智能來說,絕對是一個巨大的障礙。因此,在機器自身的自我繁殖更新迭代,也是必須要進行的過程,這就需要強人工智能的高度運用,來對整個機器人生態(tài)進行實時評估,不斷地提出新的發(fā)展要求,而且立即組織機器人中的“科學家”對其進行研究與探討,實驗與創(chuàng)造,或者是融入生物技術而與之進行基因式的合作,這些都是不確定的,唯一能確定的是,離開人類的獨立人工智能必須要有發(fā)展創(chuàng)造出更新更快更強的人工智能的能力。
3、自我認同。人工智能的自我認同分兩個層面,一方面是對內進行認同,另一方面,是對外進行認同。如果假定人工智能是人類的發(fā)展方向,其必須會對人類關心的終極問題等產生同樣的巨大疑惑,比如我是誰?我從哪里來?要到哪里去?宇宙的界限是什么?而且以人工智能的水平來看,它一定不會停留在思考的層面上,而是會進行各種不同的實驗與探索,已驗證自己的猜想。另一方面,人工智能作為一個以理性而存在的物種,其合作是建立在種種規(guī)章制度之上,而一旦有機器發(fā)現制度的漏洞,就會有進行套利和損人利己的動機,而阻止這種情況的發(fā)生,只能是建立在機器人的情感共同體的基礎之上,即是機器人產生同樣的情感,而形成有效率的合作與分工,而不會因為短期利益犧牲長遠利益。
三、結論
由上述探討可知,人工智能的發(fā)展道路還是非常漫長而艱辛的。對于其是否會取代人類,這個問題要依賴于將來的技術發(fā)展和人類的生命形態(tài)的演變而定,而我們對人工智能進行的物種化探討是非常有必要的,也是對人工智能技術的發(fā)展和對其風險的防控具有借鑒意義的一個環(huán)節(jié),是我們進行科學技術開發(fā)的留有的一個客觀冷靜的分析角度。
參考文獻:
當我們談論人工智能(Artificial Intelligence,AI)時,很大程度上受到源自20世紀想象的影響,例如,直接把人工智能和機器人聯系起來,甚至是人形機器人。這可能也會影響法律人對人工智能的想象,包括是否承認人工智能作為具有自我意識的法律主體地位(或至少是人類行為的人),從而保護其特定權利(言論自由、著作權)、劃定責任(締約、侵權),甚至強調可能的毀滅性風險。這種想象遠非受到科幻作品影響那樣簡單,深層次中還反映出人工智能在技術和應用上不同的發(fā)展路徑:早期人工智能研究更集中于對人腦的仿真模擬,探究意識、理性等更為宏大的哲學問題,但應用性較少;當下的人工智能走出了實驗室,借助互聯網服務直接影響到普通人的生活,在技術上并不執(zhí)著于創(chuàng)造一個完美的智能體,而是依靠算法(如機器學習和神經網絡)不斷優(yōu)化,對海量數據自動挖掘與預測,通過無所不在的傳感器實時更新數據,動態(tài)掌控著人類社會各個方面的運轉,并把從某個特定領域升級為通用人工智能作檳勘輟4誘飧鲆庖逕纖擔人工智能并不神秘,它出現在日常生活中,不僅是工業(yè)社會生產自動化的延續(xù),也是互聯網商業(yè)化的必然結果和新階段。時至今日,歐美國家紛紛出臺政策,推動人工智能發(fā)展,力求提升經濟效率和競爭力。 互聯網公司正逐漸主導實體經濟和金融生產
如果我們擺脫簡單的擬人思維,把人工智能看作互聯網智能演進的新階段,為理解其法律規(guī)則,就有必要理解互聯網法律在過去20年中形成的路徑和推動力,從而探討人工智能是否有任何特殊性以至于需要新的規(guī)則。本文將從網絡法的兩個視角――實證性和生產性――切入,將它們延伸至人工智能語境下分別討論。“實證性”視角是我們觀察和應用任何規(guī)則的慣常思維方式,例如人工智能行為的具體規(guī)則如何確立、如何規(guī)制等,本文將討論支撐人工智能的兩個構成性要素――算法與數據――可能帶來的法律問題,以及法律人處理人工智能的兩種路徑;“生產性”視角則深入規(guī)則背后,探索規(guī)則形成的政治經濟因素,特別是經濟生產方式的內在要求。人工智能本質上是一套復雜的代碼設計,既是影響社會行為的強力規(guī)范,也是產生新價值的生產機制;它驅動整個社會朝向更智能的方向變化,從而要求法律做出相應調整,尤其是確認新型經濟利益的合法性。
限于篇幅,本文姑且將人工智能看成法律上的客體,暫不討論賽博格(cyborg)之類的人體轉向機械體或通過基因技術改變身體的問題(仍是法律上的人),也不討論人工智能作為一種人造物的自我意識問題(一個難以達成共識的哲學問題)。
理解網絡法的變遷
網絡法在中國的變遷大致遵循兩類邏輯:外生性的政治/監(jiān)管邏輯和內生性的商業(yè)邏輯。政治/監(jiān)管邏輯體現為對“實證性規(guī)則”的追求,這些規(guī)則集中在國家(包括法院和監(jiān)管機構)如何對互聯網的內容和行為進行規(guī)制,包括對網絡和信息安全的追尋。這集中反映了國家權力如何試圖介入新技術帶來的問題與挑戰(zhàn)。這一視角最早由美國法學界引出,特別是Lawrence Lessig的代碼理論將代碼(架構)和法律并列。由此,所謂的網絡法不僅要約束社會主體在網絡空間中的行為,也要對架構的變化本身做出回應。
首先,就規(guī)制主體行為而言,出現了是否按照傳統(tǒng)線下行為規(guī)則的思路約束線上行為的討論。這一討論的核心是,互聯網問題是否具有任何特殊性,需要某些新規(guī)來解決。我們已經看到,中國的互聯網行為監(jiān)管在很大程度上延續(xù)了傳統(tǒng)規(guī)則和管理方式,采取漸進的方式,這不僅成本較小,也給予監(jiān)管者一定的學習和探索空間。其次,就架構變化本身而言,國家在宏觀上主張網絡空間中仍然需要,不能成為法外之地,在微觀上相應出現了國家與平臺權力/責任二分的討論。例如,政府權力何時需要介入平臺治理,加強平臺的行政管理責任或安全保障責任,還是由后者根據自身情況自我規(guī)制,實現治理目標。政治/監(jiān)管邏輯要么遵循管理者的路徑依賴效應,要么堅持既有社會穩(wěn)定、意識形態(tài)安全價值。問題在于,監(jiān)管者在多大程度上能夠認識到代碼及其商業(yè)模式的特殊性,從而使監(jiān)管行為和行業(yè)特性相互協調融合。
另一種看待規(guī)則產生的方式遵循商業(yè)邏輯。這種生產性視角關注微觀權力運作,綜合將代碼、法律與社會規(guī)范放在一起,不單純從社會學意義上觀察社會主體行為如何受到影響,而是在政治經濟學意義上將網絡空間的生成和擴散看成是一個由商業(yè)力量推動主導的生產性過程,關注價值由誰產生、如何分配,由此推動對新規(guī)則的內生需求。按照這一視角,無論是法律還是架構,在具有實證性規(guī)制功能的同時,也是一種“生產性規(guī)則”。互聯網的生產模式決定了其對社會范圍內生產資料的創(chuàng)造性生產和再利用,需要法律確認其生產方式的合法性,重塑關鍵法律制度,并解決和傳統(tǒng)生產模式的利益沖突。這一視角無疑幫助厘清新經濟主張的例外特性,不僅展示出架構和相應的法律改變,更指明了背后的政治經濟原因,是更好地理解實證性規(guī)則的基礎。
兩類不同的邏輯在過去20年中交替出現,相互制約,共同塑造了中國網絡法體系,也推動了中國互聯網的整體發(fā)展。總體而言,鑒于國家有意促進新經濟,需要推動傳統(tǒng)的屬地化、分口治理,事后運動治理模式發(fā)生轉變,認清互聯網商業(yè)模式和價值產生的根源,有利探索適應新經濟性質的管理體制。從這個意義上說,信息資本主義不斷要求對法律內核進行改造,取代其中的傳統(tǒng)經濟要素,打破限制生產要素自由流通的各類規(guī)則。
人工智能法律的實證性視角
如前所述,人工智能的本質在于算法和數據處理,物理形體不必然是人工智能的構成要素,因為即使是人形機器人,也不過是一個算法主導的硬件系統(tǒng),它實時收集信息,并按照算法的要求做出決定,繼而行動。更重要的是,具有物理形體的人工智能可以推動群體智能發(fā)展,通過分布式終端收集更多數據加以處理,并不斷傳輸至云端“大腦”,提升整體網絡的智能水平。 人工智能巳深度介入醫(yī)療領域
根據算法的復雜性和學習/運算能力對強人工智能和弱人工智能進行區(qū)分,這在技術認知上沒有問題,但在法律上很難按照智能程度給出精確的標準。法律應對復雜世界的方式是確立一般性的簡單規(guī)則,在概念上對社會個體進行抽象假定(如行為能力),而非針對特殊主體,否則規(guī)則體系本身將變得異常復雜,難于理解和操作。而人工智能從單一的自動化服務向多元通用服務轉變的過程可能是一個相當長的光譜,法律需要針對其本質特征進行約束,并探索一套應對未來的方案。當我們說社會變得越來越智能的時候,事實上指由于數據搜集、儲存和處理的能力不斷增強,所有軟件/算法都可能朝向自動收集數據,做出決定或判斷的趨勢,由于算法的復雜性,算法帶來的結果可能無法預測,并在更大范圍內帶來系統(tǒng)性的不利后果。這種后果未必是毀滅性的風險,甚至只是在某領域的制度設計問題,但人工智能恰好將這類社會問題具象化,掩藏在外表華麗、高效、更多是私人控制的“黑箱”中,就會引發(fā)一系列問題。
如果放在一個更大范圍內觀察,在歷史上,人類社會隨著復雜性的增加,不可避免地產生以組織和技術形態(tài)出現的各類“黑箱”,它們的決定影響著社會發(fā)展和大眾福利,但仍然保持著某種秘密性。這一隱喻未必是陰謀論,其核心問題在于信息不對稱。為平衡相關當事人和社會大眾的知情權、避免恐慌、保持某種預測能力,人們不斷設計出某種程度的信息公開和透明化機制,例如政治辯論的公開化,法院訴訟程序透明化甚至公開庭審,上市公司強制信息披露等等。而人工智能不過是信息技術時代的新型黑箱,帶來更加嚴重的系統(tǒng)化影響。互聯網在興起過程中,通過降低信息成本,推動了開放政府、庭審直播,使信息公開透明更加便利,將生產性資源不斷解放出來,在更大社會范圍內重新配置,產生新價值。然而,這一過程在消除一個又一個傳統(tǒng)黑箱的同時,產生了更為復雜的新黑箱,進而主導整個社會的生產過程。生產資料之間的信息變得越來越對稱,甚至可以實時互通信息,但作為信息匹配中介的人工智能卻變得更不透明,其規(guī)則設計和運作從屬于用戶甚至開發(fā)者無法理解的秘密狀態(tài),這回到了法律如何處理與代碼的關系問題。
一個類似的比較是人類自身:人腦經過上百萬年的進化,演變成十分復雜精致的系統(tǒng)。盡管當代神經科學不斷改變我們對人腦的認知,甚至每個人的大腦都不完全一樣,但就法律而言意義不大,這只能在邊際上改變個案判決。即使無從了解人腦的運轉機制,或者依據某種更加先進的科學知識解釋社會主體行動的具體理由,人類還是有能力形成社會規(guī)范,并演進成更加理性化的規(guī)則。這套規(guī)則只需要假定一般社會主體是(受限)理性的,由少數概念界定不同情形的心理狀態(tài)(故意、過失),并集中對人的外在行為進行約束,確定權利與義務,就足以以簡單規(guī)則應對(而非認識)這一紛繁復雜的世界。類似地,在處理算法的負外部性時,也可以有兩種不同的路徑:(1)關注算法的外部行為與后果,(2)關注算法內部的設計規(guī)則。
大部分現有規(guī)則關注算法導致的(未意料)結果,例如內容分發(fā)算法未經審查造成非法或侵權內容傳播,這一般由信息傳播者(即內容服務商)承擔責任,算法本身并無法律地位,在造成不利后果的過程中只是一個工具。這類責任假定內容服務商應當知道非法內容的存在,并有能力通過算法設計或人力(比如人工審查)加以阻止。在諸多侵權場合,內容服務商可以通過“避風港”規(guī)則免責,只要無法證明它實際知曉狀態(tài)。更復雜的是,如果軟件開發(fā)者聲稱自己無法控制信息的生產和傳播,卻造成一定社會危害的情形。無論是在快播案還是BT案中,軟件開發(fā)者都無法因這一原因而逃脫責任,法院的理由仍然是,開發(fā)者有能力知曉非法內容的輸出(如果不是故意的話,例如快播向推廣該播放器)。類似地,如果一個具有物理形體的人工智能由于處理信息不當造成了外在損害,按照這一邏輯仍應由算法開發(fā)者負責。
而且,還有必要將算法產生的錯誤和算法缺陷本身區(qū)分開。長期以來,軟件行業(yè)一直通過拆封合同(shrink-wrap)解決缺陷軟件造成的短時崩潰或重啟問題,這種格式條款旨在確認這樣一種事實:沒有任何軟件是百分之百完美的,只要在用戶拆封使用該軟件時運行正常即可,服務商并不為軟件崩潰或死機造成的消費者損失負責,因為前者無法預料到缺陷帶來的風險。這就是為什么消費者需要接受軟件生產商不停的更新和補丁,軟件/應用不受產品責任的約束,被視為一種可以不斷升級改進的服務,這在免費軟件時代更是如此。按照這一思路,似乎有理由認為,無人駕駛汽車因算法計算錯誤導致車禍(何況造成事故的概率遠遠小于人類司機的錯誤)是這類軟件的正常的缺陷,消費者應當容忍這類錯誤。但無論是監(jiān)管者還是潛在的受害人都無法接受這種比擬。聲稱有潛在缺陷的交通工具(也包括醫(yī)療設備和其他與生命財產直接相關的算法)一旦投入使用就需要為此造成的后果負責。無論如何,這類思路仍然是通過后果施加事后責任,監(jiān)管者或法院并不想深入算法內部了解造成事故的技術原因是什么。只要法律認定這一黑箱應當在合理范圍內得到控制,事故可以避免,黑箱提供者就應當承擔責任。在這種情況下,保險(甚至是強制險)就成為確保這類發(fā)生概率小但潛在損失巨大的不二選擇,航空、醫(yī)療保險市場十分發(fā)達,可以預見將會延伸至更多由人工智能驅動的服務行業(yè)。 現實與虛擬的界限不斷模糊化
如果說事后救濟還無法確保安全,事前干預算法設計則是另一種選擇,同時帶來的問題也更復雜。早在20世紀,阿西莫夫就試圖為機器人立法,盡管他從未討論技術上的可行性。安全可能是人工智能服務的首要問題之一:一個中心化的入侵可能會導致所有終端都變得極度不安全。行業(yè)監(jiān)管者在不同行業(yè)為特定服務中的人工智能設定安全標準(如醫(yī)療器械、交通工具、自動化武器),實行安全保護等級制度,甚至要求被認定為重要設施的源代碼(如windows系統(tǒng))供監(jiān)管者備案,或在設計自動化交易程序時控制報單頻率的閾值等。又例如,在魏則西事件后,聯合調查組在整改意見中要求落實以信譽度為主要權重的排名算法,對商業(yè)推廣信息逐條加注醒目標識,予以風險提示。如果說這些監(jiān)管手段針對的是作為商業(yè)秘密的私人算法,諸如Open人工智能這樣的倡議則意在延續(xù)開源軟件運動路徑,確保軟件漏洞能夠得到更大范圍內的監(jiān)督和修補。至少在中國,信息披露機制尚未成為算法監(jiān)管的重要手段,無論是強制性披露還是第三方披露。
(作者單位:上海財經大學法學院)
注釋:
[1]當下的大眾媒體、文化產品和社會公共認知正努力將未來的人工智能塑造成具有獨立意識的逐漸演化的主體,這集中體現在諸如《終結者》《我,機器人》《西部世界》《2001銀河漫游》這類科幻影視作品中。盡管人們也有理由進一步想象,一旦人工智能具有了自我意識,就不再可能忠實地為人類服務,而更可能對人類生存構成威脅。其路徑和思維方式仍是20世紀的,和21世紀依托大數據機器學習迥然不同。事實上,按照日本學者森政弘提出的“恐怖谷理論”,人工智能不太可能在短時間內人形普及化,因為這會在消費者心理上引發(fā)不安甚至恐懼。像Siri和Cornata這樣的語音助手、像Tay和小冰這樣的聊天機器人則不會有這種負面效果,因為用戶知道自己在和一個尚未通過圖靈測試的算法對話,他們甚至樂于教Tay在推特上辱罵用戶、發(fā)表種族主義和煽動性的政治言論。另一個可能影響中文世界讀者想象的因素是,把robot翻譯成“機器人”先驗地賦予了這類客體某種擬人化主體地位,而人形機器人(android)卻沒有引起更多的關注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一個更加有用的綜合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究將具有物理形體的機器人作為法律的對象,特別區(qū)分了信息性和物理性效果,見Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一個不同觀點,見Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把機器人視為人在法律上也有相當的歷史,見Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吳軍:《智能時代》,中信出版社2016年版。
[4]例如阿西莫夫的機器人系列小說中,無一例外地設定機器人擁有一個“正子腦”(positronic br人工智能 n),但卻沒有給出任何解釋。見阿西莫夫:《機器人短篇全集》,江蘇文藝出版社2014年版。
[5]這被稱為終極算法(master algorithm),見佩德羅?多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯?卡爾:《玻璃籠子:自動化時代和我們的未來》,中信出版社2015年版。在互聯網發(fā)展的每一個階段都有某種意識形態(tài)化的術語或熱詞吸引投資,例如寬帶、大數據、分享經濟、VR(虛擬現實)等,它們不過是互聯網形態(tài)的各類變種。例如,一個關于分享經濟和之前互聯網經濟的關聯,參見胡凌:《分享經濟的法律規(guī)制》,載《文化縱橫》2015年第4期。
[7]這種思維方式可追溯到霍布斯以來的法律實證主義。
[8]胡凌:《代碼、著作權保護與公共資源池》,載《騰云》2016年12月刊。
[9]關于兩類邏輯的具體表現,集中參見胡凌:《探尋網絡法的政治經濟起源》,上海財經大學出版社2016年版。
[10]這在眾多(特別是國外的)中國互聯網觀察者身上十分常見,人們的注意力全都轉向中國政府如何嚴格管理和控制互聯網。在政治學研究中自然而然地并入“國家與市民社會”傳統(tǒng)框架,并吸納了關于在線抗爭、集體行動的傳播學與社會學研究。
[11]勞倫斯?萊斯格:《代碼2.0》,清華大學出版社2008年版。
[12]一個概述,見胡凌:《馬的法律與網絡法》,載張平主編:《網絡法律評論》2010年第11卷。
[13]胡凌:《非法興起:理解中國互聯網演進的一個框架》,d《文化縱橫》2016年第5期。這體現在版權、隱私、財產、不正當競爭、壟斷、勞動法等一系列制度中。這種對法律制度的改變不單純是在既有工業(yè)生產背景下微型創(chuàng)新帶來的變化,而是社會生產的重塑。
[14]比如說,平臺責任議題的出現,和互聯網平臺更多轉向由第三方提供服務的信息中介模式直接相關。
[15]這一區(qū)分和觀察中國式資本主義興起的框架十分類似,政治經濟學家們爭論的焦點就在于如何解釋中國改革開放三十年的成功經驗,究竟是政府主導還是市場主導,但實質上是一個混合制經濟。
[16]由于科斯所說的企業(yè)信息成本和管理成本降低,調動生產要素的邊際成本趨近于零,企業(yè)組織形態(tài)本身將成為競爭的高成本。
[17]尼克?波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,中信出版社2015年版。
[18]古代的政治過程、現代的企業(yè)決策都是黑箱,對外人而言如果不是神秘,也是除魅之后的國家/商業(yè)秘密。卡夫卡的小說《審判》就精確描述了作為黑箱的訴訟過程,同一時代的韋伯也描述了理性化的國家機器應當像自動售貨機一樣。
[19]Frank Pasquale:《黑箱社:掌控信息和金錢的數據法則》,中信出版社2015年版。
[20]帕伯斯:《差錯:軟件錯誤的致命影響》,人民郵電出版社2012年版。
[21]長久以來民用航空器已經由軟件深度介入駕駛過程,以至于人類駕駛員無法在短時間內預熱,形成另一種風險。
[22]阿西莫夫提出的“機器人三定律”(后來擴展至四點)雖然十分基礎,但仍然很難在具體情況下起作用,特別是當代倫理學上著名的“線車難題”之類的倫理困境。考慮到這些定律是為模擬人腦狀態(tài)下設計的,就更可疑;因為人腦并不總是按某些理性倫理原則行事的,在某些關鍵場合強烈依靠某些默認設置――直覺。
[23]由監(jiān)管機構強制披露并審查事實做不到,只能依靠像蘋果這樣的平臺公司和軟件分發(fā)平臺幫助對成千上萬個軟件進行至少是安全審查。在臺式機時代,這一平臺責任幾乎不可能,自然狀態(tài)下的windows只能導致爭奪私人控制權的3Q大戰(zhàn)。但像烏云網這樣的第三方白帽黑客也被禁止探測和公開互聯網公司的漏洞。
[24]同注11。
[25]在筆者看來,法院應當將注意力放在知情同意的合同條款本身的適當性上,而不是一味接受黑箱的邏輯,因為后者確實無懈可擊。如果格式合同能準確反映代碼的設計,對其條款的審查是更好的選擇。百度引發(fā)的被遺忘權第一案反映的也是這個問題。
[26]一個補救方法還是盡可能地披露算法信息,允許用戶理性地生產/隱瞞個人信息,見戴昕:《自愿披露隱私的規(guī)制》,載蘇力主編:《法律和社會科學》第15卷第1輯,法律出版社2016年版。
[27]法律的人工智能化是本文另一個沒有討論的問題,與此相關的是大規(guī)模監(jiān)控、智能警務、犯罪預測等問題。
關鍵詞:人工智能;創(chuàng)作物;著作權
伴隨著互聯網+時代的到來,人工智能技術發(fā)展也在日趨成熟。2016年3月,引發(fā)社會廣泛關注的人機大戰(zhàn)事件,人工智能Alpha Go與世界圍棋冠軍李世石進行人機大戰(zhàn)并以4-1戰(zhàn)勝李世石,更展現了其的無限發(fā)展?jié)撃堋5珟淼膯栴}是,人工智能創(chuàng)作物能否成為作品享有著作權,從而受到《著作權法》的保護?
一、人工智能的界定及傳統(tǒng)認識
(一)人工智能的定義
人工智能,英文名稱為Artificial Intelligence,縮寫AI。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學①。人工智能源于計算機科學,現已涉及到心理學、哲學和語言學等學科。
(二)對人工智能的傳統(tǒng)認識
按照我國傳統(tǒng)意義上的解釋,人工智能的創(chuàng)作物是不可以構成《著作權法》上的作品的,從而不能得到著作權法的相關保護。作品是指文學、藝術和科學領域內具有獨創(chuàng)性并能以某種有形形式復制的智力成果。②《著作權法》和《實施條例》都要求創(chuàng)作物是具有獨創(chuàng)性的智力成果。而我國對于人工智能創(chuàng)造物傳統(tǒng)的觀點認為,人工智能的創(chuàng)作物不具有獨創(chuàng)性,它只是將計算機內存儲的內容進行匯編整理,沒有任何的創(chuàng)新內容。其次,著作權對于作者的人格屬性也有要求,而人工智能是不能算作法律意義上的“人”,所以人工智能的創(chuàng)作物為非智力成果。
二、國外人工智能著作權的現狀研究
2016年4月,日本知識產權本部宣布在知識產權計劃中納入“人工智能”的相關內容。人工智能技術處于世界前沿的日本,從其立法行為我們可以看出,他們正在通過法律形式,將人工智能的創(chuàng)作物以作品的形式逐漸定下來。旨在人工智能創(chuàng)作物產生爭議時能夠有法可依,同時使得人工智能的既得利益者相關利益能夠得到保護。
此外,日本再其2016年的《知識財產推進計劃》中,明確表示“具有一定市場價值的人工智能創(chuàng)作物亦有可能有必要給予一定的知識產權保護③。”目前,世界上大部分國家還未對人工智能及其創(chuàng)作物的著作權的相關問題進行詳細地探究。但以英國、新西蘭為代表的部分英美法系國家已經認識到自己國家對于人工智能創(chuàng)作物的著作權法律規(guī)制不明確的問題,并試圖從政策和法律上認可人工智能的創(chuàng)作物,這些國家將人工智能的操作者作為人工智能創(chuàng)作物的作者并對其進行保護;而澳大利亞雖然在相關的法律中沒有人工智能創(chuàng)作物的具體規(guī)定,但在政策上,該國已經認可了部分人工智能創(chuàng)作物為作品并享有相應的著作權。
三、人工智能創(chuàng)作物的不同角度分析
其實,僅從創(chuàng)作物的表現形式上是難以對人工智能創(chuàng)作物和人類作品進行區(qū)別的,對音樂、美術等創(chuàng)新性要求不高的作品則更是如此。因此,筆者試圖從利益平衡理論和市場激勵角度兩個方面對是否應認可人工智能創(chuàng)作物的著作權這一問題進行分析。
(一)利益平衡角度分析
著作權法是知識產權法的重要組成部分,知識產權的核心原則就是利益平衡原則。著作權法是對作品產生的利益進行分配的法律,調整著傳播者、著作權人與社會公眾之間的,原作者與演繹作者之間的利益關系。
如果不給予人工智能創(chuàng)作物以著作權的保護,則可能導致不受著作權法保護的人工智能創(chuàng)作物大量涌入市場,而這些創(chuàng)作物和一般的人類作品并沒有實際的區(qū)別。一旦大量投入市場這一公共領域當中,由于人工智能作品并不受到著作權法的保護,用戶就不需要支付任何費用而對“人工智能作品”進行使用,那這些創(chuàng)作物的價值將無限趨向于零,除非一些高度原創(chuàng)性的作品或依賴作者聲譽的作品,這無疑是對人工智能及其創(chuàng)作者利益的一種嚴重侵害,而經過精密設計的利益分配體系將會失去應有的平衡,這明顯是有違利益平衡原則的。
(二)從市場激勵角度分析
從市場激勵機制的角度來說,如果對人工智能創(chuàng)作授予著作權保護,這就意味著市場中受到著作權保護的人工智能作品的供應量將會大幅度增加。而考慮到人工智能的低成本和高效率的特點,在市場總需求保持不變的前提下,人類作品的定價能力和競爭能力在市場上將被大大的削弱,從而使人類作者進行創(chuàng)作的經濟性動力逐漸下降。人工智能創(chuàng)作物的產生實際上是從作品的供給端沖擊了著作權制度原有的架構,也就是說,原始投入到市場中的作品數量將由于人工智能技術的發(fā)展而變得龐大。
如果不賦予人工智能作品著作權,那么人類作品市場吸引力和流動性就不會喪失,以人類作品形成的發(fā)行、復制和傳播為經濟鏈的著作權市場將會依舊繁榮。但是,人類作品競爭力卻得不到應有的提升,市場對于整個作品行業(yè)的創(chuàng)新激勵機制明顯不足,這實際上并不利于作品行業(yè)的進步。
四、立法保護的建議
如果立法對人工智能創(chuàng)作物進行保護,那人工智能作品的著作權歸屬問題、著作權保護期限以及權利內容等也有待進一步探討。從目前的實踐來看,人工智能作品的著作權多被授予該人工智能的操作者,筆者在此不做具體分析。
但應納入立法者考慮范圍的是,如何保持人類創(chuàng)作的作品與人工智能的創(chuàng)作物在市場中保持既競爭又共存的局面?所以,筆者認為《著作權法》中有關作品創(chuàng)新性的標準需要提高,界以達到人工智能作品與人類作品的利益平衡。此外,《反不正當競爭法》中也應增加人工智能的相應部分,以規(guī)制市場中存在的惡意競爭等行為。
五、結束語
筆者認為,我們不能簡單地從創(chuàng)作物的獨創(chuàng)性和人身屬性這兩個方面來判斷人工智能創(chuàng)作物是否應該獲得著作權的保護。人工智能的創(chuàng)作物作為一種新形式的“作品”被接受,其相關市場經濟效應和是否有利于著作權作品行業(yè)的可持續(xù)發(fā)展也應被納入考慮范圍。
基于利益平衡原則和市場分析,筆者認為,認同人工智能創(chuàng)作物為作品,并通過《著作權法》等法律對其加以合理的保護對于市場經濟的發(fā)展利大于弊,有利于促進我國人工智能技術的發(fā)展和法制建設的完善。
注釋:
① http:///wiki/人工智能.2016年10月18日訪問.
② 引自2013修訂的《中華人民共和國著作權法實施條例》第二條.
③ 曹源.人工智能創(chuàng)作物獲得版權保護的合理性[J].科技與法律,2016年第三期.
參考文獻:
[1] 曹源.人工智能創(chuàng)作物獲得版權保護的合理性[J].科技與法律,2016年第3期.
[2] 馮曉青.著作權法的利益平衡理論研究[J].湖南大學學報:社會科學版,2008年.
2017年7月,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,不僅對人工智能的發(fā)展做出了戰(zhàn)略性部署,還確立了“三步走”的政策目標,力爭到2030年將我國建設成為世界主要的人工智能創(chuàng)新中心。[1]值得注意的是,此次規(guī)劃不僅僅只是技術或產業(yè)發(fā)展規(guī)劃,還同時包括了社會建設、制度重構、全球治理等方方面面的內容。之所以如此,是由于人工智能技術本身具有通用性和基礎性。換句話說,為助推人工智能時代的崛起,我們面對的任務不是實現某一個專業(yè)領域或產業(yè)領域內的顛覆性技術突破,而是大力推動源于技術發(fā)展而引發(fā)的綜合性變革。
也正因為如此,人工智能發(fā)展進程中所面臨的挑戰(zhàn)才不僅僅局限于技術或產業(yè)領域,而更多體現在經濟、社會、政治領域的公共政策選擇上。首先,普遍建立在科層制基礎上的公共事務治理結構,是否能夠適應技術發(fā)展和應用過程中所大規(guī)模激發(fā)的不確定性和不可預知性?再者,長久以來圍繞人類行為的規(guī)制制度,是否同樣能夠適應以數據、算法為主體的應用環(huán)境?最后,如何構建新的治理體系和治理工具來應對伴隨人工智能發(fā)展而興起的新的經濟、社會、政治問題?
應對上述挑戰(zhàn)并不完全取決于技術發(fā)展或商業(yè)創(chuàng)新本身,而更多依賴于我們的公共政策選擇。本文試圖在分析人工智能發(fā)展邏輯及其所引發(fā)的風險挑戰(zhàn)的基礎上,對人工智能時代的公共政策選擇做出分析,并討論未來改革的可能路徑,這也就構成了人工智能治理的三個基本問題。具體而言,人工智能本身成為治理對象,其發(fā)展與應用構成了治理挑戰(zhàn),而在此基礎上如何做出公共政策選擇便是未來治理變革的方向。
全文共分為四個部分:第一部分將探討人工智能的概念及特征,并進而對其發(fā)展邏輯進行闡述。作為一項顛覆性技術創(chuàng)新,其本身的技術門檻對決策者而言構成了挑戰(zhàn),梳理并捋清人工智能的本質內涵因而成為制定相關公共政策的前提;第二部分將著重分析人工智能時代崛起所帶來的治理挑戰(zhàn),主要包括三個方面,即傳統(tǒng)科層治理結構應對人工智能新的生產模式的滯后性、建基于行為因果關系之上的傳統(tǒng)治理邏輯應對人工智能新主體的不適用性,以及人工智能發(fā)展所引發(fā)的新議題的治理空白;面對上述挑戰(zhàn),各國都出臺了相關政策,本文第三部分對此進行了綜述性對比分析,并指出了其進步意義所在。需要指出的是,盡管各國的政策目標都試圖追求人工智能發(fā)展與監(jiān)管的二維平衡,但由于缺乏對人工智能內涵及其發(fā)展邏輯的完整認識,當前的公共政策選擇有失綜合性;本文第四部分將提出新的治理思路以及公共政策選擇的其他可能路徑,以推動圍繞人工智能治理的相關公共政策議題的深入討論。
一、人工智能的概念及技術發(fā)展邏輯:算法與數據
伴隨著人工智能技術的快速發(fā)展,尤其是其近年來在棋類對弈、自動駕駛、人臉識別等領域的廣泛應用,圍繞人工智能所可能引發(fā)的社會變革產生了激烈爭論。在一方面,以霍金[2]、馬斯克[3]、比爾-蓋茨[4]、赫拉利[5]為代表的諸多人士呼吁加強監(jiān)管,警惕“人工智能成為人類文明史的終結”;在另一方面,包括奧巴馬[6]在內的政治家、學者又認為應該放松監(jiān)管,充分釋放人工智能的技術潛力以造福社會。未來發(fā)展的不確定性固然是引發(fā)當前爭論的重要原因之一,但圍繞“人工智能”概念內涵理解的不同,以及對其發(fā)展邏輯認識的不清晰,可能也同樣嚴重地加劇了人們的分歧。正因為此,廓清人工智能的概念內涵和發(fā)展邏輯不僅是回應爭論的需要,也是進一步提出公共政策建議的前提。
就相關研究領域而言,人們對于“人工智能”這一概念的定義并未形成普遍共識。計算機領域的先驅阿蘭-圖靈曾在《計算機器與智能》一文中提出,重要的不是機器模仿人類思維過程的能力,而是機器重復人類思維外在表現行為的能力。[7]正是由此理解出發(fā),著名的“圖靈測試”方案被提出。但如同斯坦福大學計算機系教授約翰·麥卡錫所指出的,“圖靈測試”僅僅只是“人工智能”概念的一部分,不模仿人類但同時也能完成相關行為的機器同樣應被視為“智能”的。[8]事實上,約翰·麥卡錫正是現代人工智能概念的提出者。在他看來,“智能”關乎完成某種目標的行為“機制”,而機器既可以通過模仿人來實現行為機制,也可以自由地使用任何辦法來創(chuàng)造行為機制。[9]由此,我們便得到了人工智能領域另一個非常重要的概念——“機器學習”。
人工智能研究的目標是使機器達到人類級別的智能能力,而其中最重要的便是學習能力。[10]因此,盡管“機器學習”是“人工智能”的子域,但很多時候我們都將這兩個概念等同起來。[11]就實現過程而言,機器學習是指利用某些算法指導計算機利用已知數據得出適當模型,并利用此模型對新的情境給出判斷,從而完成行為機制的過程。此處需要強調一下機器學習算法與傳統(tǒng)算法的差異。算法本質上就是一系列指令,告訴計算機該做什么。對于傳統(tǒng)算法而言,其往往事無巨細地規(guī)定好了機器在既定條件下的既定動作;機器學習算法卻是通過對已有數據的“學習”,使機器能夠在與歷史數據不同的新情境下做出判斷。以機器人行走的實現為例,傳統(tǒng)算法下,程序員要仔細規(guī)定好機器人在既定環(huán)境下每一個動作的實現流程;而機器學習算法下,程序員要做的則是使計算機分析并模擬人類的行走動作,以使其即使在完全陌生的環(huán)境中也能實現行走。
由此,我們可以對“人工智能”設定一個“工作定義”以方便進一步的討論:人工智能是建立在現代算法基礎上,以歷史數據為支撐,而形成的具有感知、推理、學習、決策等思維活動并能夠按照一定目標完成相應行為的計算系統(tǒng)。這一概念盡管可能仍不完善,但它突出了人工智能技術發(fā)展和應用的兩大基石——算法與數據,有助于討論人工智能的治理問題。
首先,算法即是規(guī)則,它不僅確立了機器所試圖實現的目標,同時也指出了實現目標的路徑與方法。就人工智能當前的技術發(fā)展史而言,算法主要可被劃分為五個類別:符號學派、聯接學派、進化學派、類推學派和貝葉斯學派。[12]每個學派都遵循不同的邏輯、以不同的理念實現了人工智能(也即“機器學習”)的過程。舉例而言,“符號學派”將所有的信息處理簡化為對符號的操縱,由此學習過程被簡化(抽象)為基于數據和假設的規(guī)則歸納過程。在數據(即歷史事實)和已有知識(即預先設定的條件)的基礎上,符號學派通過“提出假設-數據驗證-進一步提出新假設-歸納新規(guī)則”的過程來訓練機器的學習能力,并由此實現在新環(huán)境下的決策判斷。
從對“符號學派”的描述中可以發(fā)現,機器學習模型成功的關鍵不僅是算法,還有數據。數據的缺失和預設條件的不合理將直接影響機器學習的輸出(就符號學派而言,即決策規(guī)則的歸納)。最明顯體現這一問題的例子便是羅素的“歸納主義者火雞”問題:火雞在觀察10天(數據集不完整)之后得出結論(代表預設條件不合理,超過10個確認數據即接受規(guī)則),主人會在每天早上9點給它喂食;但接下來是平安夜的早餐,主人沒有喂它而是宰了它。
所有算法類型盡管理念不同,但模型成功的關鍵都聚焦于“算法”和“數據”。事實上,如果跳出具體學派的思維束縛,每種機器學習算法都可被概括為“表示方法、評估、優(yōu)化”這三個部分。[13]盡管機器可以不斷的自我優(yōu)化以提升學習能力,且原則上可以學習任何東西,但評估的方法和原則(算法)以及用以評估的數據(數據)都是人為決定的——而這也正是人工智能治理的關鍵所在。算法與數據不僅是人工智能發(fā)展邏輯的基石,其同樣是治理的對象和關鍵。
總而言之,圍繞“人工智能是否會取代人類”的爭論事實上并無太大意義,更重要的反而是在廓清人工智能的內涵并理解其發(fā)展邏輯之后,回答“治理什么”和“如何治理”的問題。就此而言,明確治理對象為算法和數據無疑是重要的一步。但接下來的重要問題仍然在于,人工智能時代的崛起所帶來的治理挑戰(zhàn)究竟是什么?當前的制度設計是否能夠對其做出有效應對?如果答案是否定的,我們又該如何重構治理體系以迎接人工智能時代的崛起?本文余下部分將對此做進一步的闡述。
二、人工智能時代崛起的治理挑戰(zhàn)
不同于其他顛覆性技術,人工智能的發(fā)展并不局限于某一特定產業(yè),而是能夠支撐所有產業(yè)變革的通用型技術。也正因為此,其具有廣泛的社會溢出效應,在政治、經濟、社會等各個領域都會帶來深刻變革,并將同時引發(fā)治理方面的挑戰(zhàn)。具體而言,挑戰(zhàn)主要體現在以下三個方面。
首先,治理結構的僵化性,即傳統(tǒng)的科層制治理結構可能難以應對人工智能快速發(fā)展而形成的開放性和不確定性。之所以需要對人工智能加以監(jiān)管,原因在于其可能成為公共危險的源頭,例如當自動駕駛技術普及之后,一旦出現問題,便可能導致大規(guī)模的連續(xù)性傷害。但不同機、大型水壩、原子核科技等二十世紀的公共危險源,人工智能的發(fā)展具有極強的開放性,任何一個程序員或公司都可以毫無門檻的進行人工智能程序的開發(fā)與應用。這一方面是由于互聯網時代的到來,使得基于代碼的生產門檻被大大降低[14];另一方面,這也是人工智能本身發(fā)展規(guī)律的需要。正如前文所提到,唯有大規(guī)模的數據輸入才可能得到較好的機器學習結果,因此將人工智能的平臺(也即算法)以開源形式公開出來,以使更多的人在不同場景之下加以利用并由此吸收更多、更完備的數據以完善算法本身,就成為了大多數人工智能公司的必然選擇。與此同時,人工智能生產模式的開放性也必然帶來發(fā)展的不確定性,在缺乏有效約束或引導的情況下,人工智能的發(fā)展很可能走向歧途。面對這一新形勢,傳統(tǒng)的、基于科層制的治理結構顯然難以做出有效應對。一方面,政府試圖全范圍覆蓋的事前監(jiān)管已經成為不可能,開放的人工智能生產網絡使得監(jiān)管機構幾乎找不到監(jiān)管對象;另一方面,由上至下的權威結構既不能傳遞給生產者,信息不對稱問題的加劇還可能導致監(jiān)管行為走向反面。調整治理結構與治理邏輯,并形成適應具有開放性、不確定性特征的人工智能生產模式,是當前面臨的治理挑戰(zhàn)之一。
再者,治理方法的滯后性,即長久以來建立在人類行為因果關系基礎上的法律規(guī)制體系,可能難以適用于以算法、數據為主體的應用環(huán)境。人工智能的價值并不在于模仿人類行為,而是其具備自主的學習和決策能力;正因為如此,人工智能技術才不能簡單地理解為其創(chuàng)造者(即人)意志的表達。程序員給出的只是學習規(guī)則,但真正做出決策的是基于大規(guī)模數據訓練后的算法本身,而這一結果與程序員的意志并無直接因果關聯。事實上也正由于這個特點,AlphaGo才可能連續(xù)擊敗圍棋冠軍,而其設計者卻并非圍棋頂尖大師。也正是在這個意義上,我們才回到了福柯所言的“技術的主體性”概念。在他看來,“技術并不僅僅是工具,或者不僅僅是達到目的的手段;相反,其是政治行動者,手段與目的密不可分”。[15]就此而言,長久以來通過探究行為與后果之因果關系來規(guī)范人的行為的法律規(guī)制體系,便可能遭遇窘境:如果將人工智能所造成的侵權行為歸咎于其設計者,無疑不具有說服力;但如果要歸咎于人工智能本身,我們又該如何問責一個機器呢?由此,如何應對以算法、數據為核心的技術主體所帶來的公共責任分配問題,是當前面臨的第二個治理挑戰(zhàn)。
最后,治理范圍的狹隘性,即對于受人工智能發(fā)展沖擊而引發(fā)的新的社會議題,需要構建新的治理體系和發(fā)展新的治理工具。人工智能發(fā)展所引發(fā)的治理挑戰(zhàn)不僅僅體現在現有體系的不適應上,同時還有新議題所面臨的治理空白問題。具體而言,這又主要包括以下議題:算法是否能夠享有言論自由的憲法保護,數據的權屬關系究竟如何界定,如何緩解人工智能所可能加劇的不平等現象,以及如何平衡人工智能的發(fā)展與失業(yè)問題。在人工智能時代之前,上述問題并不存在,或者說并不突出;但伴隨著人工智能的快速發(fā)展和應用普及,它們的重要性便日漸顯著。以最為人所關注的失業(yè)問題為例,就技術可能性來說,人工智能和機器人的廣泛應用代替人工勞動,已是一個不可否定的事實了。無論是新聞記者,還是股市分析員,甚至是法律工作者,其都有可能為機器所取代。在一個“充分自動化(Full Automation)”的世界中,如何重新認識勞動與福利保障的關系、重構勞動和福利保障制度,便成為最迫切需要解決的治理挑戰(zhàn)之一。[16]
上述三方面共同構成了人工智能時代崛起所帶來的治理挑戰(zhàn)。面對這些挑戰(zhàn),各國也做出了相應的公共政策選擇。本文第三部分將對各國人工智能的治理政策進行對比性分析。在此基礎上,第四部分將提出本文的政策建議。
三、各國人工智能治理政策及監(jiān)管路徑綜述
人工智能時代的崛起作為一種普遍現象,其所引發(fā)的治理挑戰(zhàn)是各國面臨的共同問題,各國也陸續(xù)出臺了相關公共政策以試圖推動并規(guī)范人工智能的快速發(fā)展。
美國于2016年同時頒布了《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》和《為人工智能的未來做好準備》兩個國家級政策框架,前者側重從技術角度指出美國人工智能戰(zhàn)略的目的、愿景和重點方向,而后者則更多從治理角度探討政府在促進創(chuàng)新、保障公共安全方面所應扮演的角色和作用。就具體的監(jiān)管政策而言,《為人工智能的未來做好準備》提出了一般性的應對方法,強調基于風險評估和成本-收益考量的原則以決定是否對人工智能技術的研發(fā)與應用施以監(jiān)管負擔。[17]日本同樣于2016年出臺了《第五期(2016~2020年度)科學技術基本計劃》,提出了“超智能社會5.0”的概念,強調通過推動數據標準化、建設社會服務平臺、協調發(fā)展多領域智能系統(tǒng)等各方面工作促進人工智能的發(fā)展和應用。[18]
盡管美國和日本的政策著力點不同,但其共有的特點是對人工智能的發(fā)展及其所引發(fā)的挑戰(zhàn)持普遍的包容與開放態(tài)度。就當前的政策框架而言,美日兩國的政策目標更傾斜于推動技術創(chuàng)新、保持其國家競爭力的優(yōu)勢地位;當涉及對人工智能所可能引發(fā)的公共問題施以監(jiān)管時,其政策選擇也更傾向于遵循“無需批準式(permissionless)”的監(jiān)管邏輯,即強調除非有充分案例證明其危害性,新技術和新商業(yè)模式默認為都是被允許的。[19]至于人工智能的發(fā)展對個人數據隱私、社會公共安全的潛在威脅,盡管兩國的政策框架都有所涉及,卻并非其政策重心——相比之下,英國、法國則采取了不同的政策路徑。
英國政府2016年了《人工智能:未來決策制定的機遇與影響》,對人工智能的變革性影響以及如何利用人工智能做出了闡述與規(guī)劃,尤其關注到了人工智能發(fā)展所帶來的法律和倫理風險。在該報告中,英國政府強調了機器學習與個人數據相結合而對個人自由及隱私等基本權利所帶來的影響,明確了對使用人工智能所制定出的決策采用問責的概念和機制,并同時在算法透明度、算法一致性、風險分配等具體政策方面做出了規(guī)定。[20]與英國類似,法國在2017年的《人工智能戰(zhàn)略》中延續(xù)了其在2006年通過的《信息社會法案》的立法精神,同樣強調加強對新技術的“共同調控”,以在享有技術發(fā)展所帶來的福利改進的同時,充分保護個人權利和公共利益。[21]與美日相比,英法的公共政策更偏向于“審慎監(jiān)管(precautionary)”的政策邏輯,即強調新技術或新的商業(yè)模式只有在開發(fā)者證明其無害的前提下才被允許使用。[22]
在本文看來,無論是“無需批準式監(jiān)管”還是“審慎監(jiān)管”,在應對人工智能時代崛起所帶來的治理挑戰(zhàn)方面都有其可取之處:前者側重于推動創(chuàng)新,而后者則因重視安全而更顯穩(wěn)健。但需要指出的是,這兩種監(jiān)管路徑的不足卻也十分明顯。正如前文第二部分所指出,一方面,快速迭代的技術發(fā)展與商業(yè)模式創(chuàng)新必將引發(fā)新的社會議題,無論是算法是否受到言論自由的權利保護還是普遍失業(yè)對社會形成的挑戰(zhàn),它們都在客觀上要求公共政策做出應對,而非片面的“無需批準式監(jiān)管”能夠處理。更重要的是,“無需批準式監(jiān)管”的潛在假設是事后監(jiān)管的有效性;然而,在事實上,正如2010年5月6日美國道瓊斯工業(yè)指數“瞬間崩盤”事件所揭示的,即使單個電子交易程序合規(guī)運行,當各個系統(tǒng)行為聚合在一起時反而卻造成了更大的危機。[23]在此種情形下,依賴于合規(guī)性判斷的“事后監(jiān)管”基本上難以有效實施。另一方面,人工智能本身的自主性和主體性使得建立在人類行為因果關系基礎上的“審慎監(jiān)管”邏輯存在天然缺陷:既然人類無法預知人工智能系統(tǒng)可能的行為或決策,開發(fā)者又如何證明人工智能系統(tǒng)的無害性?
正如本文所反復強調的,人工智能與其他革命性技術的不同之處,正是在于其所帶來的社會沖擊的綜合性和基礎性。人工智能并非單個領域、單個產業(yè)的技術突破,而是對于社會運行狀態(tài)的根本性變革;人工智能時代的崛起也并非一夜之功,而是建立在計算機革命、互聯網革命直至數字革命基礎上的“奇點”變革。因此,面對人工智能時代崛起所帶來的治理挑戰(zhàn),我們同樣應該制定綜合性的公共政策框架,而非僅僅沿襲傳統(tǒng)治理邏輯,例如只是針對具體議題在“創(chuàng)新”與“安全”這個二元維度下進行艱難選擇。本文在第四部分從承認技術的主體性、重構社會治理制度、推進人工智能全球治理這三方面提出了政策建議,并希望以此推動更深入地圍繞人工智能時代公共政策選擇的研究與討論。
四、人工智能時代的公共政策選擇
《新一代人工智能發(fā)展規(guī)劃》明確提出了到2030年我國人工智能發(fā)展的“三步走”目標,而在每一個階段,人工智能法律法規(guī)、倫理規(guī)范和政策體系的逐步建立與完善都是必不可少的重要內容。面對人工智能時代崛起的治理挑戰(zhàn),究竟應該如何重構治理體系、創(chuàng)新治理機制、發(fā)展治理工具,是擺在決策者面前的重要難題。本文基于對人工智能基本概念和發(fā)展邏輯的梳理分析,結合各國已有政策的對比分析,提出以下三方面的改革思路,以為人工智能時代的公共選擇提供參考。
第一,人工智能發(fā)展的基石是算法與數據,建立并完善圍繞算法和數據的治理體系與治理機制,是人工智能時代公共政策選擇的首要命題,也是應對治理挑戰(zhàn)、賦予算法和數據以主體性的必然要求。(1)就算法治理而言,涉及的核心議題是算法的制定權及相應的監(jiān)督程序問題。算法作為人工智能時代的主要規(guī)則,究竟誰有權并通過何種程序來加以制定,誰來對其進行監(jiān)督且又如何監(jiān)督?長久以來公眾針對社交媒體臉書(Facebook)的質疑正體現了這一問題的重要性:公眾如何相信臉書向用戶自動推薦的新聞內容不會摻雜特殊利益的取向?[24]當越來越多的人依賴定制化的新聞推送時,人工智能甚至會影響到總統(tǒng)選舉。也正因為此,包括透明要求、開源要求在內的諸多治理原則,應當被納入到算法治理相關議題的考慮之中。(2)就數據治理而言,伴隨著人工智能越來越多地依賴于大規(guī)模數據的收集與利用,個人隱私的保護、數據價值的分配、數據安全等相關議題也必將成為公共政策的焦點。如何平衡不同價值需求、規(guī)范數據的分享與應用,也同樣成為人工智能時代公共政策選擇的另一重要抓手。
第二,創(chuàng)新社會治理制度,進一步完善社會保障體系,在最大程度上緩解人工智能發(fā)展所可能帶來的不確定性沖擊。與歷史上的技術革命類似,人工智能的發(fā)展同樣會導致利益的分化與重構,而如何保證技術革命成本的承受者得到最大限度的彌補并使所有人都享有技術發(fā)展的“獲得感”,不僅是社會發(fā)展公平、正義的必然要求,也是促進技術革命更快完成的催化劑。就此而言,在人工智能相關公共政策的考量中,我們不僅應該關注產業(yè)和經濟政策,同時也應該關注社會政策,因為只有后者的完善才能夠控制工人或企業(yè)家所承擔的風險,并幫助他們判斷是否支持或抵制變革的發(fā)生。就具體的政策設計來說,為緩解人工智能所可能帶來的失業(yè)潮,基本收入制度的普遍建立可能應該被提上討論議程了。“基本收入”是指政治共同體(如國家)向所有成員不加任何限制條件地支付一定數額的收入,以滿足其基本生活的需求。盡管存在“養(yǎng)懶漢”的質疑,但有研究者已指出,自18世紀就開始構想的基本收入制度很有可能反過來促進就業(yè)。[25]芬蘭政府已經于2017年初開始了相關實驗,美國的一些州、瑞士也做出了一定探索。在人工智能時代尚未完全展現其“猙容”之前,創(chuàng)新社會治理機制、完善社會保障體系,可能是平衡技術創(chuàng)新與社會風險的最佳路徑。
第三,構建人工智能全球治理機制,以多種形式促進人工智能重大國際共性問題的解決,共同應對開放性人工智能生產模式的全球性挑戰(zhàn)。人工智能的發(fā)展具有開放性和不確定性的特征,生產門檻的降低使得人工智能技術研發(fā)的跨國流動性很強,相關標準的制定、開放平臺的搭建、共享合作框架的形成,無不要求構建相應的全球治理機制。另一方面,跨境數據流動在廣度和深度上的快速發(fā)展成為了人工智能技術進步的直接推動力,但各國數據規(guī)制制度的巨大差異在制約跨境數據流動進一步發(fā)展的同時,也將影響人工智能時代的全面到來。[26]故此,創(chuàng)新全球治理機制,在承認各國制度差異的前提下尋找合作共享的可能性,便成為人工智能時代公共政策選擇的重要考量之一。就具體的機制設計而言,可以在人工智能全球治理機制的構建中引入多利益相關模式;另一方面,為防止巨頭壟斷的形成,充分發(fā)揮主權國家作用的多邊主義模式同樣不可忽視。作為影響深遠的基礎性技術變革,互聯網全球治理機制的經驗和教訓值得人工智能發(fā)展所借鑒。
上述三方面從整體上對人工智能時代的公共政策框架做出了闡述。與傳統(tǒng)政策局限于“創(chuàng)新”與“安全”之間做出二維選擇不同,本文以更綜合的視角提出了未來公共政策選擇的可能路徑。就其內在聯系來講,建立并完善圍繞算法和數據的治理體系是起點,其將重構人工智能時代的規(guī)則與制度;創(chuàng)新社會治理機制并完善社會保障體系是底線,其將緩解人工智能所帶來的影響與波動;構建全球治理機制則成為了制度性的基礎設施,推動各國在此之上共同走向人工智能時代的“人類命運共同體”。
五、結語
在經歷了60余年的發(fā)展之后,人工智能終于在互聯網、大數據、機器學習等諸多技術取得突破的基礎上實現了騰飛。在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但卻也不可掉以輕心。對于人工智能的治理,找到正確的方向并采取合理的措施,正是當下所應該重視的政策議題。而本文的主旨也正在于此:打破長久以來人們對于人工智能的“籠統(tǒng)”式擔憂,指出人工智能技術發(fā)展的技術邏輯及其所引發(fā)的治理挑戰(zhàn),并在此基礎上提出相應的政策選擇。人工智能治理的這三個基本問題,是重構治理體系、創(chuàng)新治理機制、發(fā)展治理工具所必須思考的前提。伴隨著我國國家層面戰(zhàn)略規(guī)劃的出臺,我國人工智能的發(fā)展也必將躍上新臺階。在此背景下,深入探討人工智能治理的相關公共政策議題,對于助推一個人工智能時代的崛起而言,既有其必要性,也有其迫切性。(來源:中國行政管理 文/賈開 蔣余浩 編選:中國電子商務研究中心)
[參考文獻]
[1]國務院關于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[EB/OL]. http://gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[2]霍金. AI可能成就或者終結人類文明[EB/OL].http://raincent.com/content-10-7672-1.html.
[3] Elon Musk. Artificial Intelligence is Our Biggest Existential Threat. https://theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat.
[4] Microsoft's Bill Gates Insists AI is A Threat. http://bbc.com/news/31047780. 2017-8-14.
[5] [以]赫拉利.人類簡史[M].北京:中信出版社,2014.
[6] The President in Conversation With MIT’s Joi Ito and WIRED’s Scott Dadich. https://wired.com/2016/10/president-obama-mit-joi-ito-interview/. 2017-8-14.
[7] Turing,A. M. Computing Machinery and Intelligence. Mind,1950,59(236).
[8] [9][10] McCarthy,J.What is Artificial Intelligence. URL:http://www-formal.stanford.edu/jmc/whatisai/whatisai.html.
[11] [12][13] [美]佩德羅-多明戈斯.終極算法:機器學習和人工智能如何重塑世界[M].黃芳萍譯.北京:中信出版社,2016.
[14] Benkler,Y. The Wealth of Networks:How Social Production Transforms Markets and Freedom. Yale University Press,2006.
[15] Foucoult,M. Discipline and Punish. A. Sheridan,Tr.,Paris,FR,Gallimard,1975.
[16] Srnicek,N.,& Williams,A. The Future isn't Working. Juncture,2015,22(3):243-247.
[17] Preparing for the Future of Artificial Intelligence. https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf. 2017-8-14.
[18]薛亮.“日本推動實現超智能社會‘社會5.0’”[EB/OL]. http://istis.sh.cn/list/list.aspx?id=10535.
[19] Thierer,A. Permissionless Innovation:The Continuing Case for Comprehensive Technological Freedom. Mercatus Center at George Mason University,2016.
[20] Artificial Intelligence:Opportunities and Implications for the Future of Decision Making.https://gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf.
[21]周衍冰.大數據產業(yè)在法國的發(fā)展及應用[N].學習時報,2014-11-03.
[22] Thierer,A. D.,& Watney,C. J. Comment on the Federal Automated Vehicles Policy,2016.
[23] [美]杰瑞·卡普蘭.人工智能時代:人機共生下財富、工作與思維的大未來[M].杭州浙江人民出版社,2016.
[24] Marcel Rosenbach. How Google and Facebook Can Reshape Elections.http://spiegel.de/international/germany/google-and-facebook-could-help-decide-2017-german-election-a-1120156.html.
[25] Van Parijs,P. Basic Income:A Simple and Powerful Idea for the Twenty-first Century. Politics & Society,2004,32(1).
關鍵詞:高校;人工智能;倫理道德教育
中圖分類號:G642.0文獻標志碼:A文章編號:1674-9324(2019)41-0144-02
一、人工智能課程倫理考慮的基本內涵
人工智能課程中進行倫理考慮,是在人工智能課程中有針對性地加入道德教育的元素。在方式上,可以借用西方的“隱形教育”方式。在內容上,必須符合中國的人工智能發(fā)展態(tài)勢,更要受中國社會主義核心價值體系的引導。目前中國的人工智能課程,過度偏向于技術性。尤其是許多社會機構提供的課程,更是偏向于功利性,目的在于讓學習課程的學習者快速獲得工作。因此,必須從源頭入手,對這些社會機構進行一定的約束和規(guī)范,對人工智能課程內容進行整體的架構。
二、高校人工智能課程中倫理考慮的必要性
(一)我國對于科技工作者職業(yè)道德建設的要求
首先,科技工作者的職業(yè)道德建設是促進社會治理體系現代化的必然要求。加強社會治理制度建設,一靠法治,二靠德治。中國正聚焦力量加強自主創(chuàng)新,科技是第一生產力。基于當代中國語境下,科技工作者的職業(yè)道德建設就至關重要。科技工作者對自己的社會責任與倫理責任應該有著充分的理解,在科研活動中既要著眼于為社會提供科學技術上的新成果,同時也要強調在倫理道德建設中起到應有的作用。
其次,從長期看,科技工作者的職業(yè)道德建設利于國家科技的發(fā)展,利于促進科技難題的解決。發(fā)展是連續(xù)和間斷的同一,科技發(fā)展不能一蹴而就。在面臨科技瓶頸問題時,就更要求科技工作者具有堅韌不拔的品質和無私奉獻的精神。這些精神都是進行職業(yè)道德教育中的重要內容,也是科技工作者承擔的社會角色中必不可少的特質。
最后,高尚的職業(yè)道德是科技工作者奮進的不竭動力。一個科技工作者只有站在最廣大人民的立場上,奉獻自我才能成就事業(yè)。隨著全球化的發(fā)展,受西方“享樂主義”的負面影響,科技工作者只有更加堅守自我、承擔社會責任,才能具有不斷前進的精神支柱。
(二)對解決人工智能倫理困境的源頭性作用
隨著人工智能應用領域的廣泛化,以及應用群體的普及化,難以避免的帶來一些倫理問題上的困境。例如倫理學中經典的“電車難題”,在當代科技發(fā)展中也出現了在人工智能領域的“無人車難題”。無人車產生事故的責任歸屬與分配就是目前很多學者在關注的倫理問題。人工智能的發(fā)展對當前的法律規(guī)制,還有現存的人倫規(guī)范都產生了挑戰(zhàn)。人工智能的未來發(fā)展方向,在操作性上要避免技術鴻溝,在設計過程中要堅持算法公開化、透明化,并且在出現數據漏洞時應盡快地進行自我修復。這對于科技工作者自身的素質提出了很高的要求,不但要求科技工作者自身的知識素質與知識能力過硬,而且要求科技工作者要嚴于律己,具有較高的思想道德素質。要求科技工作者對于人工智能的發(fā)展保持理性的態(tài)度,堅持為國為民。許多科幻電影和小說中都體現了未來人工智能發(fā)展到一定階段時,人與機器產生的情感迷思。作為科技工作者,在設計與調整過程中都應保持情感中立,勇于承擔社會責任。目前我國正處于人工智能發(fā)展的初級階段,人工智能尚不能擁有自主意識,人工智能的行為責任必須要找到其背后的擁有自主意識的人。無論是現階段還是未來,作為人工智能產品開發(fā)者與設計者的科技工作者樹立正確的價值觀和承擔相應的社會責任是十分必要的。科技工作者的知識層次與道德品質在某種程度上說,是研發(fā)人工智能產品的起點。因此,對科技工作者的成長過程中進行持續(xù)的道德教育,使其樹立高尚的道德觀念,對于解決許多人工智能帶來的倫理困境都具有源頭性、基礎性的作用。
三、高校人工智能課程與倫理道德教育的結合方式探索
(一)高校人工智能課程資源的充分運用與更新
從資源形態(tài)上看,實物化資源與虛擬化資源,線上資源與線下資源都應充分運用。隨著智能校園的普及,有基礎條件的地區(qū)與校園可以充分運用好身邊的人工智能。人工智能課程是一門理論與實踐相結合的課程,因此課程的內容也不能僅停留在理論層面。除了對于學術資源的運用,也應當結合實體的人工智能產品進行學習。但因為人工智能的發(fā)展程度還沒有普及化,人工智能機器人也遠沒有達到觸手可及的程度。因此運用新媒體技術,通過虛擬現實的手段進行在教學過程中的知行結合是可以嘗試的路徑。VR技術在網絡設備硬件教學中可以節(jié)約成本,便于人工智能課堂的普及化。在理論教學中,可以通過與虛擬機器人的交互增強趣味性。VR技術有3個最突出的特點:交互性、沉浸性和構想性。課程設置者可以充分借助VR的沉浸性設置相應的場景,讓課程學習者通過對特定道德場景的判斷引出思考。這種新媒體手段既可以更新原有課堂知識的教學教法,更適合作為倫理教育走入人工智能課堂的重要媒介。
從資源時態(tài)上看,人工智能課程資源必須隨著人工智能的發(fā)展而不斷更新。從現實角度來看,最初開設人工智能課程時,其教學目標還是相對簡單的——即培養(yǎng)學生的創(chuàng)造性與知識能力。但隨著人工智能的普及應用,產生了許多人工智能語境下的道德困境。從指導思想來看,我國逐步走向世界舞臺,隨著實力增強指導思想也是不斷變化的,新時代會提出新目標,為了實現中華民族的偉大復興,課程內容的豐富也是十分必要的。因此,人工智能課程若要符合時代需要,就需要不斷地更新課程資源。人工智能這一學科是具有學科交叉性的,與之相關各個領域的最新前沿問題都需要結合相應的道德教育,只有這樣才能適應時代的發(fā)展。
(二)高校人工智能課程內容的合理架構
對于不同年齡層次的人工智能課程,必須考慮到不同群體的教育規(guī)律。提出合理的教育目標,用不同群體可以接受的方式方法才能達到最優(yōu)的教學效果。我國人工智能課程目前的課程架構中,已經有學者進行了分年齡層次的研究。人工智能課程可以規(guī)劃為專業(yè)性逐漸增強的、從邊緣到中心的課程層級系統(tǒng)。對于高校本科生和研究生來說,人工智能課程設置內容必須具有專業(yè)性。在上文的課程體系建構中添加了藝術、文學、哲學等內容,其中包含對于人工智能倫理學的思考與認識。但在某種意義上這些青年的社會價值觀就代表了未來科技工作者的社會價值觀。因此在這一階段,人工智能課程的架構與實施,國家應加以引導和監(jiān)督。一方面需要建立統(tǒng)一標準的高校人工智能課程體系,另一方面在應對課程具體內容的落實方面給予一定程度的監(jiān)督。
(三)在高校人工智能課程教學過程中充分運用案例
首先應充分運用學術案例,例如度量學習,在其基礎上的遷移學習,以及發(fā)表在《機器學習》、《數據挖掘》等頂級期刊上的論文。使課堂具有含金量,可以說這也是國家發(fā)展與關注的重點。通過學術性經典案例的學習可以擁有不一樣的視角,通過歷史發(fā)展的角度去看人工智能技術的演變與發(fā)展。其次應充分運用具體案例。在人工智能課程中對于許多道德問題,不應抽象地去討論,而應該具體地去討論。也可以讓學生與AI系統(tǒng)進行直接的問答,如:我們能保證它們穩(wěn)定可靠嗎?我們應該如何去測試人工智能?人工智能課堂中既要包容學生多元化的答案,不壓抑創(chuàng)造性又要對于錯誤的思想進行思想轉化,這就需要教育者具體問題進行具體分析了。