胡凌
引子
當我們談論人工智能(Artificial Intelligence,AI)時,很大程度上受到源自20世紀想象的影響,例如,直接把人工智能和機器人聯系起來,甚至是人形機器人。 這可能也會影響法律人對人工智能的想象,包括是否承認人工智能作為具有自我意識的法律主體地位(或至少是人類行為的代理人),從而保護其特定權利(言論自由、著作權)、劃定責任(締約、侵權),甚至強調可能的毀滅性風險。 這種想象遠非受到科幻作品影響那樣簡單,深層次中還反映出人工智能在技術和應用上不同的發展路徑: 早期人工智能研究更集中于對人腦的仿真模擬,探究意識、理性等更為宏大的哲學問題,但應用性較少; 當下的人工智能走出了實驗室,借助互聯網服務直接影響到普通人的生活,在技術上并不執著于創造一個完美的智能體,而是依靠算法(如機器學習和神經網絡)不斷優化,對海量數據自動挖掘與預測,通過無所不在的傳感器實時更新數據,動態掌控著人類社會各個方面的運轉,并把從某個特定領域升級為通用人工智能作為目標。 從這個意義上說,人工智能并不神秘,它出現在日常生活中,不僅是工業社會生產自動化的延續,也是互聯網商業化的必然結果和新階段。 時至今日,歐美國家紛紛出臺政策,推動人工智能發展,力求提升經濟效率和競爭力。
如果我們擺脫簡單的擬人思維,把人工智能看作互聯網智能演進的新階段,為理解其法律規則,就有必要理解互聯網法律在過去20年中形成的路徑和推動力,從而探討人工智能是否有任何特殊性以至于需要新的規則。本文將從網絡法的兩個視角——實證性和生產性——切入,將它們延伸至人工智能語境下分別討論。“實證性”視角是我們觀察和應用任何規則的慣常思維方式,例如人工智能行為的具體規則如何確立、如何規制等,本文將討論支撐人工智能的兩個構成性要素——算法與數據——可能帶來的法律問題,以及法律人處理人工智能的兩種路徑; “生產性”視角則深入規則背后,探索規則形成的政治經濟因素,特別是經濟生產方式的內在要求。人工智能本質上是一套復雜的代碼設計,既是影響社會行為的強力規范,也是產生新價值的生產機制; 它驅動整個社會朝向更智能的方向變化,從而要求法律做出相應調整,尤其是確認新型經濟利益的合法性。
限于篇幅,本文姑且將人工智能看成法律上的客體,暫不討論賽博格(cyborg)之類的人體轉向機械體或通過基因技術改變身體的問題(仍是法律上的人),也不討論人工智能作為一種人造物的自我意識問題(一個難以達成共識的哲學問題)。
理解網絡法的變遷
網絡法在中國的變遷大致遵循兩類邏輯:外生性的政治/監管邏輯和內生性的商業邏輯。 政治/監管邏輯體現為對“實證性規則”的追求,這些規則集中在國家(包括法院和監管機構)如何對互聯網的內容和行為進行規制,包括對網絡主權和信息安全的追尋。這集中反映了國家權力如何試圖介入新技術帶來的問題與挑戰。 這一視角最早由美國法學界引出,特別是Lawrence Lessig的代碼理論將代碼(架構)和法律并列。 由此,所謂的網絡法不僅要約束社會主體在網絡空間中的行為,也要對架構的變化本身做出回應。
首先,就規制主體行為而言,出現了是否按照傳統線下行為規則的思路約束線上行為的討論。這一討論的核心是,互聯網問題是否具有任何特殊性,需要某些新規來解決。 我們已經看到,中國的互聯網行為監管在很大程度上延續了傳統規則和管理方式,采取漸進的方式,這不僅成本較小,也給予監管者一定的學習和探索空間。其次,就架構變化本身而言,國家在宏觀上主張網絡空間中仍然需要主權,不能成為法外之地,在微觀上相應出現了國家與平臺權力/責任二分的討論。例如,政府權力何時需要介入平臺治理,加強平臺的行政管理責任或安全保障責任,還是由后者根據自身情況自我規制,實現治理目標。政治/監管邏輯要么遵循管理者的路徑依賴效應,要么堅持既有社會穩定、意識形態安全價值。問題在于,監管者在多大程度上能夠認識到代碼及其商業模式的特殊性,從而使監管行為和行業特性相互協調融合。
另一種看待規則產生的方式遵循商業邏輯。這種生產性視角關注微觀權力運作,綜合將代碼、法律與社會規范放在一起,不單純從社會學意義上觀察社會主體行為如何受到影響,而是在政治經濟學意義上將網絡空間的生成和擴散看成是一個由商業力量推動主導的生產性過程,關注價值由誰產生、如何分配,由此推動對新規則的內生需求。按照這一視角,無論是法律還是架構,在具有實證性規制功能的同時,也是一種“生產性規則”。互聯網的生產模式決定了其對社會范圍內生產資料的創造性生產和再利用,需要法律確認其生產方式的合法性,重塑關鍵法律制度,并解決和傳統生產模式的利益沖突。 這一視角無疑幫助厘清新經濟主張的例外特性,不僅展示出架構和相應的法律改變,更指明了背后的政治經濟原因,是更好地理解實證性規則的基礎。
兩類不同的邏輯在過去20年中交替出現,相互制約,共同塑造了中國網絡法體系,也推動了中國互聯網的整體發展。 總體而言,鑒于國家有意促進新經濟,需要推動傳統的屬地化、分口治理,事后運動治理模式發生轉變,認清互聯網商業模式和價值產生的根源,有利探索適應新經濟性質的管理體制。從這個意義上說,信息資本主義不斷要求對法律內核進行改造,取代其中的傳統經濟要素,打破限制生產要素自由流通的各類規則。
人工智能法律的實證性視角
如前所述,人工智能的本質在于算法和數據處理,物理形體不必然是人工智能的構成要素,因為即使是人形機器人,也不過是一個算法主導的硬件系統,它實時收集信息,并按照算法的要求做出決定,繼而行動。更重要的是,具有物理形體的人工智能可以推動群體智能發展,通過分布式終端收集更多數據加以處理,并不斷傳輸至云端“大腦”,提升整體網絡的智能水平。
根據算法的復雜性和學習/運算能力對強人工智能和弱人工智能進行區分, 這在技術認知上沒有問題,但在法律上很難按照智能程度給出精確的標準。法律應對復雜世界的方式是確立一般性的簡單規則,在概念上對社會個體進行抽象假定(如行為能力),而非針對特殊主體,否則規則體系本身將變得異常復雜,難于理解和操作。而人工智能從單一的自動化服務向多元通用服務轉變的過程可能是一個相當長的光譜,法律需要針對其本質特征進行約束,并探索一套應對未來的方案。當我們說社會變得越來越智能的時候,事實上指由于數據搜集、儲存和處理的能力不斷增強,所有軟件/算法都可能朝向自動收集數據,做出決定或判斷的趨勢,由于算法的復雜性,算法帶來的結果可能無法預測,并在更大范圍內帶來系統性的不利后果。這種后果未必是毀滅性的風險,甚至只是在某個領域的制度設計問題,但人工智能恰好將這類社會問題具象化,掩藏在外表華麗、高效、更多是私人控制的“黑箱”中,就會引發一系列問題。
如果放在一個更大范圍內觀察,在歷史上,人類社會隨著復雜性的增加,不可避免地產生以組織和技術形態出現的各類“黑箱”,它們的決定影響著社會發展和大眾福利,但仍然保持著某種秘密性。 這一隱喻未必是陰謀論,其核心問題在于信息不對稱。為平衡相關當事人和社會大眾的知情權、避免恐慌、保持某種預測能力,人們不斷設計出某種程度的信息公開和透明化機制,例如政治辯論的公開化,法院訴訟程序透明化甚至公開庭審,上市公司強制信息披露等等。而人工智能不過是信息技術時代的新型黑箱,帶來更加嚴重的系統化影響。 互聯網在興起過程中,通過降低信息成本,推動了開放政府、庭審直播,使信息公開透明更加便利,將生產性資源不斷解放出來,在更大社會范圍內重新配置,產生新價值。然而,這一過程在消除一個又一個傳統黑箱的同時,產生了更為復雜的新黑箱,進而主導整個社會的生產過程。生產資料之間的信息變得越來越對稱,甚至可以實時互通信息,但作為信息匹配中介的人工智能卻變得更不透明,其規則設計和運作從屬于用戶甚至開發者無法理解的秘密狀態,這回到了法律如何處理與代碼的關系問題。
一個類似的比較是人類自身:人腦經過上百萬年的進化,演變成十分復雜精致的系統。盡管當代神經科學不斷改變我們對人腦的認知,甚至每個人的大腦都不完全一樣,但就法律而言意義不大,這只能在邊際上改變個案判決。即使無從了解人腦的運轉機制,或者依據某種更加先進的科學知識解釋社會主體行動的具體理由,人類還是有能力形成社會規范,并演進成更加理性化的規則。這套規則只需要假定一般社會主體是(受限)理性的,由少數概念界定不同情形的心理狀態(故意、過失),并集中對人的外在行為進行約束,確定權利與義務,就足以以簡單規則應對(而非認識)這一紛繁復雜的世界。類似地,在處理算法的負外部性時,也可以有兩種不同的路徑:(1)關注算法的外部行為與后果,(2)關注算法內部的設計規則。
大部分現有規則關注算法導致的(未意料)結果,例如內容分發算法未經審查造成非法或侵權內容傳播,這一般由信息傳播者(即內容服務商)承擔責任,算法本身并無法律地位,在造成不利后果的過程中只是一個工具。這類責任假定內容服務商應當知道非法內容的存在,并有能力通過算法設計或人力(比如人工審查)加以阻止。在諸多侵權場合,內容服務商可以通過“避風港”規則免責,只要無法證明它實際知曉狀態。更復雜的是,如果軟件開發者聲稱自己無法控制信息的生產和傳播,卻造成一定社會危害的情形。無論是在快播案還是BT案中,軟件開發者都無法因這一原因而逃脫責任,法院的理由仍然是,開發者有能力知曉非法內容的輸出(如果不是故意的話,例如快播向色情網站推廣該播放器)。類似地,如果一個具有物理形體的人工智能由于處理信息不當造成了外在損害,按照這一邏輯仍應由算法開發者負責。
而且,還有必要將算法產生的錯誤和算法缺陷本身區分開。長期以來,軟件行業一直通過拆封合同(shrink-wrap)解決缺陷軟件造成的短時崩潰或重啟問題,這種格式條款旨在確認這樣一種事實:沒有任何軟件是百分之百完美的,只要在用戶拆封使用該軟件時運行正常即可,服務商并不為軟件崩潰或死機造成的消費者損失負責,因為前者無法預料到缺陷帶來的風險。 這就是為什么消費者需要接受軟件生產商不停的更新和補丁,軟件/應用不受產品責任的約束,被視為一種可以不斷升級改進的服務,這在免費軟件時代更是如此。按照這一思路,似乎有理由認為,無人駕駛汽車因算法計算錯誤導致車禍(何況造成事故的概率遠遠小于人類司機的錯誤)是這類軟件的正常的缺陷,消費者應當容忍這類錯誤。但無論是監管者還是潛在的受害人都無法接受這種比擬。聲稱有潛在缺陷的交通工具(也包括醫療設備和其他與生命財產直接相關的算法)一旦投入使用就需要為此造成的后果負責。 無論如何,這類思路仍然是通過后果施加事后責任,監管者或法院并不想深入算法內部了解造成事故的技術原因是什么。只要法律認定這一黑箱應當在合理范圍內得到控制,事故可以避免,黑箱提供者就應當承擔責任。在這種情況下,保險(甚至是強制險)就成為確保這類發生概率小但潛在損失巨大的不二選擇,航空、醫療保險市場十分發達,可以預見將會延伸至更多由人工智能驅動的服務行業。
如果說事后救濟還無法確保安全,事前干預算法設計則是另一種選擇,同時帶來的問題也更復雜。早在20世紀,阿西莫夫就試圖為機器人立法,盡管他從未討論技術上的可行性。 安全可能是人工智能服務的首要問題之一:一個中心化的入侵可能會導致所有終端都變得極度不安全。行業監管者在不同行業為特定服務中的人工智能設定安全標準(如醫療器械、交通工具、自動化武器),實行安全保護等級制度,甚至要求被認定為重要設施的源代碼(如windows系統)供監管者備案,或在設計自動化交易程序時控制報單頻率的閾值等。又例如,在魏則西事件后,聯合調查組在整改意見中要求落實以信譽度為主要權重的排名算法,對商業推廣信息逐條加注醒目標識,予以風險提示。如果說這些監管手段針對的是作為商業秘密的私人算法,諸如Open人工智能這樣的倡議則意在延續開源軟件運動路徑,確保軟件漏洞能夠得到更大范圍內的監督和修補。至少在中國,信息披露機制尚未成為算法監管的重要手段,無論是強制性披露還是第三方披露。
當算法將某種交易或服務規則代碼化的時候,信息披露就更值得關注。代碼化的規則更容易執行,但因為是私人服務創設的規則而無法像公共規則一樣接受審查和質詢,只能通過社會后果評判。 作為平衡,這并不意味著這類代碼就完全不公開,而只是以用戶協議的方式將代碼的功能和目的通過語言簡要向用戶展示。
總體而言,法院作為事后糾紛解決者沒有能力審查代碼本身,只能通過后果進行個案判斷。但也有一些例外,在某些案件中法院需要理解新型技術的運作以確定侵權責任:首先,在朱燁訴百度案中,法院盡管根據傳統侵犯隱私標準不認為百度廣告聯盟的廣告侵犯了原告隱私,但卻接受了針對百度的商業模式和數據收集技術的審查路徑; 其次,在某些新型不正當競爭案件中,法院也加大了對其中侵權行為的技術審查,深入了解黑箱內部(如robots協議、深度鏈接)。這一趨勢的風險是,法院因為專業知識的薄弱,越來越難以就復雜的事實問題進行認定,只能在審判過程中依賴專家證人或擁有專業知識的一方當事人,這無形中可能會導致法官偏離了傳統的法律問題,陷入他原先并不熟悉的領域。
有可能有第三種路徑:對算法處理的數據或生產性資源進行管理,防止造成消極后果。例如,依靠人力對搜索引擎處理的侵權信息進行審查;征信系統中禁止收集種族、性別、宗教派別、政治傾向等歧視性信息;在聲譽系統中打擊網絡推手刷單,避免虛假數據;通過地域性監管限制網絡專車及其司機的資質,等等。這在本質上都限制了人工智能本身的能力,即使算法強大也不會造成不利后果。
這一路徑隱含說明,數據質量本身(由收集和處理過程中的缺失導致)可能會產生無法預測的不利結果。與此相關的是,商業歧視性是人工智能可能帶來的系統性風險之一,集中體現了算法與數據之間的復雜動態關系。和傳統征信制度類似,那些未能積累充分個人信息的社會主體(data-poor),將被排除在更多的商業服務以外,尤其是當某一互聯網服務的信用評分和更多服務結合起來的時候。然而,即使人們跨越了“數字鴻溝”,也仍然會被“數據鴻溝”(data divide)歧視:算法會精確地根據各類信息識別社會主體的各類身份,將他們困在各自數據產生的無形繭房中,這不僅可能會剝奪人們接受教育、就業、貸款的公平機會,還可能給公共生活造成難以彌合的分裂。 人工智能的歧視效應將是未來監管者在各領域不得不面對的重要問題。
上文簡要探討了,人工智能的“實證性法律”將會越來越多地圍繞法律(主權權力)是否以及如何介入人工智能算法的運作,特別是在廣泛影響大眾利益的情形中,如何設計信息披露等監管機制、干預某類代碼化規則的系統性歧視等。 而和專門的監管者相比,法院處理這類中立性問題可能更麻煩。從社會后果看,法院較好的回應方式仍然是根據外在行為后果,而非進入黑箱內部,這不僅因為法官缺乏專業知識,更因為地方性法院無法對在全國范圍內有影響力的算法進行總體干預。
人工智能的生產性視角
按照生產性視角,人工智能的范疇可以擴展至由算法帶動的整個商業模式和生產過程。一個更加強大的人工智能無疑有能力進行更多的數據分析,靈活匹配各類資源并為消費者提供更加個人化的服務。很大程度上這類人工智能設計的價值導向是商業性的,意在減少交易雙方的信息不對稱,并潛在地壓縮買賣雙方的價值剩余。人工智能作為一種生產方式,重新塑造了生產關系和生產模式的設計。整個社會生產將變得更加自動化和網絡化,迅速取代傳統生產組織。和網絡法演進的路徑類似,人工智能法律也會產生于經濟利益沖突,并要求法律確認其生產的自主性與合法性。
互聯網公司的信息生產機制正逐漸主導實體經濟和金融生產,揭示了價值如何在新架構中不斷生產和再生產出來。這一過程的第一個階段是超越傳統組織調配資源,從而瓦解了未來更多的組織形態的生產機構,并可能與大型傳統組織深度合作。第二個階段隨之而來:人工智能的低成本的創作對人類勞力的取代,并以主張獨特的言論自由、著作權等方式表現出來。例如,人工智能可以通過對海量網絡文本、圖片、音樂、視頻的深度學習、整合,創作出更多新作品,至少是在初級階段取代某些行業的勞動力,如新聞業和法律服務業。 本文無法預見法律是否在未來會賦予某些通用人工智能以人格權,但這一主張的實質是以人工智能的人格掩蓋了其更具競爭力的財產利益,并使得其背后的互聯網公司的利益不受侵犯(著作權)和任意干預(言論自由)。同時,人工智能也會變得愈加集中和封閉,大量中小開發者無力獲取更多數據資源,只能依托大型平臺開發,成為平臺服務的螺絲釘;而平臺通過靈活的法律機制(生產內容的永久免費授權、不固定期限勞動合同)最大限度地降低自身成本,同時防止生產者/用戶流失,被競爭對手搶奪。
如果我們再次回到黑箱的隱喻,算法及其算法控制的生產性資源就成為一個閉環的黑箱。安排調配生產性資源、授予用戶某種權利/義務會更多地從屬于互聯網公司內部規則而非國家法律。上文已經討論了法律如何干預的不同視角,這里提供了法律為何干預的更基礎的生產性理由。針對人工智能可能的法律問題包括:首先,會出現更多不正當競爭案件,包括與傳統行業和人工智能同業競爭者的各類糾紛,法院在這方面已經積累了豐富的經驗,但仍然需要面對新技術問題。其次,隨著分享經濟的擴展,更多自由勞動力加入平臺,勞動關系糾紛會因此增加,要求平臺承擔雇主責任和社會保障義務,這就進一步涉及平臺上的價值分配問題。第三,對監管者而言,平臺壟斷和價格管制問題可能變得更加突出,特別是人工智能驅動的競爭給市場帶來的負面效果。
結語
人工智能是資本主義和消費主義發展到更高階段的產物。本文十分簡要地討論了法律如何應對人工智能帶來挑戰的一些側面,核心要點是,立法者、法院和監管者都需要思考人工智能是否有任何特殊性以至于需要新的規則,以及如何以合適的方式介入人工智能新問題,這一例外性往往可以從經濟利益的角度找到根源。實證性視角和生產性視角為我們理解這些問題的出現提供了有益的幫助。未來的人工智能法律研究可能需要聚焦于不同服務形態,摘掉人工智能和大數據的帽子和標簽,更細致地討論具體問題。
(作者單位:上海財經大學法學院)
注釋:
[1]當下的大眾媒體、文化產品和社會公共認知正努力將未來的人工智能 塑造成具有獨立意識的逐漸演化的主體,這集中體現在諸如《終結者》《我,機器人》《西部世界》《2001銀河漫游》這類科幻影視作品中。盡管人們也有理由進一步想象,一旦人工智能具有了自我意識,就不再可能忠實地為人類服務,而更可能對人類生存構成威脅。其路徑和思維方式仍是20世紀的,和21世紀依托大數據機器學習迥然不同。事實上,按照日本學者森政弘提出的“恐怖谷理論”,人工智能不太可能在短時間內人形普及化,因為這會在消費者心理上引發不安甚至恐懼。像Siri和Cornata這樣的語音助手、像Tay和小冰這樣的聊天機器人則不會有這種負面效果,因為用戶知道自己在和一個尚未通過圖靈測試的算法對話,他們甚至樂于教Tay在推特上辱罵用戶、發表種族主義和煽動性的政治言論。另一個可能影響中文世界讀者想象的因素是,把robot翻譯成“機器人”先驗地賦予了這類客體某種擬人化主體地位,而人形機器人(android)卻沒有引起更多的關注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一個更加有用的綜合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究將具有物理形體的機器人作為法律的對象,特別區分了信息性和物理性效果,見Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一個不同觀點,見Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把機器人視為代理人在法律上也有相當的歷史,見Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吳軍:《智能時代》,中信出版社2016年版。
[4]例如阿西莫夫的機器人系列小說中,無一例外地設定機器人擁有一個“正子腦”(positronic br人工智能 n),但卻沒有給出任何解釋。見阿西莫夫:《機器人短篇全集》,江蘇文藝出版社2014年版。
[5]這被稱為終極算法(master algorithm),見佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯·卡爾:《玻璃籠子:自動化時代和我們的未來》,中信出版社2015年版。在互聯網發展的每一個階段都有某種意識形態化的術語或熱詞吸引投資,例如寬帶、大數據、分享經濟、VR(虛擬現實)等,它們不過是互聯網形態的各類變種。例如,一個關于分享經濟和之前互聯網經濟的關聯,參見胡凌:《分享經濟的法律規制》,載《文化縱橫》2015年第4期。
[7]這種思維方式可追溯到霍布斯以來的法律實證主義。
[8]胡凌:《代碼、著作權保護與公共資源池》,載《騰云》2016年12月刊。
[9]關于兩類邏輯的具體表現,集中參見胡凌:《探尋網絡法的政治經濟起源》,上海財經大學出版社2016年版。
[10]這在眾多(特別是國外的)中國互聯網觀察者身上十分常見,人們的注意力全都轉向中國政府如何嚴格管理和控制互聯網。在政治學研究中自然而然地并入“國家與市民社會”傳統框架,并吸納了關于在線抗爭、集體行動的傳播學與社會學研究。
[11]勞倫斯·萊斯格:《代碼2.0》,清華大學出版社2008年版。
[12]一個概述,見胡凌:《馬的法律與網絡法》,載張平主編:《網絡法律評論》2010年第11卷。
[13]胡凌:《非法興起:理解中國互聯網演進的一個框架》,載《文化縱橫》2016年第5期。這體現在版權、隱私、財產、不正當競爭、壟斷、勞動法等一系列制度中。這種對法律制度的改變不單純是在既有工業生產背景下微型創新帶來的變化,而是社會生產的重塑。
[14]比如說,平臺責任議題的出現,和互聯網平臺更多轉向由第三方提供服務的信息中介模式直接相關。
[15]這一區分和觀察中國式資本主義興起的框架十分類似,政治經濟學家們爭論的焦點就在于如何解釋中國改革開放三十年的成功經驗,究竟是政府主導還是市場主導,但實質上是一個混合制經濟。
[16]由于科斯所說的企業信息成本和管理成本降低,調動生產要素的邊際成本趨近于零,企業組織形態本身將成為競爭的高成本。
[17]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,中信出版社2015年版。
[18]古代的政治過程、現代的企業決策都是黑箱,對外人而言如果不是神秘,也是除魅之后的國家/商業秘密。卡夫卡的小說《審判》就精確描述了作為黑箱的訴訟過程,同一時代的韋伯也描述了理性化的國家機器應當像自動售貨機一樣。
[19]Frank Pasquale:《黑箱社會:掌控信息和金錢的數據法則》,中信出版社2015年版。
[20]帕伯斯:《差錯:軟件錯誤的致命影響》,人民郵電出版社2012年版。
[21]長久以來民用航空器已經由軟件深度介入駕駛過程,以至于人類駕駛員無法在短時間內預熱,形成另一種風險。
[22]阿西莫夫提出的“機器人三定律”(后來擴展至四點)雖然十分基礎,但仍然很難在具體情況下起作用,特別是當代倫理學上著名的“線車難題”之類的倫理困境。考慮到這些定律是為模擬人腦狀態下設計的,就更可疑;因為人腦并不總是按某些理性倫理原則行事的,在某些關鍵場合強烈依靠某些默認設置——直覺。
[23]由監管機構強制披露并審查事實做不到,只能依靠像蘋果這樣的平臺公司和軟件分發平臺幫助對成千上萬個軟件進行至少是安全審查。在臺式機時代,這一平臺責任幾乎不可能,自然狀態下的windows只能導致爭奪私人控制權的3Q大戰。但像烏云網這樣的第三方白帽黑客也被禁止探測和公開發布互聯網公司的漏洞。
[24]同注11。
[25]在筆者看來,法院應當將注意力放在知情同意的合同條款本身的適當性上,而不是一味接受黑箱的邏輯,因為后者確實無懈可擊。如果格式合同能準確反映代碼的設計,對其條款的審查是更好的選擇。百度引發的被遺忘權第一案反映的也是這個問題。
[26]一個補救方法還是盡可能地披露算法信息,允許用戶理性地生產/隱瞞個人信息,見戴昕:《自愿披露隱私的規制》,載蘇力主編:《法律和社會科學》第15卷第1輯,法律出版社2016年版。
[27]法律的人工智能化是本文另一個沒有討論的問題,與此相關的是大規模監控、智能警務、犯罪預測等問題。
[28]美國諸多大型新聞機構都廣泛應用人工智能 進行新聞撰寫和分發,而像ROSS系統這樣的法律人工智能已經遭到美國律師協會的多起訴訟,理由是提供法律服務缺乏資質和不正當競爭。
[29]Maurice Stucke and Allen Grunes, Big Data and Competition Policy ,Oxford University Press, 2016; Ariel Ezrachi and Maurice E. Stucke, Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy ,Harvard University Press, 2016.