? 利求同?| 本刊特約撰稿人
?
【導讀】近日,四川一位新冠確診患者的個人隱私信息被公開于網絡,一時輿論嘩然。一些人對該患者攻擊謾罵,另一些人對其表示同情和理解。該患者也多次發聲,“我也是受害者”,并向市民道歉。昨日該省省委書記也公開發聲:要保護患者隱私。本次事件再次敲響了網絡時代隱私保護的警鐘。
本文作者認為,隱私是人的尊嚴的重要組成部分,隱私的數據化和商品化是隱私威脅的真正來源。在網絡時代之前,基于公私有別與私人領域的真實存在,隱私權處于隱而不彰的地位,然而隨著社會與技術的飛躍,在公私界限的現實困境中,隱私權問題集中暴露。在智能化時代,含有道德與責任的隱私信息被進行了“中性化”的數據處理,這是零隱私時代的開端。在資本逐利性面前,已“中性化”的隱私信息被逐漸商品化,因此隱私的真正威脅,來自合法的隱私收集和商品化交易。而真正的獲利者,一方面在不遺余力地推動隱私商品化,另一方面卻在不斷地唱著隱私保護的高調。如果,人類智能技術持續演進,那么隱私的真正終結便尤為可能。也許,智能化時代,我們的唯一出路在于對隱私采取審慎節制的態度。
文章載于《文化縱橫》2018年6月刊,原題為“‘零隱私世界’:信息時代隱私保護的困局”,僅代表作者觀點,特此編發,供諸君思考。
“零隱私世界”:信息時代隱私保護的困局
▍智能化時代,隱私已步入終結嗎?
“秘密是撒謊,分享是關懷,隱私是偷竊。”
這是美國科幻作家埃格斯(Dave Eggers)對未來的大膽想象。這句話是其小說《圓圈》(The Circle)同名電影中超級公司的訓言。在那里,我們習以為常的道德規范被顛倒了,做成新的信條:藏著隱私是嚴重的人格缺陷,上繳個人信息等于實現人生自由,光大“分享主義”美德;而保護隱私就視同盜竊,要受新人類的唾棄,并交給新法律制裁。
隱私,能如此激發作家的想象,應該說是物聯網智能時代的標記。不過,作為隱私的法定業主,我們得感激埃格斯先生的慷慨。因為在他的超級智能化未來,隱私仍是有價值的,且依法享有平等的保護。人們只需修正價值觀,將隱私從“私”和“隱”的疆域中剝離,轉化為信息/數據財產,就能繼續熟悉的生活了。當然,新財產總是落在了別人例如圓圈公司的手里,留給我們個人的,只是生產和再生產,即奉獻隱私的許可,是人格權的一具空殼。
事實上,隱私的未來已經到來。做一個透明人,自愿或被迫交出隱私,供人牟利,業已是生活常態了。只是,價值觀的修正與社會道德轉型尚待完成。轉型時期,還會有人呼吁保護隱私;隱私的歸屬和使用上的沖突,卻日益頻發而尖銳起來。這是因為,在資本當道的條件下,隱私同分享有著不可調和的矛盾。
2018年臉書在美國乃至全球受到質疑,就是生動的例證。國會一邊吵架,一邊調查俄國是否介入或干擾美國大選,臉書卻被爆料曾泄露8700萬用戶的個人信息給一家英國公司。臉書聲稱,這些用戶信息是第三方以“不正當方式”獲取的。扎克伯格親自出面,向公眾道歉,保證今后將嚴加管理。殊不知,早在2011年,臉書就曾因用戶信息泄露事件做出過幾乎同樣的承諾。而這承諾之所以未能兌現,是因為無法兌現;實際上,國家法律也不允許兌現。現在的商業模式和殘酷的產業競爭,有哪一家網絡企業,包括電商大鱷,不是靠挖掘買賣用戶信息賺錢的?手里的用戶隱私越多,市場就越大,利潤就越高。假如隱私當真嚴加保護,不就等于支柱產業集體自殺了?
但是,真正的問題還不是幾家大企業的利潤多寡。關鍵在于,這事關乎我們的道德價值和理性選擇:人工智能(AI),這一人類引以為傲的創造,信息技術的高峰,很可能與保護隱私是格格不入的。AI以高效、優化為目標,追求的是優于人腦的超級硅基智能。在那個智能體系中,信息是基本元素,是一切事物和生命的記錄、編輯與展開。人,整體而言,與碳基物、無機物一樣,只是一個信息集。而隱私,進入大數據時代,作為一種游離于人類整體信息集邊緣的個體特征,就“過于人性”了——承載了太多的價值立場和法律風險。保護隱私,人類信息集就變得坑坑洼洼,不好用了,所以亟需優化、標準化、去風險化。換言之,隱私成了硅基智能的障礙,是必須清除的雜音;若非如此,人類不能同AI結合而融入未來。
于是,我們不得不直面那一種可能,即隱私的終結。我們必須思考:如果隱私終結,人類將如何生存。
▍隱私是人的尊嚴的重要組成部分
研究一件事物的終結,需要從其興衰的條件和過程中尋找原因。那么,隱私是因何而來的呢?它又怎樣塑造了我們的日常生活,它的消解意味著什么?這些問題的答案至關重要。
歷史地看,隱私是人類對自身生存狀態的一種描述,既是社會的客觀存在,也是道德倫理的主觀認知,因而承載著情感和價值判斷。關于隱私,學說繁多,實踐更是千姿百態。但萬變不離其宗,都包含兩個基本要素:(1)人的個體有別于群體/社會之公,稱之為“私”;(2)私的領域,時而需要隔絕于公,視之為“隱”。可以說,隱私的觀念,其被社會認可而納入“私”的范疇,乃是因“公”而生,而獲得價值的。隱私既是私與公有別或對立的產物,也是公私賴以共存的條件。
有學者認為,隱私源于人的動物性。人是獨立的個體,同時又是群居動物。人在群體中生活,繁衍生息需要一定的私密空間和時間,才能建立親疏有別的家庭與社會關系,私與隱便在其中了。文明開化以后,隱私的觀念和習慣,更是人類高級智力活動如宗教、藝術、政治、經濟等的產物。漸漸地,隱私就演變為一種個體與群體的生活倫理,超越動物本能,而復雜精致起來,終于成了社會秩序的一根支柱。
隱私所要求的社會認可同保護,其實是以自由意志,即人對他人和社會負責的能力,為代價的。換言之,消滅隱私,就是消滅人類個體負責的能力。因為,隱私的存在,不僅是自由意志生成和行使的條件,也是個體接受社會評價、承擔社會義務的前提。反之,若無隱私,自我意識與自由意志就失去了植根的土壤,社會評價和個體責任就無所依托。
隱私,作為具有道德價值的利益,是人格尊嚴的先決條件,也是社會組織、道德倫理、法律問責機制的一塊基石。1890年,美國法學家沃倫(Samuel Warren)和布蘭代斯(Louis Brandeis)發表了題為《隱私權》的著名論文,第一次系統闡述了所謂“獨處的權利”,嘗試厘清隱私保護的法律學說和適用規范。隱私權的設立與發展,極大地加強了人們的隱私意識。隱私成了公民的基本權益,享有隱私是現代社會理所當然的一項個人自由;保護隱私,即保護人的尊嚴,保護我們唯一的生活世界。
然而今天,這唯一世界,正受到全方位的挑戰。隨著新型信息技術的迅猛發展和智能終端的普及,隱私首當其沖。一不留神,隱私已是千瘡百孔,被那無所不能、無處不在的信息工具盯住了。人們的一舉一動,每一個閃念都處于監控之下,不啻一個個透明人。有史以來第一次,隱私成了商品被大規模地買賣。而隱私一旦商品化,不同社會階層和集團便生出相互沖突的利益訴求,關于隱私的社會共識就名存實亡了。
表面上,個人似乎仍是隱私的所有者或法律上的主體,對隱私的動物性需求也未變。基于隱私和自由意志的社會道德依舊,保護隱私的法規都好好的——新制定的保護措施看上去是越來越嚴格了。可是仔細觀察,這些未變的方面都不再重要,重要的卻徹底變樣了:信息技術的“天網”已經布下,隱私無處可藏了!所以,盡管法律規定,隱私應當保護;但那藏不住的私,是不成其為隱私的。這樣看來,“可隱而不可知”是捍衛隱私的關鍵。易言之,隱私的成立和維護,可隱性是一項必要條件。因為,破壞了隱,也就同時取消了私,即公私的界限。
這必要條件遭到破壞,隱私變得可知而失控,正是當下隱私困局的癥結所在。一切隱私問題的探討和對策研究,都不能繞開這一現實。
▍隱私數據化是零隱私世界的開端
信息時代的大勢,是隱私的隱秘性趨近消失。結果,直接危及隱私的兩要素,公私有別和私的自處。其始作俑者,叫作隱私的信息化或數碼化:隱私被信息技術重新包裝,放入虛擬電子黑箱,隔絕于人的感官,被“稀釋”處理之后,以“中性化”的數據再現。
然而,隱私和信息數據是極不協調的兩極。數據是技術產品,往往視為客觀中性,外延開放包容;隱私卻充滿了道德價值,屬于人類自我意識的范疇,是主觀而收斂排他的。當“隱私數據”被捆綁成一個復合概念,這種不協調就被強行抹去,為隱私數據化,繼而商品化鋪設通道,隱私的天地就徹底改變了。很快,人們開始接受一種全新的生活方式:零隱私世界。
隱私的必要條件是“可隱性”。但傳統上,關于可隱性的討論不多。這不是疏忽。從前,日常生活中的隱私的可隱性一向不是問題。仿佛“造物”一開始就恩賜了隱私,讓人行使自由意志。人類的感官,獲取外界信息的能力有限,眼耳鼻口舌,加上皮膚,遠不如許多動物的敏銳。一層紙,一段距離,幾天的間隔,就足以阻斷外界信息的感應接收。而我們引以為傲的大腦,相對于別的動物可稱發達,但信息存儲的可靠性及處理速度,都很不理想;稍微過量,復雜一點,便束手無策。這就使得個人信息不難保持隱秘。例如,說話的聲音與表情,是瞬間即逝的,通常只有近距離耳聞目睹,才能得知。又如,DNA和腦電波,藏在生物密碼中,人的感官無法直接辨認、破譯或記錄。
所以,私的自處而有別于公,生活中不許外人窺探隱私,是自然而然形成習慣和道德規范的。正是這種合乎“人的尺度”的可隱性,成全了隱私,讓人當上自己隱私的守衛,從而整個社會無論在道德還是在法律層面,有了維護隱私的意愿。這么看,人之享有隱私,藉其培育自由意志,不僅是出于傳統的道德選擇,還有賴于客觀上隱私信息往往具有較高的隱秘性。換一角度,隱私之能夠獲得保護,在一定程度上也是人們對其可隱性特征的一種認知和回應。
假如人類滿足于“造物”的饋贈,不去觸動維護隱私的各樣屏障,隱私就可以保持可隱而安全。可是,人類好奇,總想探求新知,創制工具,發現世界的奧秘。終于,到了物聯網智能時代,隱私的傳統屏障坍塌了。生活完全變了,人必須時刻披露個人信息。從農貿市場買菜用微信支付,到旅游點門票的臉像識別;從政府聯網辦公,到銀行電子轉賬;從百度搜索,到芝麻信用評分和信息詐騙;還有街頭巷尾的攝像頭,低頭族的手機,直至谷歌眼鏡、掃地機器人、汽車傳感器、植入手臂的上班打卡芯片??個人信息的收集監控不放過生活的任何一個環節。伴隨技術進步,隱私的疆域大大拓展了,連基因信號和下意識的意念,也被挖掘了納入個人信息。信息化的隱私,是信息爆炸,需要超級計算機來處理,接受各類算法的深度分析,以便追蹤、模擬、預測人們的思想和行動。隱私不再可隱。私的自處,公私有別,變得越來越不現實了。
一般認為,人們尊重隱私,本身便是道德選擇。然而在網絡世界,隱私的物理載體形態同其他信息并無兩樣。無論我們的銀行存款、股票交易,還是DNA遺傳指令、生理特征,都已經化作“0”和“1”的數碼序列,由算法處理、電腦存儲。那里,隱私的內涵是隱沒了的,不會影響技術系統的運作。而隱私的數碼序列外形,卻絲毫不能出錯,否則系統就會罷工。久而久之,信息化的隱私化身為數據而“中性化”,卸下了道德倫理的約束,自由了。
隱私信息化,帶來兩個嚴重后果:一是隱私脫離主體,超越時空,永久地駐扎在信息工具里。人失去了對自己隱私的控制,而受制于信息工具及其主人。第二,電子數碼的信息密度低,噪音強,體量龐大,就像一片茂盛的原始叢林,遵循機器的組織原則,虛擬黑箱運作。人自身的信息處理能力對于如此巨大的數據集,是束手無策的,只能依賴機器。而機器依賴性越高,隱私數據的收集者/掌控者的話語權就越大,個人的談判力就越低。
于是,信息社會里,隱私開始自愿或被迫地從“私”(如消費者)向“公”(如商家)流動,在“公”領域快速而大規模聚集,并按照信息工具主人制定的規則,嵌入人們的日常生活。比如,自從社交網站普及,我們的思想表達、興趣好惡,連同親友信息就被平臺電商收集起來清洗,成了后者的數據財產。接下去的數據交易,則進一步模糊了信息的屬性;隱私本身,也因為在公私之間頻繁穿梭而不再“純粹”,雖然仍指向個人或群體,例如網購者/買家的行為與需求信息,同賣方的交易規則交叉互動而產生的信息集;又如,免費使用搜索器生成的數據。這時,個人維護隱私的意愿就顯得不那么理直氣壯,而難以堅持,直至隱私與道德價值脫鉤。如此,私與公這對經典范疇開始游移不定,公私間界限模糊起來,隱私就無處落腳了。
這就是隱私信息化帶來的最嚴峻的挑戰。面對挑戰,作為擁有自由意志的人類整體,我們仍有機會做出選擇,重建隱私的屏障。然而,新經濟選擇了隱私的商品化,添上了壓垮隱私的最后一根稻草。
▍隱私商品化是壓垮隱私的最后一根稻草
隱私商品化,標志著資本主義世界對隱私態度的質的變化,也是信息社會轉型期矛盾的一個焦點。隱私有用有市,不是新發現。但隱私既是自由人格的條件,也是人的軟肋,需要精心呵護。所以,傳統道德講求節制,是包括尊重隱私在內的;拿自己或他人的隱私做交易,就更是可恥了。道德加上信息能力有限,可謂雙重的約束,隱私才能一路平安地走來。
現在,智能終端的天網建成,迅速消解了這兩道護衛,把蘊藏在隱私中的經濟價值和社會控制力裸露了。這大大刺激了隱私的商業挖掘。人們找出各種正當化的理由,隱私淘金熱就像放出籠子的野獸,失控了。個人信息充斥了商品市場,在經濟生活中占有越來越大的比重。所謂智能經濟,幾乎所有最賺錢的企業都在挖掘使用和買賣隱私,不論谷歌、臉書、百度與阿里巴巴。打開臉書,看看你自己上繳的信息吧:照片視頻,留言打招呼的就不說了,每天的生活細節、消費習慣、工作安排,親友往來等,事無巨細,連你自己都沒注意或忘記了的,統統記錄在案。谷歌占有的信息集就更龐大了。這些網絡巨頭深知,隱私就是財富。于是,隱私被冠以新的身份:以市場需求來定價交易的商品。
既是商品,就免不了推向市場,“公平”競爭。站在市場經濟的立場,挖掘隱私,消費隱私,完全符合發展經濟的政策目標。這樣一來,尊重隱私、維護隱私的道德和技術屏障,因為有礙市場經濟,反而處境尷尬了。資本的策略,是把收集個人信息與服務的便利、高效、創新掛鉤;將分享隱私和煥然一新的消費者感受等同。在飽和的宣傳攻勢下,商家和政府采集使用個人信息,幾乎沒有任何阻力,還美其名曰:消費者同商家雙贏,老百姓和國家雙贏。可是,雙贏是市場贏家的說辭;凡是雙贏的交易,桌面下面總有一方或第三方要付出代價。智能經濟的代價,便是終端用戶/消費者交出隱私。表面上,提交隱私信息換取服務和便利,對人只有好處,但其損害后果是潛在或滯后的,包括未來就業發生困難,突然被拒絕醫療保險,或者遭受價格歧視、信用誤導,直至削弱人們負責任的能力或自由意志。
最近美國一個例子,為此做了絕妙的腳注。2017年3月,國會投票,封殺了聯邦通訊委員會(FCC)年前通過的《互聯網隱私規則》(IPR)。《規則》是為保護網絡用戶的隱私而訂立的,限制網商使用和“分享”即出售用戶的網上行為信息。詭異的是,封殺理由與保護隱私毫不搭界,而是平衡網商的利益,保障市場的公平競爭。也就是說,圍繞《規則》的利益較量,用戶的隱私權益根本沒在考慮之列。更有甚者,國會還表決禁止FCC今后頒布任何類似的保護用戶隱私的法規。據說,這么做是有經濟學依據的。大名鼎鼎的波斯納法官曾著文闡述:保護個人隱私經常是低效的,而特殊保護又沒有必要。以經濟學觀之,商家的“隱私”或商業秘密比用戶隱私更有理由受保護。據此邏輯,與其加強隱私保護,不如促進商家的公平競爭,總效益更高。這便是隱私淪為市場交易的商品,必須面對的利益與辯白。尤其令人擔憂的是,在道德倫理和技術手段都敗下陣來的今天,法律已是捍衛隱私的最后一道脆弱的防線。
隱私法如此不堪一擊,并不奇怪。立法向來是社會各方利益集團談判妥協的產物,一般總是向強勢方傾斜。如果遵循“經濟規律”即市場信條來制定規則,法律就不能妨礙“正常”的商品交換,尤其是實用價值高、市場需求大的商品。而隱私早成了信息市場的寵兒。君不見,個人行為信息支撐著精準投放廣告、區別定價;指紋和刷臉,方便了身份識別與信用追蹤;DNA信息則可幫助保險公司甄別投保人風險。因而,所有的強勢利益集團都要求法律承認,商家收集個人信息,做成商品,就是科學、正當、高效,故而應當支持。隱私保護難免變得縮手縮腳了。于是,基于技術操作規程,法律將獲取和使用隱私分成兩類:合法、非法。例如,黑客為非法,因為沒有向官方注冊;但社交和購物網站合法,只需設置用戶選擇及相關提示。
如此立法執法,造成一個假象:仿佛合法取用隱私對人無害,可以放心“分享”。唯有非法入侵才是隱私遭破壞的原因和隱患,才會影響我們的正常生活。所以只消立法禁止、懲罰隱私數據的盜竊泄漏和非法買賣,我們的隱私就安然無恙了。
這當然是自欺欺人。首先,常識告訴我們,媒體經常報道的個人和團伙盜賣個人信息,由于明顯違法,偷偷摸摸見不得人,是撼動不了隱私的道德地位的。真正的威脅來自合法的隱私收集和商品化交易,因為那是系統的規模化的受保護市場行為。那些網絡平臺和產業巨頭,大大小小的網站、店家、服務商,日復一日、年復一年地依法獲取加工隱私“原材料”,才是對隱私的最大傷害。其次,法律上那一堆看似細致入微的隱私保護條款,不僅對黑箱操作的“漏洞”防不勝防,還是商家的免責保護機制。大數據AI等信息技術日新月異,黑箱操作是設計使然,關乎效率和商業技術秘密。故有評論認為,提高操作透明度,讓信息系統內隱私數據的來龍去脈受監督,有助于保護隱私。
歐盟最近頒布的《一般數據保護條例》(GDPR) ,添加了條款,要求算法自動決策的使用者為決策給出解釋。這是目前為止,對黑箱現象做出的最嚴格限制,也許會有一定的效果。但《條例》依然回避了隱私商品化問題,而把注意力導向透明度。這是意味深長的。再看臉書,當它的保護隱私設置被合法或不當“攻破”,造成海量用戶信息“泄漏”,面對公眾輿論與政府監管部門的壓力,確實,老板公開道歉了,保證采取補救措施,提高透明度,甚至答應讓用戶看到臉書為廣告商提供的自己的畫像(profile)。但是,它沒忘記重申一句:精準投放廣告的商業模式不變。
商品化成為定局,隱私脫離主體,被合法挖掘追蹤分析,廣泛用于解讀并預測、規制人的欲望、想法和行動,人與隱私的關系就變了。隱私主體失去了話語權,不再是自己隱私的主人和守護者。鑒于個人信息的巨大經濟價值和政治紅利,法律別無選擇,只能承認或默許隱私商品化。而公共議題就轉變為:誰可以“合法”占有商品化的果實,即商業利益的競爭和壟斷。所以,合法或是非法,法律都不可能還人類以隱私之安寧。
法律保護的效用如此之低,為什么各國,尤其是發達經濟體,還在不斷強化隱私權的立法和宣傳?原因很簡單,那是政府部門同立法者目前唯一能做,而不影響“大局”的事情。當然,那也是業界巨頭所希望的。比如小扎,18年3月接受CNN采訪,就明確邀請國會立法,規制社交網站,說:問題不是該不該規制,而是什么是正確的規則。
資本非常清醒:隱私關乎人的責任能力,占有隱私并獲得保護,就要承擔相對應的社會責任。當人們交出隱私(無論自愿或不知情),讓商家牟利或政府監管,個人的自由意志選擇范圍便相應地縮小了。人的自主選擇越少,承擔責任的能力也越小。反之,商家和政府獲取的隱私越多,對用戶與社會的控制力也越強。隱私易手,對應的社會責任并不會消失,是需要重新分配的。而且不僅是責任,還是社會風險管理機制的全盤安排。但市場經濟是自利者的王國,資本拿隱私賺大錢,卻無意承擔附著于隱私的社會責任。這就是為什么,他們一邊推動隱私商品化,一邊在媒體和立法層面,大聲疾呼保障隱私。他們企圖讓人相信,盡管隱私化作他人財產已是生活常態,原始隱私權仍在自己手中,并受到前所未有的法律保護。只需發揚分享的美德,就會得到最佳補償,即生活便利。巨頭們直言不諱,希望失去隱私的人們一如既往地承擔行為主體的責任,而掌控隱私的唱唱法律保護的高調,即可免責而享受用戶“分享”的饋贈。
臉書老板早在2010年就說過,我們的隱私觀過時了,隱私“不再是社會規范”。大家不僅樂于分享各種信息,而且喜歡向越來越多的陌生人開放自己,“促成了新的社會規范”。是的,只要巨頭們奉行《圓圈》里的那句臺詞:知道(隱私)好。知道一切(隱私)更好!法律就救不了隱私。
▍隱私終結,意味著什么?
說到這里,隱私經過信息社會商業化的洗禮,命運只有一個去向——走向終結!
也許,一些占有者以為,自己可以是隱私終結的例外,甚而能夠在支配他人隱私的同時,繼續保有自己的隱私?然而,人類的總命運是誰也逃不脫的。從目前AI的發展勢頭看,我們不得不警惕,一種智力優于人類,且具有“自由意志”的獨立物種出現。屆時,機器人未必“甘當”人類肢體和心智的延伸,而人類卻要依靠它才能生存。因此,隱私危機必須放在人機關系中去思考、規劃。個人信息的網絡儲存越多,分析工具越精致高效,硅基智能成長為獨立物種而擺脫人類管控的步伐,就會越快。當AI提升至通用智能,能夠在多個領域自我學習,不再需要人的知識連同隱私當它的學習素材,一如自學圍棋、碾壓人類頂級大腦的“阿爾法零”,那一天,將奏響隱私的挽歌。
不過,隱私的終結,并不意味著人類終結。歸根結蒂,人是可以零隱私地活著的。迄今為止,隱私對于人類重要,是因為人受制于較低的信息能力,亦即人類為自己安排了那樣的生活秩序。所以一方面,隱私是人類高級智力活動的產物,體現了人對自身價值的期待和尊重;另一方面,一旦人類實現“自我超越”,造出通用人工智能(AGI),讓機器取代自己思考、勞動、創造,后隱私時代便降臨了。
進入后隱私時代,人類社會現存的經濟基礎和上層建筑必然失效了。人類將怎樣生活?沒有歷史經驗,沒有參照物,很難想象。但有三點可以預期:
第一,那將是一種沒有自覺自愿,不知何為榮辱問責,但高效而標準化的低智低能的生活秩序。那里,隱私失去了意義。它不再能培育自由人格,因為系統中沒有自由意志的位置。它不再是社會責任的代價,因為人無須自由選擇自主行動而承擔責任。它也不再是智力活動的衍生品,因為人類主動放棄了發展智力的努力,滿足于在無限優化了的天網下執行指令。
第二,社會的中心不再是人與人的關系,而是人機關系和機機關系。人類不復為地球的主人,反倒有可能變成硅基智能系統的累贅。不是有AI專家預測,二十五年后,無人駕駛技術成熟,人類將被禁止駕車上路。無人駕駛的交通系統,其交通規則、道路設計、社區安排等,都是不許出錯的。人類駕駛只會破壞科學設計的完美,引發交通事故,降低行車效率。實際上,排斥人類參與、刪除人類個性,那樣的硅膠智能世界,才可能是高效簡潔、完滿無缺的一個大“圓圈”。
第三,人類世界本身,共產主義或許是唯一的選項。因為機器人治下,人不但沒有了隱私,分工也已消失。所有的個體都集合于一個總體,個人自由即全體的自由,我為人人即人人為我。
人工智能的先驅,已故的麻省理工學院教授明斯基(Marvin Minsky)說過:有朝一日,當我們掌握了建造智力遠勝人類的機器的知識,就不得不面對一個奇特的問題,那就是:該不該建造?我很幸運,因為我可以把這一困難的選擇留給后人。但我相信,他們不會建造,除非找到很好的理由。明斯基還曾經對深度學習神經網絡技術做出悲觀的描述,他的觀點被認為阻礙了AI發展達半個世紀之久,因而頗受詬病。但換個角度,這也許是教授對人類最大的貢獻:為我們做好準備迎接機器人時代,贏得了寶貴的時間。
明斯基的智慧提醒我們,對隱私應取審慎節制的態度。也許,停下對隱私的深度挖掘和過度商業化,我們會少些便捷、舒適和效率,辦事會不那么順暢。但我們就可以繼續辛勤勞動,思考學習;繼續擁有自由意志,而擔起自己的社會責任。我們將保有隱私同人格尊嚴。這,才是一種更美好的生活。
—??2020年12月新刊目錄??—
▍域外
羅斯福道路能拯救英國嗎?
佘倩影 張佳俊
▍封面選題?“雙循環:探尋中國經濟發展新空間”
創建“消費-創新”新循環——?2035經濟新主題
張?平
疫情、衰退與沖突下的中國經濟新發展
張?明
培育制造業生態體系:工業史視角下的“雙循環”
嚴?鵬
走出薩繆爾森陷阱——打造后全球化時代的開放經濟
高?柏
▍全球治理
國際權力結構變遷與世界衛生組織的發展策略
張傳紅 李小云
▍公益理論與公益實踐
反思“第三部門”理論:扶貧中的政府與公益組織
王曉毅
懸浮的社會組織
陳 鋒
▍專題:重新認識西方
“美國實驗”與“美國危機”——?特朗普現象背后的總統選舉制度
王?希
歐洲民粹主義的多重面孔
張金嶺
歐洲環保政治的興起與限度
葉開儒
▍新發展知識
被架空的援助領導者——?日本戰后國際援助的興與衰
徐 加 徐秀麗
▍學術評論
如何建設政治學的中國學派
潘?維
▍世界觀
什么是中亞?——?地緣身份、內部結構與復線歷史
袁?劍
全球疫情下的中西方碰撞與“東升西降”
高?程
▍經典重溫
吳汝綸訪日與近代中國教育改革
楊一男
本文原載《文化縱橫》2018年6月刊,原題為“‘零隱私世界’:信息時代隱私保護的困局”,篇幅所限,內容有所編刪。圖片來源于網絡,如有侵權,敬請聯系刪除。歡迎個人分享,媒體轉載請聯系本公眾號。