摘要:技術飛躍與治理提升之間的關聯通常被假定,也早已被吸納進“數字中國”“智慧社會”等政策實踐,但法律的習慣性滯后帶來了監管套利的空間。公共治理領域的自動化應用經歷了從基于數據庫編碼的計算機自動化到基于機器學習的算法自動化再到基于神經網絡的超級自動化的逐步躍遷,從早先自下而上專業人士的“輔助/參考”和個別部門的“部署/應用”嬗變為自上而下的社會化“嵌入/集成”,公權力、私權力及私權利的關系發生了結構性轉換。相應地,國際通行、日益趨同的個人隱私保護(事前同意)、算法可解釋性(事中監測)和完整履責鏈條(事后追責)的監管范式也應依照宏觀技術共治、中觀價值位階和微觀權利保障三位一體的規制路徑進行體系化重構。
關鍵詞:公共治理;人工智能;自動化應用;算法規制
黨的十九屆五中全會提出,“十四五”時期經濟社會發展要以推動高質量發展為主題,這是根據我國發展階段、發展環境、發展條件變化做出的科學判斷。自動化應用能夠提高經濟社會的智能化水平,有效增強公共服務和城市管理能力,是提升現代化治理不可或缺的技術加持。在“黑天鵝”和“灰犀?!睙o處不在的風險社會,依靠大數據、云計算、機器學習以及各類算法工具營造的行政“社會共律”,是獨立個體普遍“自律不足”的必要補充;健康碼等自動化應用介入公共治理具有了充分的合法性根基?!斗ㄖ沃袊ㄔO規劃(2020—2025年)》要求在2022年年底前建成全國一體化的電子政務服務平臺,推動人民群眾參與社會治理,打造共建共治共享的社會治理格局;電子化審批、算法化決策、智能化評估和服務等,已在多個領域先行試點。
自動化應用提升現代化治理,需要強大的經濟和法律制度作為后盾?!坝捎诩夹g變革帶來的‘外部性’不斷變化,行為主體難以就風險程度、治理事項的優先排序、治理目標與手段的選擇等問題形成共識,這使得安全治理在起點的原則規范上就缺乏堅實基礎?!编笥趯Σ粩嘤楷F的新形勢、新業態、新模式的認知不足,當前個人信息保護法和數據安全法的立法和闡釋進路,正不可避免地步入過于關注隱私保護的歐盟《通用數據保護條例》、強化信息披露的法國《行政法典》以及確保責任主體鏈條可追蹤識別的美國《算法問責法案》等“問題驅動型立法”的路徑依賴,“頭痛醫頭、腳痛醫腳”的立法范式,難以為自動化技術的跳躍式發展和管理部門的跨界式應用提供保障。研究表明,完全從信息保護入手建立規制體系的嘗試,已經被證明面臨加劇社會割裂的風險與徒增合規成本等流弊。如何突破公私二元界限、掙脫傳統法律規制的制度慣性,采取整體化應對而非單純數據保護的思路,以期為自動化應用介入現代化治理保駕護航,無疑是邁向全面建設社會主義現代化國家新征程之時亟待思考的重要問題。
一、自動化應用介入公共治理領域的法律問題
公共治理領域自動化應用的是非利弊之爭,由來已久、反復無常、難分伯仲,始見于1978年法國《數據處理、文件和個人自由法案》頒布前夕、興盛于1995年歐盟《數據保護指令》適用之后、延續至2018年歐盟《通用數據保護條例》的監管實踐,與新公共治理理論的由盛轉衰、新公共服務理論的迅速迭代和公共價值管理理論的異軍突起相伴相隨。
(一)新公共治理語境下的自動化應用
早在1971年,莫頓(Michael Morton)在《反思智能輔助系統: 基于計算機的自動化決策》一書開頭就發出了“切勿盲目迷信機器自動化決策”的警告,并直接促成了法國《數據處理、文件和個人自由法案》對司法行政自動化應用的一概禁止。然而,計算機自動化的發展和應用契合了早期新公共治理理論為解決監管機構資源匱乏而被迫演化出的“按需監管”路徑,用清晰有序的風險評估框架取代了過去憑空想象的資源分配順序,實乃既定稟賦下公共治理能力提升之“自然選擇”,在法國之外的其他國家發展迅猛。彼時學界前瞻性地指出,自動化應用“人為打壓理性數據分析的地位,為獲得似是而非的簡化結果毫無原則、不計后果地對某些因素進行加權并賦予相對重要性”;對美國大型城市公共信息系統的早期實證研究也表明,鑒于某些公共任務本身所蘊含的政治屬性,不能一味地讓計算機系統在“涉及公共權利的事項上為所欲為”。
不過,這些理性的呼聲幾乎完全淹沒在新公共治理理論學者對“解構”“非領地化”和“變樣”的狂熱之中,技術層面的高歌猛進與傳統古德諾行政二分論和韋伯科層制論的節節敗退形成鮮明對比,很大程度上滿足了激進派“掀起一場官僚制度革命”的主觀想象。即便是與新公共治理理論學者所倡導的“層層契約制”格格不入的新公共服務理論學者,也大多堅信技術進步將促進社會福利的雨露均沾——算力提升讓過去難以協同一致的計算機系統間可以合乎邏輯地彼此聯動,極大地消除了管理部門之間的隔閡,使得“系統遺留問題得以自然消解”。在技術裹挾治理的大趨勢下,公域軟法的必要性,日益凸顯。
(二)自動化應用的角色與功能變遷
將集體協商和網絡治理貫穿于公共服務的獲取和傳遞之中、輕“個體偏好的簡單疊加”重“利益相關者的對話與參與”,新銳公共價值管理理論學者不約而同地主張應跟隨技術變革的腳步不斷修正民主與效率的關系,但他們對自動化應用的評價卻呈現出兩極化趨勢。萊頓·安德魯斯(Leighton Andrews)認為,技術進步促進了公共服務有效和規范地傳遞,是對缺乏專業決策、響應遲延和服務標準化匱乏的官僚主義的矯正,能夠有效促使“技術官僚的角色從管理者向公共利益共同創造者和維護者轉變”。對此,邁克爾·利普斯基(Michael Lipsky)針鋒相對地指出,“公共服務的核心,在于自然人可以而機器人卻難以實現的‘推理和決策’”,借此唱衰公共行政領域的自動化應用。
利普斯基的上述悲觀言論至今已經整整過去十一年,在公共治理領域,無論是行政部門、人事部門還是公共企業乃至司法部門的自動化應用不僅有增無減,還大有百花齊放之勢。2016年,美國威斯康星州最高法院在“州政府訴盧米思案”(State v. Loomis)中正式認可法官借助自動化系統進行量刑裁判的合理性與正當性,意味著人工智能對司法的影響從輔助層面正式進入實質層面。長期引領工會斗爭之風的威斯康星州的這一舉動,旋即激發了學界對公共治理領域自動化濫用的擔憂。連司法量刑裁判都可以通過自動化系統完成,人工智能技術的應用是否還存在邊界?自動化帝國主義侵入傳統的司法審判領域引發了幾乎是規律性的部門法學者的反思和詰問,例如,人工智能能否真正模擬法律議論?機器學習何以輔助事實認定?在管理部門“數字化”的大背景下,自動化應用做出價值判斷的合法性基礎何在?如何針對平臺用工、電子交易等公共治理樣態引入新的類型化規則?在智能社會中消除異化、促進人的自由全面發展所需要的法律保障是什么?上述法學論題在回應和補充公共治理學科相關研究的同時,也帶來了方法論上的啟示: 我們究竟應當如何定性公共治理領域的自動化應用?管理效率的提升能在多大程度上正當化自動化應用對公眾權利的侵蝕?
(三)自動化應用規制的法律聚焦
推進國家治理體系和治理能力現代化,是我國全面深化改革的總目標。個人信息一直是一種非稀缺的公共物品,從效用增益的角度來看,公共治理領域的自動化應用符合從傳統社會治理體系向科技社會治理體系轉型的大趨勢,因為自動化系統能以更高效率和更低成本實現“溫故而知新”。在北京,城市管理綜合行政執法局通過對海量投訴舉報電話的機器分析,得出每年夏季晚間某固定時段占道經營違法行為上升的結論,結合指揮系統的位置信息,集中調配執法力量,實現科學執法;在上海,政務服務“一網通辦”、城市運行“一網統管”,將“菜籃子、米袋子、水電煤氣”等基本民生保障類的“獲得感”數據作為治理數字化的重要抓手;在江蘇,公安部門的犯罪預測系統已覆蓋超過百種常見的違法犯罪行為,犯罪治理活動從事后打擊轉為事前預防;在河北,導訴機器人、手機立案平臺、多元解紛結果預測系統為群眾提供了像“新零售”“網絡店”一樣方便的糾紛解決服務渠道。
需要特別強調的是,各類自動化系統遠非盡善盡美,也并非在所有領域都比自然人做得更好,甚至在多個應用場景中問題頻現。例如,在缺乏科學論證的基礎上,紐約州曾率先利用預警保護系統來鑒別具有“嚴重家暴傾向”的父母,并對“高危兒童”進行隔離保護。該系統不僅沒有大幅降低虐童事件的發生概率,還造成了上萬正常父母同其子女的被迫分離,上線不到半年就引發眾怒。美國賓夕法尼亞州用于提供替代性制裁矯正犯罪管理畫像的坎帕斯風險評估系統(CAMPAS),被指控存在嚴重種族歧視的傾向:在該系統做出的犯罪高風險判定中,黑人數量竟然占到白人數量的兩倍以上;在系統看來,即便是有多次前科和犯罪指控、經濟狀況欠佳的白人,也比接受過良好教育、無任何不良嗜好的黑人,犯罪風險更低。2019年4月,逾四萬居民對密歇根州政府提起了集團訴訟,起因是政府用于檢測騙補行為和欺詐行為的米達思預測系統(MIDAS)的出錯率高達93%,致使數萬申請人被無端懲戒。
從世界范圍來看,有關自動化應用的立法建議早已漸次成型,但多墨守自動化應用為自然人輔助之成規,致使“組織性無序”和“程序性濫用”屢禁不止,“這是一種極為尋常的經驗,但也是全球化所指”。究其根源,碎片化的規則探尋容易缺乏對自動化應用特征共性的整體把握,造成個別小體制對抽象的大體制的掣肘和抵消?!肮彩聵I”已經成為自動化應用的核心領域的美國和加拿大,仍“屢敗屢戰”,積極探尋框架式治理和協同治理共存并行的全周期評估框架。即使試錯成本高昂、技術性矯正手段相對匱乏,公共治理也早已不可回頭地染上了數字時代的自動化底色,“人類正在從持續了千百年的物理實體社會跨入新興的虛擬數字社會”,涵蓋法學理論、司法實踐和制度規范的法律轉型升級早已是“箭在弦上”。
二、自動化應用治理導向法律規則的構建機理
長期以來,面對公共治理的數字化、公式化和模型化,新公共治理理論學者和新公共服務理論學者傾向于籠統地將技術進步視為官僚主義從韋伯式的公共利益行政廉潔和公正模式向新公共治理范式轉變的驅動力,而公共價值管理理論學者卻不由自主地沉浸在對技術變革遠期風險的悲觀情緒之中,此間的價值觀割裂,須在對日新月異不同類型的自動化技術區別對待的基礎上予以修復。
(一)自動化應用的三重維度區分
以人工智能顛覆傳統公共治理手段為視角,自動化應用可以由遠及近、由淺入深地劃分為三個維度。第一維度是基于數據庫編碼的計算機自動化(1980年代開始),可以近乎完美地替代基層公務員實現“唯手熟爾”的重復性基礎工作和流程性工作,例如,將電話或通信分類到正確的聯系人、審閱數份公共文件后提煉出要點和關鍵詞、根據以往的公共文書來修改生成更新的交易文書等。重復、簡單的工作日益被高效、廉價的機器人逐步取代,大大提升了勞動生產率。在第一維度,自動化決策對自然人的取代在于計算機具有更高數據處理能力的事實。
第二維度是基于機器學習的算法自動化(2010年代開始),其實質是作為編程理論典范的透過“規則本原的邏輯”,在范圍不確定的環境中進行邏輯推導或模式識別,替代自然人實現“溫故而知新”的基礎性預測工作與規范性鑒別工作,但常因系統失靈多次給社會帶來極高的“矯正成本”。在歐洲地區不止一次出現這樣的情況: 例如,法國銀行間通用的客戶資信考察系統,曾一度拒絕為單親家庭成員提供住房貸款;英國鐵路部門的智能審核系統把關不嚴,超額濫發多張特許經營執照。近年來,亞洲各國也相繼出現了“人工智能熱”,技術外部性效應日益凸顯,例如,超過1/4的韓國公共公司在人員招聘中使用智能面試系統。該系統可以檢測面試者恐懼、喜悅和回避的面部表情,并結合其措辭、眼神活動和聲調變化等細節,對面試者進行抗壓能力高低以及是否具備職場靈活性的判斷。重壓之下,各類面試練習班層出不窮,求職者支付天價補習費用,只為學習如何在機器面前“用眼睛微笑”。在第二維度,自動化應用導致的公權力擴張在于管理部門對機器學習技術能夠做出準確而中立預測的不當信賴。
第三維度是多個機器學習模型相互交織、基于神經網絡的超級自動化(2020年代開始),現已徹底突破利普斯基所認為的自動化決策系統的“智能上限”,其獲得識辨特定時期的法律和社會運行宏觀規律、以超乎常人的洞察力來提供制度解決方案或進行價值判斷的能力的奇點臨近。在第三維度,自動化應用以管理部門為載體,表面上看起來是被公權力所“收編”,實則將“權威從個人轉向由算法構成的網絡”。人類將不再是自主的個體,而是一種生化機制集合體的組成部分,逐漸由自動化決策系統實時評價、定義、監測和指揮。
(二)公共治理理論的立場辨析
以上述三個維度作為基本線索,交叉比對相關研究后不難發現,新公共治理理論學者出于對第一維度機器自動化成功的認可、公共價值管理理論學者出于對第二維度算法自動化失靈的擔憂,對第三維度超級自動化崛起的判斷大異其趣——要么過于樂觀、要么過于悲觀。實際上,公共治理領域第二維度或第三維度的自動化應用,其前景定然介乎于二者之間;正如法學家們多倡導對技術變革的“理性冷漠”,跳出人工智能的應然與實然之爭,轉而就已經出現的問題和即將出現的問題尋求應對之策,提出了代碼正義觀和算法正義觀等新型法權理念。在智能社會語境下,需要密切關注的是公共治理領域自動化應用已經產生的第二維度困境和必然面對的第三維度風險,借此反思人工智能促進公共治理體系和治理能力現代化所需的必要法律保障,進而為公共治理領域自動化應用的制度設計明確方向。
(三)傳統法律應對的局限與失靈
對于自動化決策崛起所帶來的法律挑戰,世界各國主要采取了三種傳統方式加以應對: 以個人數據權為核心展開的隱私保護立法、以因果辨析和流程透明為導向的可解釋性合規要求,以及覆蓋數據處理全過程的完整履責鏈條。這種看似完備的“事前—事中—事后”的規制范式,在實踐中面臨可行性和可欲性難題: 一方面,法律規則之于技術嬗變的更高站位,源于立法者制定規則時運用的思維和智識合理性,即立法者是否可以突破當前自然科學以及宗教倫理所框定的籬藩,超前布局應對技術必然帶來的權力異化與權利式微;但就目前而言,立法者在自動化應用第一維度和第二維度已經完成的知識積累,還尚不足以應對第三維度自動化應用可能帶來的法律挑戰。另一方面,“問題驅動型”的立法應對模式并不自然催生令人向往的制度生態,即便具備技術可行性的法律規則,也未必長期符合相關主體的合理利益訴求;大眾的狂熱和盲從常因理性的回歸得以修正,而追逐自身利益最大化導致的立場轉變,或讓原本就舉步維艱的立法回應不堪一擊。在這個意義上,既有“事前—事中—事后”規制范式的脆弱性顯而易見——“可欲性”淪為了為達到“可行性”而進行的說理手段,但“可行性”卻難以帶來“可欲性”的法律效果。具體而言,無論是以個人數據權為核心展開的隱私保護立法,以代碼公開和流程透明為導向的可解釋性合規要求,還是覆蓋數據處理全過程的完整履責鏈條,都不具備嚴格意義上的“規則圓滿性”,在實踐中屢被架空。
其一,“告知—選擇框架”廣泛被各國立法者前置為數據處理全周期的“第一閘口”,使得隱私保護爭議在司法審判實踐中常以合同糾紛論處。在引人矚目的“刷臉第一案”中,杭州市人民法院判處動物園不當采集公民生物特征信息,但勝訴的原告郭兵僅就合同利益損失和交通費補償獲得了1038元的賠償。這樣的判決結果顯然無助于遏制被告動物園繼續“店大欺客”,強推其他“技術入園”的自動化應用嘗試。更重要的是,長篇累牘用戶協議下的“告知”實際上是毫無誠意的“告知”,授權俘獲機制下的“選擇”也未必就是真正意義上的“選擇”?,F行法判定數據主體是否因充分“被告知”而做出真實意思表示“選擇”的審查標準,只是技術方是否履行了最低信息披露要求,這實際上是以自動化應用技術主體的行為違法性評價取代了數據主體的法益保護評價,難以對數據主體的隱私侵害提供充分救濟。
其二,強行代碼公開將必然導致知識產權保護和投機式對抗方方面面的阻力,可解釋性合規要求取代算法公開成為“退而求其次”的法律選擇。立法者看到的是一個規定可解釋性合規要求就足以讓自動化應用可解釋的世界,但正是這種不切實際的理想愿景導致了技術發展與法律滯后之間的巨大鴻溝。隨著自動化應用從第一維度和第二維度逐漸向第三維度轉換,機器學習模型和卷積神經網絡的復雜程度呈指數級遞變,就正如再強勢的父母也無法完全預設子女的人生選擇那般,一旦進入全自動更新換代的狀態,自動化應用的造物主也可能退居次席,成為僅僅掌握底層代碼的“局外人”,甚至對自動化應用的脫韁束手無策。即便是在自動化應用復雜度相對有限的第一維度和第二維度,考慮到數據主體通常不具備相關理論知識背景,要就自動化應用的運作機理與決策方式做出準確且外行人也能理解的解釋,往往徒勞無功。更有可能的情況是,信息和技術的雙重優勢地位必然帶來監管套利的空間,解釋和說理的方式最終將完全取決于經濟和政治目標,致使數據主體在“半哄騙半威嚇”下掉入任人宰割的陷阱。
其三,當自動化應用失靈損害當事人利益時,自動化應用的使用方未必是唯一應當承擔責任的主體,技術開發方、數據處理方乃至看似中立的平臺也是潛在的責任方。但是,在實踐中,每一層法律關系之間,可能存在著環環相扣的免責條款,出于對當事人意思自治的尊重,此類條款不宜隨意被強行法排除。此外,理想化的完全履責鏈條高度依賴侵權責任,其本質是基于合同相對性的信義義務約定,通常以具有直接近因的法律關系為限。況且,一旦自動化應用進入第三維度,自動化應用所依托的非自然人載體將取得獨立法律地位,此時,傳統的信義義務關系又可能陷入自指化悖論——依照數據主體要求提供專業化服務的自動化應用,究竟應當被視為對其載體享有支配權的運營方的代理人,還是為數據主體實現特定目的的代理人?在雙方代理絕對禁止的情況下,基于信息、知識和能力的不對等而產生的信義義務極有可能出現“指向劈叉”的情況??偠灾?,功能主義的立法范式,長期落后于技術突飛猛進帶來的破壞式創新,夾雜著概念層面的模糊和失序,最終導致了個人權利的虛化。
三、公共治理領域自動化應用法律法規的全新面向
以自動化應用的維度區分為基礎、以公共治理理論的立場辨析為坐標、以傳統法律應對的失靈為警醒,公共治理領域自動化應用法律規制的完善方向,可以從宏觀、中觀和微觀三個層面展開。
(一)宏觀技術共治:以程序透明取代代碼透明
由于缺乏數據積累,管理部門經常需要同掌握大數據的私營企業或者平臺合作,這種權力“外包”顛覆了傳統的權力專屬原則和正當程序原則。具有準公權力的企業和平臺橫亙在政府與市場之間,公權力、私權力(準公權力)和私權利的多方博弈不僅沒有給普羅大眾帶來實質性利好,反而極有可能造成高度技術化的管理部門和持“尚方寶劍”的平臺寡頭對身處信息弱勢地位的普通民眾的“輪番算計”。外溢出來的公權力難以監管,卻迅速呈現出私有化、商品化和官僚化的異化趨勢;生產數據和積累行為剩余,或將成為個體受眾在“監視資本主義”下的唯一價值。自動化應用構建于海量個人數據的處理之上,而個人數據處理活動包含了數據主體、數據處理主體以及社會公眾三重利益。從數據安全的角度來看,自動化應用規制的微妙性體現在,當數據處理主體以壓倒性的技術和信息優勢侵蝕數據主體的合法利益時,政府不宜直接介入數據主體和數據處理主體之間的利益分配,而只能以社會公眾利益為導向對數據主體和數據處理主體之間的利益失衡進行力所能及的糾偏。依照計算風險規避效用的漢德公式,對管理部門“公共使命”和平臺企業“社會責任”的籠統強調,遠不如反其道而行之直接從代碼入手、從源頭解決問題具有更高法益。如何以權利保護和責任落實為核心、以“技術倒逼技術”為手段,讓國家公權力與社會私權力所形成的在一定程度上“去中心化”的共謀治理機制更加貼近人民群眾對技術變革的理想期盼,是未來立法工作的重中之重。
無論是哪個維度的自動化應用,算法程序的運行皆以代碼為基礎,因此,通過代碼對自動化應用實施逆向管理在理論上可行。外觀上,代碼是具備技術中立性特征的系統語言,但這并不意味著代碼的組合就不能進行價值負載。實際上,基于代碼的自動化應用,或多或少包含了所有者、利用方、程序員以及數據集本身的私心與偏見?!胺ü賹τ诜捎谜Z不可附加任何意義,毋寧須以受法律及立法者拘束的方式,來發現法律的語義內容”,但是,自動化應用的創造者和改造者,是清一色未經過任何系統法律訓練的程序員,他們將鮮活的語義轉化為毫無情感的代碼,進一步完成機器模型的建立,使得自動化應用背后的計算機語言有時不能精確地轉譯規則的實際含義,甚至偶爾還會因為程序員的個人好惡、理解偏差使之與原本預期相去甚遠。以美國公共福利系統的失策為例,美國科羅拉多州公務員曾經將“無家可歸”錯誤解讀為“行乞為生”,使得本應獲得政府救濟的流浪漢們被自動化審核系統拒之門外。在代碼化過程中因語言理解和事實認定產生的巨大差異,以過失和疏忽為構成要件的一般侵權責任以及以信義義務為核心的事后審查機制都于事無補,只能通過更精確的代碼語言來減少轉譯過程中的偏差和耗散。在宏觀層面,與其讓算法“透明”,不如讓程序員的代碼寫作過程“透明化”;可以考慮以技術手段構建專屬于程序員群體的闡釋和說理場域,通過交流和相互探討的方式將模糊的概念精確化,使得自動化應用底層代碼中的邏輯連鎖推論,可以更好地適用于意義涵攝,并通過完善中間步驟的方式更為準確地定義終局概念。
(二)中觀價值位階:場景理論助推技術性規制
自動化應用對公共治理的介入,需要對各類信息進行數據化改造,在克服表達障礙后,主要依據概率計算而非演繹推理的基本邏輯來行使公共職權。在機器學習和神經網絡的加持下,第二維度的算法自動化已經可以熟練進行法律規則適用的三段論推理乃至辯證推理,但當下第三維度的超級自動化即便通過模型累積遞歸、交叉話語博弈也難以做出公正的價值判斷。理論上,價值判斷的命題群可被結構性改造以實現整體客觀性,但不同的應用場景和語境必然對應不同次序、不同權重的價值元規則。在技術共性規則之外,法律應就不同公共治理領域(例如衛生、醫療、教育、司法、社會保障等)所面對的技術社會化應用場景,分門別類地填補具體的、顆粒度更細的法律規則以實現公共治理的提質增效,場景理論介入自動化應用規制,具有了合理性基礎。
場景理論提倡以情境為導向考察自動化應用的風險水平,相應制定與風險程度相一致的規制策略和規則,亦即“貼合現實的法律應對”,其理論根源是傳播學家梅羅維茨·約書亞(Meyrowitz Joshua)的情境理論(Contingency Theory)。海倫·尼森鮑姆(Helen Nissenbaum)等人將情境理論延伸至信息科學領域,發展出了基于“場景一貫性”的社群主義隱私產權理論。其提倡結合參與者、數據類型和流動樣態三大關鍵要素,判斷自動化應用的風險是否超過數據主體的合理預期。美國《消費者隱私權利保護法》與歐盟《通用數據保護條例》是將場景理論引入立法的典型代表,前者對“場景自洽”進行了專章規定,認為個人隱私受侵害程度同因違反信息傳播規則導致的場景破壞程度息息相關;后者要求自動化應用的利用方在事前考察數據處理活動的“性質、范圍、語境與目的”,并主動向監管者提交潛在風險的應對措施。近年來,場景理論還延伸到了人臉識別技術的法律規制當中,為網格和網絡作為治理之理想類型的二分提供了理論基礎。
不過,上述立法實踐,均未跳脫出傳統的自動化應用的規制思維,不僅未能真正實現場景理論介入自動化應用規制本應帶來的監管效率提升,甚至起到了同預期完全相反的效果?!断M者隱私權利保護法》所規定的“場景自洽”主要作用于傳統的“告知—選擇”框架,在實踐中反而導致了自動化應用“目的拘束原則”的擴大解釋,擴大了某些自動化應用和個人數據處理活動的合法性基礎,使得自動化應用的流弊變本加厲?!锻ㄓ脭祿Wo條例》的相關規定,本來旨在明確自動化應用利用方的風險管理責任,以區分情境適當增強或降低外部執法威懾的手段,保障自動化應用的風險“可防可控”;但是,過于教條的法律規定帶來了“執行難”的問題,歐盟各成員國依照《通用數據保護條例》制定本國信息保護法時,只能著眼于依照情境適當強化或削弱自動化應用利用方的信息披露義務,并同步賦予數據主體是否繼續授權的權利,這就又回到了毫無新意的“告知—選擇”框架上。
回到自動化應用的本質,無論是第一維度的自然人決策輔助,第二維度的人機交互決策,還是第三維度的高等自動化,自動化應用必然會因為運用主體的不同、針對對象的不同以及所涉及問題的不同具有大相徑庭的性質,就此而論,場景理論介入自動化應用規制的根本目的,應當是根據不同場景確定不同的規制方式。由于自動化應用的風險與日俱增且難以被當事人察覺,不同的風險場景“依其位階衡量輕重”的規則設計需以系統化構筑技術風險管理體系為目標,將主要風險管理責任配置給自動化應用的使用方、次要風險管理責任配置給相關管理部門,實現齊心共治、多措并舉的合力局面。公共價值管理理論學者雖然對自動化應用的評價褒貶不一,但大多都認可辯證地看待自動化應用的社會效益。從場景理論的視角來看,不同的場景,一定對應著不同的自動化應用的“社會最佳活動水平”,場景化法律規則,正是以寬嚴相濟的動態規范方式,促使自動化應用無限趨近符合現實情況的“社會最佳活動水平”,借此來實現公共效益的“帕累托最優”。在這個意義上,法律是技術領域國家宏觀調控的重要手段,動態的風險控制機制是確保自動化應用“技術向善”不可或缺的法律保障。
(三)微觀權利保障:避免自然人決策名存實亡
目前,公共治理領域的自動化應用處于從第二維度向第三維度的過渡階段,具體表現在: 自動化系統占有、處理承載著社會利益的大數據,從單純的技術工具逐步升級為通過嵌入社會權力結構發揮作用的“準公權力”。隨之而來的格局很可能是,自動化系統的應用范圍越來越廣,專屬于人類的決策空間和社會溝通被漸次壓縮: 公共治理和服務中的各個環節越來越多地被算法事先預設,通過大數據反映出來的趨勢和評價會限制和迷惑自然人的推理和判斷,也必然會削弱管理部門的自由裁量權。本來希望通過技術來確保公共治理的中立和客觀,結果卻很可能完全抹除自然人獨有的通時合變的人情味,讓冷漠、機械、獨裁的自動化決策大行其道,同新公共治理理論所倡導的“公民權理念觀”和公共價值管理理論所強調的“協商機制”都背道而馳。反過來,自動化系統的專斷又將逐漸影響大眾群體的行為規范,在人機相互適應的過程中不斷強化“算法絕對主義”。職是之故,法律首要任務,從社會整體利益的角度防范公共治理領域中的自動化霸權,亦即,從宏觀層面防止自然人決策名存實亡。
早在自動化應用的第一維度時期,人們就已經意識到,只有在決定自身利益的關鍵事務上享有積極參與的權利,才能在知識、經驗和道德上維持一以貫之的卓越。出于對機器超越人類的無形恐懼,歐盟立法者在1995年的歐盟《數據保護指令》第15條率先規定了“脫離自動化決策權”的雛形:“數據主體享有免受基于用戶側寫的完全自動化決策的權利?!痹诖撕蟮?/span>20年中,雖然自動化應用已從第一維度向第二維度躍遷,但“脫離自動化決策權”在各成員國法院的審判實踐中幾乎從未發揮任何作用,被戲稱為歐盟《數據保護指令》中的“二等權利”。即便如此,2018年的歐盟《通用數據保護條例》第22條概括繼承了《數據保護指令》第15條,還進一步拓展了“脫離自動化決策權”的行權對象和適用范圍,賦予相關人完全脫離自動化應用對其做出的具有法律后果的決策的權利,足見“脫離自動化決策權”在自動化應用從第二維度向第三維度躍遷時代背景下的特殊意義。
為了使“脫離自動化決策權”脫離“二等權利”之稱謂,歐盟各成員國通常將《通用數據保護條例》第22條作為賦權性條款解讀,但由于普遍缺乏對第三維度自動化應用的準確理解,原本就過于抽象的“脫離自動化決策權”在實踐中廣泛存在與“更正權”競合之表象、與“獲解釋權”補強之曲解以及與“被遺忘權”混同之誤判。界定“脫離自動化決策權”的內涵應當回歸自動化應用的維度劃分,“在基于數據庫編碼的計算機自動化場景為脫離數據采集,在基于機器學習的算法自動化場景為脫離用戶側寫,在基于神經網絡的超級自動化場景為脫離平臺交互”。在“更正權”“獲解釋權”和“被遺忘權”之外,公共治理學者還提出了“陳情權”“離線權”和“注意力保護權”等概念,這些形形色色的具體權利,既是“脫離自動化決策權”的細化表達,也是在自動化應用大行其道的背景下,以更高程度的人類干預取代較低程度的人工介入的理性呼吁??傊?,自動化應用的維度躍遷,亟需微觀層面的新型個體權利予以應對;堅持問題導向和目標導向、圍繞“促進人的全面發展”構建權利簇,正是“以良法促進發展、保障善治”的題中之意。
四、結語
公共治理領域的自動化應用,完全不同于私人部門的自動化應用。傳統侵權責任規定和信義義務創設,足以應對大多數私人領域的自動化妨害,基本能在合同相對方的信義義務框架內解決問題。但是,公共治理領域的自動化失控,卻極有可能給整個社會帶來類似環境污染一樣的“公共妨害”,其本質是技術外部性擴散所引發的社會成本向廣大弱勢群體的不合理轉嫁,若不加以控制,定然會隨著公共數據體系的污染日趨積重難返;以當代公共治理理論已確立的規范價值作為對標,跨學科對公共治理領域自動化應用的動態法律思考迫在眉睫。
“法者,治之端也?!狈傻慕K極原因是社會福利,技術亦然。自動化應用介入現代化治理的持續與有序,有待整合社會各方力量,形成跨領域的、立體的協同合作體系來推動技術和法律的共同演進。在這個協同體系中,社會公眾利益擁有壓倒性考量,而權力制約和權利保護應共存并行,平衡自動化應用載體的內部治理系統和外部監察制度,既是實現以“智”提“質”治理的重要基石,也是用新發展理念引領發展全局的內在要求。如此這般,方能真正促進全面依法治國的制度優勢與勢在必行的技術治理之間的交流與相互增益。
作者:唐林垚,中國社會科學院法學研究所助理研究員、法學博士。
來源:《交大法學》2022年第2期。
主辦:中國社會科學院法學研究所、國際法研究所
地址:北京市東城區沙灘北街15號