国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

萬方:人工智能國際治理的三重維度 | 中外法學202506

0
分享至

【副標題】產品責任、倫理價值與國家安全

【作者】萬方(北京外國語大學法學院教授 )

【來源】 北大法寶法學期刊庫 《中外法學》2025年第6期 (文末附本期期刊目錄) 。因篇幅較長,已略去原文注釋。


內容提要:當前人工智能國際治理主要涵蓋產品責任、倫理價值與國家安全三個目標維度。歐盟、中國和美國在人工智能國際治理中分別代表了個體權利主導、平衡多元目標與國家安全主導的三種典型路徑,不同路徑下三個目標維度的追求位階與制度側重存在顯著差異。全球人工智能治理應以上述三個目標維度為核心,通過制度銜接與規(guī)則對話,構建層次分明、協(xié)調有序的治理體系。具體而言,應以共同倫理為前提,從產品責任與系統(tǒng)安全入手,通過技術標準、行業(yè)規(guī)則與合規(guī)指引形成基礎性共識。在此基礎上,逐步推動權利義務具體化的區(qū)域性倫理協(xié)議和軟法工具的形成,培育更高層次的價值認同與制度合作框架。而在涉及國家安全的議題上,則需在人工智能軍民兩用場景不斷深化的背景下,探索建立跨國危機管理與風險溝通機制,以防止因過度強調人工智能軍事化或技術封鎖而造成國際共識受阻,從而實現(xiàn)以安全為底線、以合作為導向的全球人工智能國際治理秩序。

關鍵詞:人工智能國際治理;產品責任;倫理價值;國家安全

目次 一、人工智能的責任體系為產品責任的邏輯延伸 二、倫理共識與損害界定 三、軍民兩用背景下的人工智能安全治理 四、人工智能國際治理的進路分析 五、完善我國的治理路徑

人工智能治理并非孤立的法律議題,而是由技術、倫理與安全等多重要素交織形成的綜合性制度體系。從產品責任、倫理價值與國家安全三重維度展開,可揭示出各維度之間由微觀到宏觀、由個體到整體的邏輯遞進關系。產品責任體現(xiàn)了人工智能風險治理的基礎層面,其核心在于通過安全標準與法律歸責機制確立制度底線;倫理價值進一步拓展治理的規(guī)范內涵,在權利保障與社會正當性層面回應技術應用帶來的結構性影響;國家安全則標志著人工智能治理從社會規(guī)范層面向國家戰(zhàn)略層面的延伸,關切已超越個體與市場,指向國家整體安全體系的穩(wěn)固與長遠發(fā)展。三者既相互關聯(lián),又在層級上相互銜接,共同構成了人工智能國際治理的制度邏輯與價值框架。本文關注的核心問題在于如何在這三重目標維度之間實現(xiàn)制度承接與功能互補,以形成兼具規(guī)范性、協(xié)調性與可操作性的治理路徑。通過這一主線的貫通,本文擬在比較法研究的基礎上,構建人工智能國際治理的整體結構,并進一步闡釋中國方案的制度價值與理論意涵。

人工智能的責任體系為產品責任的邏輯延伸

本文所稱的人工智能治理主要指在法律規(guī)制體系中通過責任制度、倫理規(guī)范與安全機制實現(xiàn)風險控制與公共利益保護的整體制度安排。其中,產品責任是人工智能治理的核心路徑之一,體現(xiàn)為將人工智能系統(tǒng)視為特殊產品并通過責任規(guī)則約束其安全與可預期性。產品責任的核心是保障消費者及相關主體的人身及財產安全。從這個意義上來說,產品責任對保護個人信息、數(shù)據(jù)及系統(tǒng)安全的規(guī)制目標與人工智能治理的底層性要求完全契合。各國人工智能的責任體系也基本為各自產品責任的邏輯延伸。這一邏輯的延伸不僅體現(xiàn)在對產品的界定標準上,還需要綜合考慮主體、歸責等產品責任的其他要件的適用性。

(一)產品責任在人工智能領域的實踐

在人工智能治理的整體框架下,責任體系構成基本路徑,而產品責任則是實現(xiàn)治理目標的核心機制。由于人工智能產品兼具高度復雜性與不可預測性,其潛在風險不僅涉及傳統(tǒng)意義的人身、財產安全,還延伸至數(shù)據(jù)安全、隱私保護、算法歧視等新型權益領域。不同法域在制度設計、責任歸屬、風險防控等方面形成了各具特色的治理模式。值得注意的是,在傳統(tǒng)法律框架中產品責任與服務責任在對象、歸責基礎及責任構成上具有明確區(qū)分。然而,人工智能技術的嵌入性和可更新性模糊了二者界限:算法既可能作為產品的一部分被納入產品責任,也可能以獨立服務的形式承擔相應的注意義務。因此,人工智能治理需要在產品責任的結構內吸納部分服務責任因素,形成一種復合型責任結構。

歐盟的《人工智能法案》(Artificial Intelligence Act)遵循傳統(tǒng)路徑,根據(jù)人工智產品及服務的類型對其進行風險分級規(guī)制。其核心思路是將人工智能系統(tǒng)視為具有高度技術含量的產品,依其在特定使用場景中可能引發(fā)的危害程度,劃分為不可接受風險、高風險、有限風險以及最低風險四個等級,并據(jù)此施加相應的合規(guī)義務。人工智能作為嵌入式的軟件系統(tǒng),其所引發(fā)的風險多與產品設計缺陷、功能不當或信息不對稱密切相關,因此適用于以產品安全為核心的傳統(tǒng)規(guī)范架構。

美國則是強調從透明、公平和問責等消費者視角出發(fā),將人工智能治理的相關規(guī)則嵌入到現(xiàn)有消費者保護法律體系之中。美國的消費者保護制度的基本特征為去中心化監(jiān)管與事后責任制,主要體現(xiàn)在以行業(yè)自律性的產品安全標準為治理抓手。只要企業(yè)遵循非強制性的安全標準,則在司法實踐中可被視為已采取合理行為或盡到了相關的注意義務。此種規(guī)制突出權利導向,更強調市場自由與個人責任的適應性。在對金融領域的規(guī)制中,人工智能系統(tǒng)被作為服務或產品的新形態(tài),延續(xù)了信息披露、誤導性陳述與公平交易的傳統(tǒng)底層要求。從實踐效果來看,非強制性規(guī)制手段對系統(tǒng)性技術風險防控較弱,而對標準與合規(guī)的高要求又將社會成本在一定程度上轉嫁到司法成本之上。

我國當前的人工智能治理方案也與產品責任體系呈現(xiàn)高度相似的結構性特征,兩者均以立法與行政規(guī)范性文件為總體框架進行指導并輔之以相關的國家標準作為重要參考。例如,《網(wǎng)絡安全法》《數(shù)據(jù)安全法》及《個人信息保護法》分別從不同維度對關鍵信息基礎設施、數(shù)據(jù)安全和個人信息安全等核心問題作出規(guī)制,這在功能上與《產品質量法》《消費者權益保護法》等在傳統(tǒng)產品責任領域的效果定位趨同。傳統(tǒng)產品責任通過立法界定制造者、銷售者、使用者等各環(huán)節(jié)的安全保障義務,人工智能治理則是通過立法、行政規(guī)范和技術標準構建多元的責任框架,從而實現(xiàn)對人工智能生成產品及服務全生命周期的規(guī)制。

在人工智能治理領域,尤其面對生成式人工智能技術的快速擴張與潛在風險,單靠立法和標準文件往往難以實現(xiàn)全面、動態(tài)的管控,而必須輔之以強有力的行政監(jiān)管體系。

常態(tài)化行政監(jiān)管在人工智能治理中具有前瞻性和靈活性的制度優(yōu)勢。立法與標準制定往往需要較長周期,而生成式人工智能行業(yè)的技術迭代和應用擴散卻極為迅速,深度合成、人工智能幻覺等問題常在立法尚未細化前就已形成一定的社會影響。行政監(jiān)管通過開展專項行動、制定行業(yè)指引、發(fā)布風險提示等方式,能夠快速響應新興風險、填補制度空白、引導行業(yè)調整,在法律與標準未能即時應對時,為社會提供第一道防線,而敏捷治理的理念也能有效減輕趨于僵化的風險規(guī)制路徑帶來的負面影響。

(二)產品責任無法完全適用于人工智能治理

雖然各國目前普遍的實踐仍然傾向于延用傳統(tǒng)的產品責任體系對人工智能責任進行規(guī)制,甚至有些國家直接以傳統(tǒng)的消費者保護部門來制訂相應的法規(guī),但實際上人工智能領域的問題并非能完全被產品責任體系所覆蓋。以傳統(tǒng)侵權體系判斷人工智能產品及服務是否需要承擔法律責任需要首先要對以下問題進行回應:

學界對于人工智能的主體資格問題尚未有定論,那么對于責任認定之難就不言而喻。人工智能的產業(yè)鏈復雜,涉及開發(fā)者、部署者、用戶、平臺等多方,相比傳統(tǒng)責任體系而言,人工智能的責任認定方式更為復雜,且更加依賴技術標準作為責任的承擔依據(jù)。人工智能治理的難度大,不僅源于其主體復雜,還由于主體之間的行為可能相互疊加產生不可控的風險,而往往這些風險難以在第一時間內被洞察。例如,未參加生成式人工智能原始模型開發(fā)的下游開發(fā)者可能會將原始模型調整后再整合到其他軟件系統(tǒng)。由于雙方均對整體情況不明,或將顯著增加軟件的錯誤及失控風險。對于因人工智能而造成的損害還存在難以認定因果關系的難題。算法“可解釋”與結果“可信任”之間的唯一關系鏈條已被發(fā)散。人工智能系統(tǒng)的高度復雜性與算法黑箱效應,使得責任認定中的因果關系難以明確。按照傳統(tǒng)侵權法中的條件說、相當因果關系理論,受害者需要證明加害行為與損害后果之間存在明確的因果鏈條。

歸責原則的適用也存在大量爭議。在傳統(tǒng)的產品責任風險規(guī)制體系之中,核心的邏輯是通過立法對產品各環(huán)節(jié)的隱患的消除。從侵權責任的角度而言,人工智能的自主性和不透明性可能會導致適用傳統(tǒng)侵權法歸責困難。傳統(tǒng)無過錯責任的適用以存在缺陷為前提,但人工智能的損害結果往往難以歸因于產品本身的缺陷,而可能源于其自主學習過程中的意外行為。這使得缺陷的界定變得模糊,對無過錯責任的適用空間提出了新的挑戰(zhàn)和限制。人工智能軟件與操作系統(tǒng)中的程序錯誤難以避免,無法從賦予產品生產者責任的角度來避免損害的發(fā)生。另一方面,將人工智能納入無過錯責任的范疇則又會使得提供信息類服務的人工智能陷入發(fā)展困境。因此有學者建議,在人工智能提供的信息類服務中應當對其適用合同責任、侵權法上的過錯責任以及基于政府或行業(yè)管理的倫理責任,而對人工智能的終端產品適用無過錯責任的歸責原則。隨著人工智能產業(yè)形態(tài)的不斷變更,更多類型的業(yè)務形態(tài)逐步展現(xiàn),難以期待事先對不同類型的人工智能產品固化地適用某一種侵權責任的歸責原則。

最后,發(fā)展風險抗辯存在使責任制度全然落空的風險。我國的《產品質量法》第41條可被視為我國引入發(fā)展風險抗辯的例證。發(fā)展風險抗辯體現(xiàn)了法律在歸責體系中對技術進步與創(chuàng)新的平衡考量。制造商或開發(fā)者應對已知或可預見的風險承擔責任,但不應為當時客觀無法認知或預防的風險負責。在嚴格的無過錯產品責任體系之下引入發(fā)展風險抗辯不僅有助于合理分配創(chuàng)新過程中不可避免的風險,也能防止因過度歸責而扼殺企業(yè)科技創(chuàng)新的積極性。但是,該抗辯在人工智能的背景下容易產生新問題。人工智能技術的復雜性和算法的不透明性可能增加未知風險的范圍,使制造商、開發(fā)者更頻繁地訴諸此類抗辯。人工智能技術的可自我進化特征又模糊了產品投放市場的時間節(jié)點。傳統(tǒng)意義上以時間節(jié)點為界的抗辯條件,在人工智能自主學習與持續(xù)更新中面臨重大挑戰(zhàn)。對此有學者主張,以是否構成高風險人工智能系統(tǒng)進行分類來決定在該領域內發(fā)展風險抗辯的適用,即若屬于高風險類型則不適用該抗辯。即使以上問題均能達成統(tǒng)一的學術共識,判斷相應主體是否應當承擔責任也并不只是一個純粹關乎法律技術的問題。還存在一個前置性的問題尚未解決:對人工智能的倫理認知是界定損害的前提,而目前并未形成對人工智能倫理邊界的共識性認知。責任體系的進一步完善,必然依賴于倫理層面的價值共識。只有在明確何為損害的倫理框架下,法律責任的邊界才能被清晰劃定。因此,人工智能治理的邏輯在此由制度層面的產品責任延伸至價值層面的倫理治理。

倫理共識與損害界定

人工智能風險不僅具有動態(tài)性和不可預測性,更因其深度嵌入人類社會網(wǎng)絡而呈現(xiàn)出顯著的倫理化特征。人工智能的倫理治理旨在應對人工智能技術在研發(fā)、部署與應用過程中可能引發(fā)的倫理問題與社會風險,其核心在于確保人類基本權利得到保障,同時確保人工智能的發(fā)展方向符合社會公共利益。倫理主要聚焦于價值引導、規(guī)范約束與道德原則的確立。倫理治理看似是抽象的獨立問題,實際上既可以借由技術標準轉為產品或技術的安全規(guī)制體系,也可能因其存在的意識形態(tài)性落入泛化的國家安全領域成為政治問題。目前之所以未能在人工智能倫理治理上全面達成共識,主要原因在于以下幾個方面:

(一)單一倫理價值需程序正義加結果公平雙重制度保障方可實現(xiàn)

在人工智能倫理框架中,公平和非歧視是公認的核心價值之一。聯(lián)合國教科文組織《人工智能倫理問題建議書》中指出人工智能技術可能內嵌并加劇偏見,可能導致歧視、不平等、數(shù)字鴻溝和排斥,據(jù)此應當對人工智能技術進行規(guī)范性評估和指導,以人的尊嚴、福祉和防止損害為導向,并始終以科技倫理為基礎。人們對于是否受到了歧視和不公平的待遇往往基于自身的感知,并以一定的不利后果作為受到實際損害的佐證。

在傳統(tǒng)侵權法領域中“損害”往往能被更為清晰地界定為民事權益遭受了侵害的客觀事實,指任何物質的或精神的利益的非自愿的喪失,如財產減少、人身傷害、權利被剝奪等。但是,在人工智能領域,許多風險并非直接產生后果,而是涉及制度性、結構性或感知性的傷害,必須通過倫理框架來界定其是否構成“損害”。當事人感受到的不公正及歧視待遇是否能進入法律系統(tǒng)被評價且成為責任承擔的依據(jù),是倫理治理需要回應的重要課題。此時,倫理標準在此先行于法律判斷,為“什么構成損害”提供了價值尺度。

雖然目前我國諸如《憲法》《勞動法》《婦女權益保障法》等多部立法將公平和非歧視的理念納入其中,但是對于個體而言,在使用人工智能技術的場景之下判斷某種情況是否為因歧視造成損害仍然存在兩類困難。第一是純粹的技術原因。如前文所述,侵權責任法要求被侵權人對因果關系要件進行明確的證明,但人工智能歧視導致的損害往往屬于結構性、隱蔽性的原因,使得個體難以證明自己是具體受害人。第二類是因為部分不利后果屬于不利后果的感知并非侵害主體權益的結果。在美國國家標準與技術研究院(National Institute of Standards and Technology)《人工智能風險分類草案》(Draft-Taxonomy of AI Risk)中,將人工智能系統(tǒng)應用中的感知方式列為第二類風險。所謂“感知方式”是指人類對模型的心理表征,包括模型輸出是否足以用于合規(guī)性評估(透明度)、模型運作是否易于理解(可解釋性),以及模型是否輸出可以用于作出有意義決策的信息(可理解性)。相對于其他類型的風險而言,此類風險更難以完全通過標準化手段進行衡量,有時,雖然客觀主體的相應民事權益確實得到了克減,但并不能直接得出該種不利后果為法律上的損害并對相應的主體賦予法律責任。從橫向來看,錄入人工智能系統(tǒng)的數(shù)據(jù)類型越多,越容易帶入某些敏感屬性的變量,從而間接導致歧視的產生。從縱向而言,歷史數(shù)據(jù)往往已經(jīng)沉積了許多社會偏見。生成式人工智能應用的過程,實質上是對過往人類社會模式的特征進行總結,并據(jù)此對未來社會進行感知和決策的過程,這一過程不可避免地會復制并延續(xù)傳統(tǒng)社會特征,使得現(xiàn)階段生成式人工智能技術無法完全避免歧視。人工智能系統(tǒng)可能因訓練數(shù)據(jù)偏差或算法設計缺陷而強化或放大社會偏見。而此時的關鍵問題在于如何界定算法確實存在設計缺陷同時提供有效的救濟。

實際上,公平和非歧視性要求往往是以程序正義疊加結果公平的方式來實現(xiàn)。從程序正義的角度需要增加人工智能處理過程的透明度。透明度是程序公平的首要條件,其核心在于使受人工智能影響的主體能夠知悉算法決策的依據(jù)、結構與效果。歐盟《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,以下簡稱“GDPR”)第22條明確賦予個人拒絕純自動化決策的權利,并要求企業(yè)提供解釋權、申訴機制等程序保障。歐盟的《人工智能法案》更是將“高風險人工智能系統(tǒng)”納入重點規(guī)制范圍,要求其在設計、部署過程中滿足公平性、透明度、可追溯性等倫理與法律要求。增強可解釋性及可理解性均可對相應主體權益救濟發(fā)揮重要作用。但是,即便是使得整體程序更為透明,相應的群體也會因為長期以來形成的社會偏見而承受不利后果。因而對非因人工智能系統(tǒng)產生的問題,則需要對人工智能系統(tǒng)開發(fā)者提出進一步要求,評估預測結果對不同群體的影響分布,并在必要時加入公平調整函數(shù)(fairness adjustment function)或群體平權約束(group fairness constraint),以實現(xiàn)更公正的結果。

但是,結果平等追求的是最終狀態(tài)的均衡而非僅形式上機會一致的平等,因此在法律與公共政策領域中,結果平等應當具有重要但相對謹慎的適用范圍。僅形式上的機會平等與程序正義難以糾正現(xiàn)實中的結構性不平等與制度性障礙,因此應在特定場景中對弱勢群體給予實質性扶持、補償或干預。但若過多干涉,則會造成對其他群體的不當影響。因此,在人工智能倫理治理中,程序正義所要求的透明度、可解釋性與可理解性最有可能通過標準化的方式加以落實;相比之下,對于結果公平的追求則需根據(jù)具體應用場景,審慎判斷其要求是否具有合理性。即便如此,對程序正義的追求實際上也受到社會成本及實際條件的客觀限制,無法在技術上做到極致。正是由于人工智能應用中的某些結果屬于非故意、非直接的系統(tǒng)性偏差,導致對其直接適用法律存在困難,如均將因人工智能產生的不利后果界定為損害,則不僅會抑制技術發(fā)展進步,也會最終使得社會分配體系陷入混亂之中。因此更宜以倫理治理的方式對該領域進行引導性、倡導性規(guī)制,以起到漸進式規(guī)制的效果。

(二)多元倫理價值的沖突與不同社會的價值位階差異

倫理治理不僅具有高度的交叉性,而且還會因不同的考量而產生統(tǒng)合沖突問題。這些不同考慮之間存在很多復雜的、經(jīng)常沖突的面向,很難提煉出可以普遍適用的、穩(wěn)定的決策要件。美國國家標準與技術研究院提出的第三類風險為指導政策與價值原則風險。這類風險主要涉及更廣泛的社會價值判斷,如隱私、問責、公平、正義、平等等。這些價值因其高度依賴具體語境而難以跨領域進行一致測量。因此,對于此類風險,需首先借助特定場景之下的倫理框架予以預先判斷是否存在相關權益受到侵害的事實。

在缺乏完善法律規(guī)制的前提下,倫理規(guī)范可在價值引導和行為約束之間發(fā)揮橋梁作用,促進政府、企業(yè)與公眾之間的信任關系構建,從而實現(xiàn)以技術促進社會整體利益最大化的目標。倫理治理的最終指向是維護和提升技術發(fā)展過程中的公共利益,實現(xiàn)技術進步與社會價值之間的協(xié)調統(tǒng)一。人身權是最基本的個人權利,因此公共健康、公共安全和環(huán)境信息就構成典型的公共利益。對公共利益內涵及外延的積極探索,正在成為人工智能治理相關的數(shù)據(jù)處理中的重要命題。

實際上,對于“維護公共安全所必須”這一概念的理解,我國和歐盟成員國存在差異。以行車記錄儀的適用問題為例,在德國雖然行車記錄儀中保存的影像可以作為事故的責任訴訟的證據(jù),但是其可用性要進行個案衡量。此種衡量中涉及到當事人的個人形象信息,因此個人信息自決權應當占有優(yōu)勢地位。出于維護公共安全所必須,行車記錄儀在我國的適用依照一般車輛及特殊用途車輛進行分類管理。我國的《汽車數(shù)據(jù)安全管理若干規(guī)定(試行)》中明確了汽車數(shù)據(jù)依法合理有效利用的原則,包括車內處理原則、默認不收集原則、精度范圍適用原則及脫敏處理原則,兼顧了個人隱私利益和公共安全。

以上對于信息訪問權以及出于維護公共安全目的對信息的處理活動的限制差異體現(xiàn)出兩種體系在打擊犯罪和維護安全目的之下不同的規(guī)制思路,并由此對各自體系下的個人信息權(益)的具體內容及限制產生直接影響。我國在處理相關問題時更加注重對于使用端目的及正當性的考量,而歐盟更偏向于在收集端進行規(guī)制。在不同的階段介入進行規(guī)制,體現(xiàn)出對于風險規(guī)制和數(shù)據(jù)利用的不同態(tài)度,從更深維度的倫理角度而言,是個體主義與集體主義何者為先的辯證關系在倫理層面對制度的映射。東方國家的普遍集體主義思維傾向于對“公共利益”的概念做作更為泛化的理解。因此,由于各國存在不同的歷史文化傳統(tǒng),處于不同的社會及經(jīng)濟發(fā)展階段,同時還存在不同的產業(yè)布局,在存在多重倫理價值沖突的前提下,難以期待各國能有完全一致的價值位階選擇。而集體主義和個體主義之間的辯證關系使得各自對“以人為本”的內涵理解存在一定差異。亦有學者指出歐盟的個人權利為本的立法策略是權利中心主義的體現(xiàn),然而公共利益很難被簡單歸入權利保護的范疇,這是由于“公共利益”本質上是一種不同群體利益之間的內部權衡。而多元主體的訴求難以被一種統(tǒng)一化的價值所完全涵蓋。因此,對公共利益的理解必然是動態(tài)的、具有區(qū)域化特征的,并非一個簡單的一體化目標,而是一個競爭性的復合體。從某種程度上來說,倫理治理的手段相對于權利義務邊界更為分明的立法而言更為適宜作為人工智能治理的主要方式。而各國對人工智能的倫理治理必定沿著自己所界定的公共利益價值進行展開。

倫理治理的邊界并非止于社會規(guī)范層面。當倫理沖突上升為制度性博弈、價值體系分歧演化為國家間的技術競爭時,人工智能治理的重心便從個體與社會層面進一步延伸至國家安全層面。倫理多元化的現(xiàn)實格局,使得不同國家在人工智能治理中呈現(xiàn)出以公共利益、國家安全為核心的價值取向。由此,國家安全不僅是人工智能倫理治理的外部約束,更構成其制度邏輯的最終延伸。

軍民兩用背景下的人工智能安全治理

在倫理治理向國家層面延伸的過程中,人工智能安全問題逐漸從社會價值議題演變?yōu)閲野踩h題。尤其是在軍民兩用技術背景下,人工智能的戰(zhàn)略屬性顯著增強,其潛在風險已超出個體權利與社會倫理的調節(jié)范圍,直接關系國家安全體系的整體穩(wěn)定。因此,人工智能安全治理可以視為人工智能治理體系的宏觀層面,是產品責任與倫理治理在國家戰(zhàn)略領域的延伸與再結構化。人工智能技術在全球范圍內的應用涵蓋了經(jīng)濟、社會、國防等多個領域,其治理也代表主權國家或地區(qū)的價值導向。法律上往往以主權、領土安全及國防安全作為對國家安全問題研究的起點。我國的《國家安全法》從總體國家安全觀的角度對國家安全進行了全面界定,即國家安全是指國家政權、主權、統(tǒng)一和領土完整、人民福祉、經(jīng)濟社會可持續(xù)發(fā)展和國家其他重大利益相對處于沒有危險和不受內外威脅的狀態(tài),以及保障持續(xù)安全狀態(tài)的能力。技術經(jīng)濟安全指國家通過建立相應機構和制度保護本國根本利益不因技術與經(jīng)濟、國家安全的對立統(tǒng)一關系及其產生的影響而面臨“存在性威脅”或導致對“存在性威脅”的恐懼。在總體國家安全觀之下,國家安全當然包括國家經(jīng)濟及科技安全。各國也在都在人工智能等領域拓展軍民兩用的空間,但是不當強調人工智能的軍事性風險會使得實際威脅與手段不具有對稱性,同時會加劇援引國家安全例外條款的沖動。

(一)從國家安全層面規(guī)制人工智能的必要性

風險規(guī)制的客觀要求使得規(guī)制的視角從事后的責任分擔轉為事前的重點預防,這是由國家義務的特定性所決定的。也有學者擔心如轉為預防國家,將法益的安全保障直接作為國家活動的方向,會隨著其在質和量上的變化而最終導致法治國家性喪失。因此,人工智能領域如何在國家承擔保障職能的同時維持國家其他經(jīng)濟活動等法治國家制度活性,是理論路徑選擇的前置性課題。

人工智能治理和人類曾經(jīng)面對的其他需要全球協(xié)同的事項都存在不同。首先,國際貿易性問題傳統(tǒng)的解決路徑是通過管制協(xié)調,以去除貿易壁壘的方式進行相應制度的對接,同時完成標準的統(tǒng)一以去除融合成本,促進更高水平的某一部門的管制相融的具體措施。人工智能的產業(yè)發(fā)展存在產業(yè)鏈較長的問題,雖然對國際貿易的依存度較高,但是與傳統(tǒng)的貨物買賣及服務貿易存在差異。這種差異體現(xiàn)在產業(yè)和國家的戰(zhàn)略需求出現(xiàn)分化。產業(yè)本身傾向于市場化配置最先進的技術及成本最低廉的供給,從科技發(fā)展的國際構圖來看,人工智能產業(yè)鏈條的尖端分布在不同的國家級區(qū)域,國際貿易的需求持續(xù)存在。但是從國家的產業(yè)布局層面來看,產業(yè)鏈安全可控成為首要追求。因此,扶持本國企業(yè)發(fā)展,壯大核心產業(yè)鏈成為必然的舉措,而這種對于安全的追求又會直接對國際貿易的發(fā)展產生抑制效應。

在人工智能產業(yè)的發(fā)展之中,之所以會有安全優(yōu)先的考量,是源于此種技術的軍民雙重性。美國已經(jīng)從戰(zhàn)略上將人工智能產業(yè)納入到軍事管理的范疇,從國家安全的角度來統(tǒng)籌管理產業(yè)發(fā)展。正是基于人工智能的此種特殊性,使得一般國際貿易規(guī)則對其不能完全發(fā)揮作用,國家安全條款的存在往往會成為直接跳脫出經(jīng)貿規(guī)則的最大變數(shù)。

(二)軍民兩用背景下泛化國家安全概念的問題

2024年9月9日,美國商務部工業(yè)與安全局(Bureau of Industry and Security,以下簡稱“BIS”)依據(jù)2023年《關于安全、可靠和可信開發(fā)和使用人工智能的行政命令》(Executive Order on the Safe,Secure,and Trustworthy Development and Use of Artificial Intelligence,以下簡稱“第14110號行政令”)發(fā)布“建立先進人工智能模型和計算集群開發(fā)的報告要求:擬議規(guī)則”(Establishment of Reporting Requirements for the Development of Advanced Artificial Intelligence Models and Computing Clusters: A Proposed Rule,以下簡稱“擬議規(guī)則”),對符合特定標準的人工智能企業(yè)施加強制性報告義務。該擬議規(guī)則旨在通過定期報告制度,強化對人工智能模型開發(fā)和大規(guī)模計算基礎設施的安全監(jiān)管。

當前,BIS援引美國《國防生產法》(Defense Production Act,以下簡稱“DPA”)發(fā)布擬議規(guī)則的做法,正是“國家安全”概念不斷擴張的體現(xiàn)。DPA的最初立法目的是為保障戰(zhàn)爭物資供應,經(jīng)過多次修訂和實踐擴展,逐漸發(fā)展成為一個涵蓋優(yōu)先分配權、生產能力擴展、外資審查、市場管控等多重權能的綜合性監(jiān)管工具。DPA的擴展性適用經(jīng)歷了從軍事需求到民生安全,再到技術管控的演進過程。DPA適用的持續(xù)擴張映射出美國政府試圖通過行政強制力重構產業(yè)鏈的政策取向,同時是美國政府對國家安全概念不斷擴大解釋的實踐做法之一。

根據(jù)BIS發(fā)布的擬議規(guī)則,報告主體為開發(fā)雙重用途基礎模型或大規(guī)模計算集群的公司,其所采用的“雙重用途基礎模型”(dual-use foundation models)并不同于傳統(tǒng)出口管制領域中“軍民兩用”(military-civilian dual-use)的表述?!半p重用途模型”這一概念起源于《出口管制條例》,聚焦于可用于軍事與和平目的的技術。然而,根據(jù)第14110號行政令的定義,“雙重用途基礎模型”是“在廣泛數(shù)據(jù)上訓練;通常使用自監(jiān)督;包含至少數(shù)千億個參數(shù);應用于廣泛的場景;并在可能對國家安全、國家經(jīng)濟安全、國家公共衛(wèi)生或安全或這些事項的任意組合造成嚴重風險的任務中表現(xiàn)出或可通過輕微調整而表現(xiàn)出高水平性能”。且擬議規(guī)則要求所有在美國境內開發(fā)的、符合條件的模型均需報告,并非僅面向出口技術,表明其管控范圍不僅限于軍事用途,還涵蓋國家安全、國家經(jīng)濟安全、公共衛(wèi)生等多重領域。此外,擬議規(guī)則還為 BIS設立界定管控對象的動態(tài)調整機制,表明其管控對象并非傳統(tǒng)“軍民融合”中與國防部合作的私營企業(yè),而是面向所有具備先進人工智能開發(fā)技術的企業(yè)。

國家安全研究通常圍繞保護對象、面臨威脅與應對手段三個維度展開分析。從保護對象角度看,以人工智能為代表的科技安全已成為國家安全體系的重要支撐。所謂科技安全是指國家科技體系完整有效,國家重點領域核心技術自主可控,國家核心利益和安全不受外部科技優(yōu)勢危害,以及保障持續(xù)安全狀態(tài)的能力。值得注意的是,此時對于科技安全作為國家安全問題的保護對象,需要滿足國家重點領域的核心技術要求,而非將科技安全對國家安全的影響泛化到所有技術類型的層面。

就面臨威脅及對應的手段而言,任何治理體系的合法性與有效性,都建立在對風險的準確識別與對策匹配的基礎之上。如果治理手段與實際威脅之間存在脫節(jié),不僅可能導致治理資源浪費、技術發(fā)展的不必要抑制,還可能破壞法治原則下的比例性要求與最低限度干預原則(principle of minimum intervention)。在人工智能治理中尤其如此,因為該技術高度復雜、風險多元,涵蓋了從算法偏見、數(shù)據(jù)濫用到軍事化應用、社會穩(wěn)定等多個層面。例如,面向算法偏見和數(shù)據(jù)歧視風險的治理,應當集中在優(yōu)化數(shù)據(jù)質量、引入算法可解釋性、建立獨立審計機制等技術與合規(guī)手段,而不宜通過全面封禁或技術禁止等極端手段,這不僅違背了比例性,也阻礙了技術創(chuàng)新。相反,當涉及人工智能在軍事領域的致命性自主武器系統(tǒng)(lethal autonomous weapon systems,LAWS)、大規(guī)模殺傷性潛力、國家關鍵基礎設施攻擊等威脅時,傳統(tǒng)的行業(yè)自律、軟法框架顯然不足以應對,需要納入國際法框架下的強制性限制、危機溝通機制與聯(lián)合監(jiān)管工具。換言之,治理的強度、范圍和手段設計,必須與其應對的風險類型和嚴重性嚴格匹配,才能避免因小題大做或過度安全化引發(fā)的治理失衡。

更重要的是,國際治理中的面臨威脅與使用手段對應關系,也是維護國際合作與信任的前提條件。當前美國的人工智能雙用標準中,風險的定義并不基于具體應用,而是以諸如參數(shù)量、處理能力、多模態(tài)推理能力等模型能力為核心來劃定“高風險”或“受控”模型。這種標準可能會將大量用于教育、研究、非敏感產業(yè)的基礎模型納入“準軍用”的監(jiān)管范圍。參數(shù)門檻實際上是一種能力先行而非用途導向的先發(fā)式風險規(guī)制,沒有對模型是否真正進入軍事用途進行充分事實判斷,這種模式會直接影響到各場景下正常的市場應用行為。當標準劃分不以實際用途為核心,而是以能力為標準時,開發(fā)者會因不確定性而限制模型開放性、功能性與研究發(fā)布,對未來的研發(fā)造成負面影響。目前美國人工智能軍民兩用標準的核心制度基礎,主要來源于第14110號行政令、美國國家標準與技術研究院發(fā)布的《人工智能風險管理框架》(AI Risk Management Framework)以及BIS《關于可能用于訓練人工智能模型的先進計算集成電路及其他商品的管控政策聲明》(BIS Policy Statement on Controls that May Apply to Advanced Computing Integrated Circuits and Other Commodities Used to Train AI Models)。這些標準雖有政策權威,但大多非正式法律文件,并非由國會立法確立,沒有形成明確的實定法邊界,缺乏可訴性。美國人工智能兩用標準目前沒有為被認定為“高風險”“雙用途”的模型提供任何正式申訴機制或司法復核通道,這導致企業(yè)和研發(fā)主體難以預判自身是否會被認定為“受控模型開發(fā)者”或“軍用高風險技術提供者”。因此,美國現(xiàn)行人工智能軍民兩用標準的軟法形式與程序缺失偏離了法治治理的基本規(guī)范性框架。反之,建立基于實際威脅、科學證據(jù)與共識評估的分層治理體系,才能推動各方在安全與發(fā)展的動態(tài)平衡中找到共同點,為全球人工智能治理提供穩(wěn)固的法治基礎與合作空間。

相較于美國以“前沿人工智能能力”“高參數(shù)模型”等模糊標準設限,缺乏法定目錄的情況,我國則是通過法定清單將受控技術品類逐項列明,企業(yè)可提前查詢判斷,具有明確的前瞻性與可操作性。另外,我國實行個案許可制,出口商可申請、申訴、復議。中國企業(yè)在出口前可以依法申請許可證、獲得審查意見,甚至提起行政復議或訴訟。我國清單制度依據(jù)《出口管制法》,具備立法機關授權的實定法地位,可直接適用、可作為執(zhí)法依據(jù)、可納入國際談判。因此,在國際技術貿易爭端中,我國以動態(tài)清單方式管控軍民兩用物更易被視為“合理限制”,美國軟法標準則可能被視為歧視性管制。

美國采取了該國體系之下的軍民兩用物資的路徑進行規(guī)制體現(xiàn)了其將人工智能技術力量泛軍事化,過分強調其軍事威脅性,使其落入國家安全的范疇并以經(jīng)濟手段予以應對的意圖。雖然,人工智能確實可因其通用性與跨界性,天然具備軍民兩用屬性。無論是美國的國防創(chuàng)新單位(Defense Innovation Unit)、歐盟的防務基金(EU Defense Fund),還是中國的“軍民融合發(fā)展戰(zhàn)略”,都明確將人工智能列為優(yōu)先發(fā)展的前沿技術,用以提升情報分析、武器系統(tǒng)、戰(zhàn)場管理等能力。但是這種擴張邏輯也引發(fā)了人工智能軍事化風險的被過度放大。例如,美中技術競爭背景下,歐美智庫和媒體頻繁將人工智能視為“戰(zhàn)略威脅”,呼吁針對中國采取出口管制、投資限制、技術封鎖等安全措施。這種軍事化敘事但如果缺乏精準界定,容易陷入“泛安全化”陷阱,使得原本用于防御真實威脅的國家安全工具被濫用于貿易保護或地緣政治競爭中。

(三)國家安全例外條款的濫用及其問題

國家安全例外條款在國際法中主要體現(xiàn)在《關稅與貿易總協(xié)定》(General Agreement on Tariffs and Trade,GATT)第21條、《服務貿易總協(xié)定》(General Agreement on Trade in Services,GATS)第14條、《與貿易有關的投資措施協(xié)議》(Agreement on Trade-Related Investment Measures,TRIMS)等多邊框架中。這些條款本意是給予成員國在面臨真實安全威脅時的適度彈性空間。然而,近年來伴隨技術領域特別是人工智能領域的地緣政治化,各國頻繁以國家安全為由實施投資審查、技術封鎖,甚至引發(fā)了WTO爭端。這種例外條款的泛化使用,不僅削弱了多邊貿易體系的穩(wěn)定性,也可能反噬國家自身的治理合法性,使國際社會對其動機和正當性產生質疑。在國際權力結構視角下,大國在安全例外條款的解釋和適用過程中往往具有更強的話語權和實踐自主權。有學者指出,雖然WTO第21條在形式上賦予所有成員國平等的自主判斷權,但實踐中這種權力的行使卻呈現(xiàn)出顯著的不對稱性。美國對人工智能芯片的出口管制以及擬議的硬件管制將國家安全目標與產業(yè)政策目標混為一談,這已經(jīng)成為迄今為止美國人工智能政策的一個普遍特征。

從法理上看,國家在人工智能治理中援引國家安全例外條款,必須符合必要性、比例性與最小干預等國際法原則。然而,軍事性風險的獨特性質往往模糊了這種法律審查的邊界。一方面,人工智能的威脅尚多停留在理論層面,例如“自主武器系統(tǒng)”尚未大規(guī)模部署、人工智能引發(fā)的戰(zhàn)略穩(wěn)定失衡尚缺乏實證支撐;另一方面,基于這些風險采取的法律和政策手段(如全面技術禁運、對外投資審查、跨境數(shù)據(jù)流限制)卻具有高強度、廣覆蓋的特點,導致治理手段與實際威脅之間出現(xiàn)嚴重的不對稱性。這種不對稱不僅帶來了對國際貿易法、投資法的沖擊,也使國家更容易借國家安全例外條款之名,規(guī)避國際法下的義務,損害國際經(jīng)濟秩序的穩(wěn)定性。

人工智能國際治理的進路分析

人工智能技術的迅速發(fā)展正在重塑全球治理格局,各國為應對其帶來的倫理、法律與社會挑戰(zhàn),采取了截然不同的治理路徑。當前,歐盟、美國和中國代表著三種典型模式:歐盟以個體權利保護為核心,將涉及產品及系統(tǒng)安全的層面置于首要位置;美國以去中心化的綜合性權利保護路徑為基礎,逐步走向對外防御性、泛國家安全化的治理路徑;中國則以公共利益平衡下的個人權利保護為核心。這三種路徑不僅反映了各自獨特的法律體系和價值觀,還在產品責任界定、倫理價值判斷以及國家安全保障等方面帶來了法律與制度挑戰(zhàn)。本文試圖在產品責任、倫理價值和國家安全三重維度下,提煉出兼具可操作性與前瞻性的人工智能規(guī)制進路。

(一)產品責任:利用技術標準、行業(yè)規(guī)則搭建基本共識

綜上所述,歐盟遵循嚴格的產品安全監(jiān)管傳統(tǒng),強調統(tǒng)一立法與事前合規(guī);而美國的規(guī)制模式更傾向于去中心化的綜合性權利保護路徑,強調通過對隱私、知情同意、公平獲取等權利的保護間接實現(xiàn)人工智能治理,而非以人工智能產品本身直接作為規(guī)制對象。從規(guī)制的價值來看,歐盟體現(xiàn)出一種基于后果主義的產品風險規(guī)制目標,而美國在人工智能治理的消費者權益保護進路中更關注矯正后的交易正義。然而,無論是事前的風險治理,還是去中心化的權利保護,人工智能治理與傳統(tǒng)產品責任治理相比,面臨著更加復雜和多變的風險場景,單一的法律工具或監(jiān)管手段難以有效應對。人工智能治理亟需多元化、協(xié)同化的法律與監(jiān)管體系。

通常風險管控任務需要借助公私法體系的全面落實,以所謂的“相互工具化”手段達成。我國行政機構往往將技術標準作為事實認定構成要件判斷的根據(jù),并根據(jù)事實認定的結果作出是否給予許可或者進行處罰的決定。產品質量安全體系中的技術標準往往從生產的各環(huán)節(jié)、全流程進行體系化設計,以確保在生產過程中的品質符合特定產品或服務的最低安全保障要求。以我國的食品安全標準體系為例,食品安全標準體系圍繞食品鏈全流程,食品的危害因子,食品類別以及標準層次來進行食品安全標準化體系設計。與此相似,我國的人工智能標準體系也是由處理流程的安全規(guī)范、危害行為治理、場景治理及標準層次等要素組成。例如,在個人信息處理及生成式人工智能預訓練全流程有一系列國家標準,從更為實操的層面規(guī)定了個人信息處理活動應遵循的原則和安全要求以及人工智能訓練數(shù)據(jù)的各項安全要求及評價方法。針對網(wǎng)絡上大量的虛假信息及人工智能合成信息的不規(guī)范使用問題,全國網(wǎng)絡安全標準化技術委員會出臺了《網(wǎng)絡安全技術生成式人工智能數(shù)據(jù)標注安全規(guī)范》(GB/T 45674-2025);同時,圍繞醫(yī)療、家居等生活場景,以及交通等重點行業(yè)及場景需求,相關應用標準也正在研制之中。不同的是,依據(jù)《食品安全法》,食品安全標準必須為強制性執(zhí)行標準,而涉及人工智能領域的標準以國家推薦性標準為主。兩者的差異體現(xiàn)在效力之上:食品不符合安全標準可以直接作為行政處罰的依據(jù),而在網(wǎng)絡安全及數(shù)據(jù)治理領域,盡管標準不屬于正式的法源且不具有形式上的約束力,由于其鮮明的行為導向功能和信號功能,仍能夠被法院和行政機關援引,產生實際的規(guī)范效果;還能夠構成行政機關判斷事實認定構成要件的基準,從而拘束行政機關的決定。

推薦性國家標準往往意在推薦行業(yè)中的最佳行為標準,對于人工智能行業(yè)而言,其行為樣態(tài)及危害在不同場景中不具有統(tǒng)一性,且主體的風險預防及控制能力也存在較大差異,事前難以找到“一刀切”的社會最佳使用標準。原本對于社會風險控制的最佳標準往往通過私法的渠道,由法官在個案中依據(jù)具體的情勢予以定奪。但是在人工智能這種具有高度技術要求的領域,法官往往由于缺乏相應的知識儲備而需向外求助相應的技術支援。此時,以推薦性標準的方式引入系統(tǒng)將更為可行,既填補了法官在相關案件判決時無技術支持的被動局面,也以標準化的方式降低了整體的社會成本。

公法上的食品安全標準意在為相關行業(yè)設定最低的門檻性要求,許多標準被法律所援引成為立法的重要組成,經(jīng)營者可以此為基準在后續(xù)的運營中慢慢形成新的領域內的“最佳實踐”樣本,以增強企業(yè)的市場競爭力。而人工智能治理領域往往也是基于對標準進行最佳實踐,以確保人工智能不會對關鍵基礎設施和網(wǎng)絡安全造成威脅。但值得注意的是,人工智能的最佳實踐本身并非行業(yè)的最低門檻性要求,這是由于人工智能領域的技術一直處于不斷迭代的動態(tài)環(huán)境之中,若采用最低門檻,容易使企業(yè)出于成本考量滿足于最低限度的合規(guī),不利于構建高質量的人工智能生態(tài),難以對企業(yè)產生自發(fā)性規(guī)制的激勵效果。正因為最佳實踐的非底線性要求,對于人工智能治理的標準往往以推薦性“軟”標準的形態(tài)出現(xiàn)。推薦性標準在《中華人民共和國標準化法》中的定位為非強制性:“供社會自愿采用”“鼓勵采用推薦性標準”。但是在實踐中非強制性的推薦性標準常被作為技術評估、行政審查、行政監(jiān)管、合同解釋的重要參考依據(jù),同時在人工智能領域已經(jīng)成為彌合立法滯后、引導產業(yè)合規(guī)的重要工具。但是,由于推薦性標準本身的法律性質定位與實際產生的約束性效果存在明顯不對應的情況,也容易引起依據(jù)推薦性標準執(zhí)法合法性不足、企業(yè)權利救濟空間不清晰以及行政執(zhí)法的不確定性上升等種種疑問。

(二)權利義務具體化的倫理價值共治

歐盟、美國與中國在人工智能治理上的法律邏輯和實踐路徑展現(xiàn)出明顯差異,既反映了各國法治傳統(tǒng)和社會價值觀的不同,也突顯了算法歧視治理中面臨的共同挑戰(zhàn),即如何在鼓勵技術創(chuàng)新、維護社會公平與保障個體權利之間尋求動態(tài)平衡。另外,數(shù)據(jù)隱私的治理還與一國的產業(yè)發(fā)展息息相關。學者認為即使在歐盟和美國之間,對數(shù)據(jù)隱私的監(jiān)管領域實際已經(jīng)出現(xiàn)了巴爾干化現(xiàn)象。數(shù)據(jù)隱私監(jiān)管的巴爾干化是指不同司法管轄區(qū)的數(shù)據(jù)隱私法律的碎片化,導致復雜的、不一致的監(jiān)管格局。這種現(xiàn)象的特征是缺乏統(tǒng)一的數(shù)據(jù)隱私監(jiān)管方法,從而形成了一套各不相同的規(guī)則體系,這些規(guī)則在不同地區(qū)或國家之間存在差異。強行移植相關的規(guī)則可能導致與一國社會發(fā)展脫節(jié)的嚴重后果。例如,GDPR和《加州消費者隱私法案》(California Consumer Privacy Act,以下簡稱“CCPA”)在數(shù)據(jù)隱私保護的具體措施上存在顯著差異。GDPR要求“擇入機制”(opt-in),而CCPA則允許采用“擇出機制”(opt-out)。不同的制度設計為產業(yè)發(fā)展帶來了不同的成本,也引導著產業(yè)的區(qū)域化布局。GDPR和CCPA都引入了數(shù)據(jù)可攜權,但GDPR更強調數(shù)據(jù)主體的權利,而CCPA則更注重企業(yè)與消費者之間的經(jīng)濟關系。數(shù)據(jù)隱私監(jiān)管的碎片化不僅涉及法律的復雜性,還涉及公共和私人權力之間的權力分配。例如,GDPR通過“問責制”原則,將部分監(jiān)管責任轉移給私人企業(yè),而美國則更依賴于市場機制和消費者選擇。不同的治理模式背后折射的是治理倫理的差異。換句話說,規(guī)制路徑并沒有對錯之分,只有適履之別,個人權利保護和對自由競爭的偏好體現(xiàn)出不同國家及地區(qū)的歷史傳統(tǒng)及倫理底色,而這種倫理底色又在以各種形式重塑著該地區(qū)的產業(yè)生態(tài)。

中國的人工智能治理強調在整體公共利益框架下保護個人權利。這種路徑反映出中國法治體系中長期存在的集體主義取向與國家主導治理傳統(tǒng),即個體權利保護始終嵌入國家安全、社會穩(wěn)定、公共秩序等更宏觀目標之中。近年來的《個人信息保護法》《數(shù)據(jù)安全法》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等法律和規(guī)章,雖引入了類似歐盟的數(shù)據(jù)保護機制,但在落地實施中更重視政府監(jiān)管、產業(yè)政策協(xié)調和整體風險管理。這種平衡路徑的優(yōu)勢在于靈活性較強,能夠在國家戰(zhàn)略目標與個體權益之間作動態(tài)調整。我國的整體風險管理的考量極具中國特色,具有強烈的人文主義色彩。2021年出臺的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》是我國算法治理的里程碑文件,其中明確要求算法不得利用算法模型對用戶進行不合理差別對待、不得誘導沉迷或實施不正當競爭。盡管該規(guī)定面向全行業(yè),但對外賣平臺特別提出了“向用戶明確標識算法推薦服務”的義務,為后續(xù)騎手保護措施提供了重要法律依據(jù)。

更具針對性的是,人力資源和社會保障部、國家發(fā)展改革委等七部門于2021年聯(lián)合發(fā)布的《關于維護新就業(yè)形態(tài)勞動者勞動保障權益的指導意見》,針對平臺企業(yè)提出不得通過用工外包、制定不合理考核指標、利用算法規(guī)則等方式損害勞動者權益。該意見要求外賣、快遞等行業(yè)的互聯(lián)網(wǎng)平臺優(yōu)化訂單分配、報酬支付、工作時間安排等算法規(guī)則,避免對騎手形成過高強度和不公平待遇,強化了對算法治理的勞動法嵌入。我國對于人工智能治理的關切不僅僅聚焦在個體的信息權益保障,更多是作為社群的共生性的倫理理念貫穿其中。外賣騎手問題成為算法規(guī)制實踐的典型案例,不僅體現(xiàn)了對新業(yè)態(tài)勞動關系的回應,也展示了我國算法治理中公共政策導向與行業(yè)治理相結合的特色路徑。

(三)國家安全視角下的人工智能治理

美國的人工智能治理逐漸呈現(xiàn)出偏重國家安全化趨勢,尤其是在與中國的科技競爭背景下,這一趨勢表現(xiàn)得尤為明顯。美國在缺乏聯(lián)邦層面統(tǒng)一人工智能立法的情況下,主要通過出口管制、投資審查、供應鏈安全、科技制裁等國家安全工具來應對人工智能技術帶來的風險。這一路徑的本質邏輯是防御性,即通過將人工智能納入國家安全范疇,強化對外部威脅的警惕與防范。與歐盟的權利路徑相比,美國的國家安全路徑具有更為明顯的擴張性和彈性。一旦國家安全被確立為治理的核心框架,就難以為其劃定清晰邊界,極易引發(fā)技術封鎖、產業(yè)保護和國際合作的系統(tǒng)性崩解。此外,由于國際法對國家安全例外條款缺乏有效約束(例如WTO框架下的GATT第21條多次被架空),美國的國家安全化路徑在全球范圍內往往表現(xiàn)為對話的封閉化和治理的單邊化。

(四)三重治理維度分析

從產品責任、倫理價值規(guī)范與國家安全三重視角考察,人工智能的標準化治理在歐盟、美國和中國分別呈現(xiàn)出個人權利主導、國家安全主導與權利平衡主導的三種路徑。

歐盟路徑的優(yōu)勢在于邊界清晰、權利保障強,但缺乏靈活性和組織權利調節(jié)機制,在其治理中將保障產品與系統(tǒng)安全作為維護個人信息權利的手段;美國路徑則強化防御性國家安全治理,但易引發(fā)治理擴張與國際對話失效;中國路徑的優(yōu)勢在于動態(tài)平衡,從群體性倫理的視角實現(xiàn)整體利益的最大化,但對國家組織協(xié)調能力要求較高。從本質上看,歐盟以分級分類制度落實人權保護,美國則以多重要素的場景化評估支撐其去中心化模式,雖有利于科技創(chuàng)新,卻易產生泛安全化傾向。我國在人工智能倫理治理的頂層設計上更注重行業(yè)治理,在各行業(yè)內部梳理人工智能可能產生的風險并及時提出應對方案。三種治理路徑各有優(yōu)先目標,國際人工智能治理的關鍵在于如何在三者間尋求平衡與融合,推動建立既有共同底線又尊重制度多樣性的全球治理架構。

三種治理模式的差異在根本上體現(xiàn)為對安全、倫理與主權三重價值的不同排序。為進一步說明這三重價值如何在制度層面相互嵌合與影響,本文以下從三重維度加以分析。

首先,三重維度具有相互覆蓋性。產品安全主要聚焦于人工智能技術的功能安全與可靠性,例如自動駕駛與醫(yī)療人工智能的安全可控性;倫理安全則關注算法公平、隱私保護與非歧視性,體現(xiàn)對社會價值的回應;國家安全維度則將人工智能治理置于更宏觀的框架,涉及國家間的技術競爭、供應鏈安全、戰(zhàn)略穩(wěn)定與自主武器系統(tǒng)的發(fā)展。這一層面往往超越單一產品或倫理問題,但也與前兩者重疊,例如一款被廣泛使用的社交平臺算法,既可能帶來大規(guī)模倫理風險,也可能因介入到特殊場合而使得國家政治在安全、功能與制度層面面臨新的風險。三重治理目標之間并非涇渭分明,而是存在著復雜的相互覆蓋關系。其中一個目標的實現(xiàn)在某種程度上能促成其他目標的實現(xiàn),同時這種關聯(lián)性也并非完全正相關。開源模型的共享機制有助于防止壟斷、保障技術公平,但也可能引發(fā)軍事化濫用風險。將倫理引入人工智能治理往往意味著明明存在更為高效的目標實現(xiàn)方式,但是為了倫理要求而不得不舍近求遠。這種倫理要求在涉及個人信息保護的人工智能應用領域尤為強烈。

其次,三維度在治理功能上保持相對獨立。產品安全治理的核心任務是通過法律、標準與技術審查確保系統(tǒng)的可用性和穩(wěn)健性;倫理安全關注算法可解釋性與偏見檢測,以確保技術符合人權保障與社會公正;國家安全維度則是主權國家的核心關切,集中于人工智能的軍事用途、跨境數(shù)據(jù)流與供應鏈依賴等問題,更依賴出口管制、投資審查與國家安全例外條款。三類功能作用層級不同,因此政策與法律工具的設計亦應有針對性。

最后,三者之間需要構建起合理的承接關系,才能為全球治理奠定可操作的共識基礎。從國際合作實踐來看,最有可能實現(xiàn)直接對話與落地合作的,是基于產品安全層面的治理。例如,國際標準化組織(International Organization for Standardization,ISO)、國際電工委員會(International Electrotechnical Commission)、國際電信聯(lián)盟(International Telecommunication Union)等機構,近年來已就人工智能系統(tǒng)安全性、數(shù)據(jù)質量、風險管理等制定了系列技術標準,成為跨國合作的橋梁。這些標準避開倫理與主權敏感議題,更容易形成多邊共識。相較之下,倫理安全的文化差異與價值沖突使全球一致性難以達成。歐盟在《人工智能法案》中提出的高風險人工智能系統(tǒng)倫理要求,或聯(lián)合國教科文組織發(fā)布的《人工智能倫理建議書》,顯示了區(qū)域層面(如歐盟)或軟法機制在推動倫理共識方面的可能性,但要上升為全球共識仍困難重重。至于國家安全層面,過度強調科技安全、供應鏈控制、軍事競爭,不僅不利于多邊對話,還容易使人工智能治理淪為大國博弈和技術冷戰(zhàn)的延伸。然而,這并不意味著國家安全可以被完全擱置。在極限情境下,如涉及重大軍事對抗、恐怖主義利用人工智能技術、國家關鍵基礎設施被人工智能驅動的網(wǎng)絡攻擊等,維護國家安全依然是不可放棄的底線。雖然歐盟的《人工智能法案》采取分級分類的思路通過封閉列舉的方式界定高風險與禁用場景,但是由于剛性分類本身的邏輯結構使其難以及時回應技術迭代帶來的新型風險。另外,場景設定過于依賴既有經(jīng)驗,難以覆蓋如衛(wèi)星圖像人工智能識別等邊緣性軍民融合技術。同時,單一的分級分類制度難以對各領域的問題做細化回應,還有賴于具體場景之下的風險評估制度加以完善。

完善我國的治理路徑

產品安全、倫理安全與國家安全三重維度構成了人工智能治理的基本結構,不同法域正是因其在三重價值間的排序差異而形成了不同的制度路徑。相較而言,中國的人工智能治理更具體系化與整合性特征。其制度設計并非在三重維度中擇一取向,而是在風險防控、價值引導與安全保障之間尋求動態(tài)平衡,從而形成兼具規(guī)范性與戰(zhàn)略性的治理體系。由此,探討中國的治理路徑,不僅是分析一國經(jīng)驗,更是對如何在多重價值目標之間實現(xiàn)制度銜接的考量。中國的人工智能治理思路著眼于構建有層次、可承接的治理結構,強調倫理先行。倫理安全關系到一國根本的價值秩序,其規(guī)則植根于社會文化與法律傳統(tǒng),因此在不同法域中表現(xiàn)出差異。倫理規(guī)制最終仍需回到產品責任與標準體系的設計中,國家安全的考量不僅影響國內立法取向,也深刻影響國際經(jīng)貿關系與全球技術秩序的重塑。而國際貿易格局的重塑終將重塑各國的法律期待,一旦科技深度地嵌入社會,形成相應的使用文化,再進行矯正就會十分困難。雖然我國一直采取積極采用國家標準的態(tài)度,并穩(wěn)步擴大標準的制度型開放,但是在采用國際技術標準之時依然要考慮到該標準與我國目前立法及強制性標準體系是否存在沖突,以及是否符合我國相關行業(yè)的規(guī)劃及產業(yè)政策,同時將標準落地后的預期經(jīng)濟效益、社會效益及生態(tài)效益進行多維度的綜合性考察。因此,標準的治理絕不僅僅是單一產品質量維度的問題而是一項需要將倫理治理及國家安全進行通盤考察的體系化建設。

對于人工智能治理而言,最初階的倫理共識應當聚焦于是與否的問題決斷之上,不應糾結于倫理嵌入各國立法的程度與方式,即聚焦于人工智能對于人類整體利益的沖擊及程序透明化的保障。這些更為精細化的倫理嵌入型設計應當是區(qū)域性對話及協(xié)議應當完成的目標。習近平主席強調堅持“以人為本”,意在警示技術發(fā)展不能偏離人類文明進步的方向。這一理念倡議各方以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,確保人工智能始終朝著有利于人類文明進步的方向發(fā)展。我國近年來在全球人工智能治理議題中積極發(fā)聲,明確主張人工智能的發(fā)展應當服務于全人類的共同利益。在《全球人工智能治理倡議》中,我國強調人工智能技術應堅持“智能向善”的價值導向。這一主張不僅體現(xiàn)了對技術倫理的高度重視,也彰顯了我國對構建公正合理的國際科技治理體系的責任擔當。具體而言,“智能向善”的宗旨要求人工智能發(fā)展必須符合和平、發(fā)展、公平、正義、民主、自由等全人類共同價值,防止人工智能被濫用于危害人類尊嚴、加劇社會不平等或擾亂國際秩序的用途。該倡議從倫理原則、制度機制、技術路徑等多個維度呼吁全球協(xié)同治理,試圖為構建兼顧國家利益與全球公共利益的人工智能治理體系提供中國方案與制度貢獻。

在涉及國家安全的議題上,則應在承認主權底線的前提下,探索建立危機管理、風險溝通機制,防止因過度安全化而破壞整體對話空間。這一多層承接式治理框架不僅是理論上的需要,也是現(xiàn)實國際政治與技術發(fā)展格局的必然要求。雖然國家安全也是人工智能需要關注的領域,而從國家安全角度不斷強化人工智能的軍事化無助于國際治理,其底層邏輯也必然宣示著國際合作的失效。因此,其只能作為托底性的規(guī)制,不可將其常規(guī)性地使用于體系之中。我國目前已經(jīng)建立了人工智能算法與大模型備案機制,探索建立算法安全評估制度將成為下一個階段的工作重點,設立領域導向的“分級分類”制度,將人工智能按技術屬性、使用場景、涉眾程度分為軍用、軍民兩用、關鍵基礎設施、一般商業(yè)等類型,分別設定進入門檻與監(jiān)管強度。其次,在該分級分類制度基礎上嵌入風險評估機制,針對各類場景設立差異化的合規(guī)評估標準,引入第三方評估機制,實現(xiàn)從靜態(tài)許可到動態(tài)監(jiān)管的轉化。構建軍民兩用審查機制,對具有潛在軍用價值的人工智能項目實行前置備案、出口限制、共享管控等措施,進一步完善軍民兩用人工智能的管控機制。在對方向的認同之上從產品安全入手,利用技術標準、行業(yè)規(guī)則搭建最小共識;在此基礎上,逐步向區(qū)域性協(xié)議、軟法工具過渡,形成更高階的價值對話與合作框架。

從產品安全的角度切入具有可操作性,理論上可以國際標準化組織牽頭以制定人工智能安全標準的方式進行規(guī)制。由于不同文化對技術相關風險和責任感知存在系統(tǒng)性差異,此種方式只能在社會生產水平差異不大的區(qū)域之間達成。另外,不應在絕對安全性意義上來理解科技設施的安全性,只能將其目標限縮到社會能承受的風險。目前,大部分全球南方國家的首要要求是發(fā)展振興,因此,全球人工智能標準全球一體化的設想并不現(xiàn)實。實際上,全球南方國家能否有效參與標準治理,直接關系到全球人工智能倫理與安全秩序的構建。產品治理邏輯能較為簡易地達成共識形成共治,人工智能治理的共識構建首先體現(xiàn)在產品標準的規(guī)則層面。以WTO《技術性貿易壁壘協(xié)定》(Agreement on Technical Barriers to Trade)為核心的國際標準體系,已通過貿易、認證與政府采購等機制實現(xiàn)了事實上的準法律化運作,使標準成為市場準入與全球競爭秩序的重要基礎。然而,現(xiàn)有體系內部存在顯著的不平衡結構。ISO等主要國際組織在議題設置、程序設計及成員代表性方面仍體現(xiàn)出制度性偏向,發(fā)展中成員雖在數(shù)量上不斷增加,但在技術話語權、文件起草及投票決策等關鍵環(huán)節(jié)仍處于弱勢地位。由此導致倫理、安全等具有價值取向與制度導向特征的議題,往往被邊緣化于技術規(guī)則的外圍。面對這一結構性困境,全球南方國家需要在既有國際框架內拓展實質參與的空間,一方面通過積極參與ISO等機制強化程序透明度與能力建設,提升規(guī)范供給能力;另一方面以區(qū)域合作與互認機制為依托,推動標準成果的制度化吸收與實踐化落地,使國際規(guī)則從文本共識轉化為可執(zhí)行的制度安排。如此,方能在技術規(guī)則、倫理秩序與安全治理的交織中,形成既具共識性又具主體性的全球人工智能標準治理格局。各國根據(jù)自己的立法及傳統(tǒng)模式各自探索出適合自己的治理模式,實際已經(jīng)套嵌了某種更為精細的倫理價值,正如同各國的立法中多多少少已經(jīng)存在有各自特色的倫理性立法一樣。人工智能的倫理價值不僅體現(xiàn)于對人類尊嚴、隱私與公平的普遍關切,也應體現(xiàn)對各國法律傳統(tǒng)與文化差異的尊重。全球治理應以包容多元、尊重差異為前提,通過本土制度間的銜接形成具有合法性與可行性的倫理框架,從而在維護治理秩序穩(wěn)定的同時,有效應對人工智能在軍事濫用、認知操控等領域的風險。

人工智能的迅猛發(fā)展正促使法律體系從靜態(tài)規(guī)范走向動態(tài)風險治理。產品責任奠定了安全與可預期性的制度底線,倫理價值提供了社會信任與公平正義的規(guī)范支撐,國家安全則確保技術進步不偏離公共利益與國家利益的總體方向。三者的互動標志著人工智能治理正由單一規(guī)制模式邁向系統(tǒng)化、層級化的制度格局。人工智能治理的核心命題,不在于如何限制技術,而在于如何在法的框架下重構人與技術的關系。法律的任務不再止于事后救濟,而在于通過制度引導與標準化機制,將風險防控、倫理約束與創(chuàng)新激勵納入同一治理體系。未來的國際人工智能治理應當以倫理先行為共識,以標準互認為抓手,在尊重制度差異的前提下形成最低限度的合作基礎。中國方案的獨特價值在于,以責任體系為路徑、以倫理平衡為導向、以安全共治為邊界,實現(xiàn)了從制度移植到規(guī)范自覺的轉化。它不僅回應了技術治理的現(xiàn)實需求,也為全球人工智能治理提供了制度性整合的中國方案。

-向上滑動,查看完整目錄-

《中外法學》2025年第6期目錄

【代表作】

1.法學知識生產的動力學原理

宋亞輝

【數(shù)字法治】

2.法定職責作為國家機關處理個人信息的邊界

鄭春燕

3.數(shù)據(jù)財產權與個人信息權益的沖突與調適

鞏姍姍

4.人工智能國際治理的三重維度

——產品責任、倫理價值與國家安全

萬方

【專論】

5.論《憲法》第56條作為稅收法定條款

——基于1954年憲法草案(初稿)的分析

陳寒非

6.行政訴訟程序空轉檢察監(jiān)督的邏輯展開

鄭雅方

7.預備行為實行化的立法根據(jù)與解釋規(guī)則

王俊

8.刑法、社會與功能主義

——雅各布斯學術思想評析

王鋼

9.越權代表的“意思與表示不一致”理論

張保紅

10.非婚同居財產關系的處理規(guī)則

——兼評《婚姻家庭編解釋(二)》第4條

夏江皓

11.親子法一元模式及其理論基礎之反思

——兼論我國《民法典》第1071條和第1127條之適用

鐘瑞華

12.賠償性消費民事公益訴訟的訴權配置

吳俊

13.證據(jù)法體系問題與體系化路徑檢討

樊傳明

14.國際條約作準中文本的確定及其法律意義

孫世彥

《中外法學》由北京大學主辦,創(chuàng)刊于1989年,作為學院派同仁刊物,堅持“恪守學術”的辦刊理念與“注重法理”的用稿標準。提倡“法理研究的部門法化”、“部門法研究的體系化”、“中國問題的法理化”以及“法理研究視野的全球化”;強調法學研究既要“入流”更要“預流”,來自部門法而超越部門法,具有中國問題意識而兼具世界的眼光。

點擊進入下方小程序

獲取專屬解決方案~

責任編輯 | 郭晴晴

審核人員 | 張文碩 王曉慧

本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規(guī)/案件/事件等的解讀。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11102文章數(shù) 17492關注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關懷版