国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

付新華:全球人工智能立法的多元趨勢與中國模式 | 交大法學(xué)202506

0
分享至

【作者】付新華(北京交通大學(xué)法學(xué)院副教授、數(shù)據(jù)法學(xué)研究中心主任、法學(xué)博士、應(yīng)用經(jīng)濟學(xué)博士后)

【來源】北大法寶法學(xué)期刊庫《交大法學(xué)》2025年第6期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


內(nèi)容提要:在科技競爭與規(guī)則博弈的雙重驅(qū)動下,全球人工智能立法呈現(xiàn)多元化趨勢。歐盟率先通過統(tǒng)一的人工智能法,確立基于權(quán)利保護的風險規(guī)制模式;美國則展現(xiàn)出聯(lián)邦層面的去監(jiān)管化傾向,以及州級立法、行業(yè)自律與國際標準補位的治理格局;韓國、日本與印度則依據(jù)各自技術(shù)基礎(chǔ)與治理需求,探索更加多元化的立法路徑。當前,中國以國家戰(zhàn)略為引領(lǐng),政策統(tǒng)籌、專項立法與地方探索協(xié)同并進,逐步形成統(tǒng)籌發(fā)展與安全、靶向治理與機制協(xié)同的漸進式立法模式。面向未來,中國人工智能立法應(yīng)系統(tǒng)回應(yīng)“是否立法、何時立法、立什么法、如何立法”等關(guān)鍵議題,遵循“促進法—基本法—綜合法”的三階演進路徑,構(gòu)建契合國情、具備技術(shù)適應(yīng)性與國際競爭力的人工智能治理體系。

關(guān)鍵詞:人工智能立法;人工智能法;立法路徑;立法模式;漸進式立法

目次 一、問題的提出 二、全球人工智能立法的多元趨勢 三、中國人工智能立法的路徑開釋 四、構(gòu)建人工智能立法的中國模式 五、結(jié)論

問題的提出

人工智能作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),正在深刻重塑全球經(jīng)濟結(jié)構(gòu)、社會關(guān)系與治理體系。在帶來創(chuàng)新機遇與效率躍升的同時,人工智能也面臨著諸如隱私侵犯、算法歧視、數(shù)據(jù)濫用、責任歸屬不清等多維度的法律與倫理挑戰(zhàn)。人工智能立法作為社會價值的權(quán)威化表達,正在成為世界各國和地區(qū)應(yīng)對技術(shù)變革與社會風險、構(gòu)建規(guī)范性治理體系的重要制度安排。

歐盟以基本權(quán)利保護為核心,通過統(tǒng)一立法確立了基于風險分級的規(guī)制模式;美國在聯(lián)邦層面展現(xiàn)出去監(jiān)管化傾向,由州級立法、行業(yè)自律和國際標準實現(xiàn)規(guī)制補位;韓國、日本、印度則依據(jù)本國技術(shù)基礎(chǔ)與治理需求,探索多元化的立法進路。中國在國家戰(zhàn)略引領(lǐng)下積極推進人工智能治理體系建設(shè),初步形成了以政策統(tǒng)籌、專項立法、地方探索為主要特征的治理模式。這種人工智能立法的多元趨勢不僅反映了各國在技術(shù)實力、法律傳統(tǒng)與治理理念上的差異,也在客觀上加劇了全球人工智能治理的規(guī)則競爭。正如有學(xué)者所言:“哪個國家能率先發(fā)現(xiàn)并確立基本規(guī)則,哪個國家就有可能引領(lǐng)人工智能法整體范式變革?!?/p>

在國際科技競賽與規(guī)則競爭雙重博弈的背景下,中國人工智能立法應(yīng)系統(tǒng)回應(yīng)“是否立法、何時立法、立什么法、如何立法”等關(guān)鍵議題。有鑒于此,本文在梳理全球人工智能立法多元化趨勢的基礎(chǔ)上,嘗試揭示我國人工智能立法的演進邏輯與制度特征,提出“促進法—基本法—綜合法”的漸進式立法路徑,以促進人工智能安全健康發(fā)展,為構(gòu)建具有中國特色、面向未來的人工智能治理體系提供理論支撐與實踐參考。

全球人工智能立法的多元趨勢

全球人工智能立法呈現(xiàn)出路徑分化、模式多元、功能異構(gòu)的趨勢,反映出全球人工智能治理正在進入“制度競爭”與“范式碰撞”的新階段。

(一)歐盟模式:統(tǒng)一立法下基于權(quán)利保護的風險規(guī)制

歐盟2024年正式通過的《人工智能法》,是全球首部統(tǒng)一的人工智能法。通常認為,《人工智能法》采取了“基于風險”的規(guī)制模式,事實上,歐盟模式的核心是將基于風險的分層治理機制嵌入其長期以來強調(diào)的“人本價值導(dǎo)向”與“基本權(quán)利保護”框架之中。換言之,歐盟立法中的“風險”并非抽象的技術(shù)風險,而是以對人的尊嚴、平等、自由等基本權(quán)利的潛在威脅為風險等級判定標準,進而實施不同的治理策略。

首先,在“不可接受風險”人工智能系統(tǒng)的規(guī)制方面,《人工智能法》第5條明確列舉八類被禁止的人工智能系統(tǒng),其禁止依據(jù)正是這些系統(tǒng)對基本權(quán)利構(gòu)成根本性威脅。例如,禁止操縱潛意識或利用脆弱性影響決策(第1款a、b項),防止侵犯個體意志自由;禁止社會評分及歧視性待遇(第1款c項),維護人格尊嚴與平等;禁止基于性格特征預(yù)測犯罪風險的執(zhí)法(第1款d項),防止刻板印象與偏見推斷;禁止通過無差別抓取網(wǎng)絡(luò)或監(jiān)控圖像建立面部識別數(shù)據(jù)庫(第1款e項),回應(yīng)隱私保護與監(jiān)控濫用風險。此外,還禁止在教育、工作等場景使用情緒識別(第1款f項),基于生物特征推斷敏感信息(第1款g項),以及特定條件下在公共空間部署實時遠程生物識別系統(tǒng)(第1款h項)等。這一系列禁止性規(guī)定確立了“禁止即保護”的立法邏輯,彰顯了通過法律手段劃定人類尊嚴與自由不可逾越底線的制度立場。

其次,在“高風險”人工智能系統(tǒng)的規(guī)制方面,《人工智能法》第6條結(jié)合附件三列明了具體適用領(lǐng)域,如教育招生、就業(yè)招聘、執(zhí)法識別、司法輔助等社會關(guān)鍵領(lǐng)域,只要人工智能系統(tǒng)的預(yù)期用途對自然人健康、安全等基本權(quán)利具有重要影響,即被納入高風險類別,必須履行嚴格的合規(guī)義務(wù)。這些義務(wù)包括建立覆蓋系統(tǒng)全生命周期的風險管理機制(第9條)、確保數(shù)據(jù)的相關(guān)性、代表性與去偏見標準(第10條)、完善技術(shù)文檔與自動記錄機制(第11條、第12條)、確保透明度(第13條)、設(shè)立有效的人類監(jiān)督機制(第14條),并在準確性、穩(wěn)健性與網(wǎng)絡(luò)安全方面達到規(guī)定標準(第15條)。需要特別指出的是,《人工智能法》第27條還引入了“基本權(quán)利影響評估”制度,要求在部署特定高風險人工智能系統(tǒng)之前,相關(guān)主體必須對其可能帶來的基本權(quán)利影響進行系統(tǒng)性評估。評估內(nèi)容包括:說明系統(tǒng)的預(yù)期使用流程、使用頻率與期限,識別可能受影響的自然人或群體類別,結(jié)合第13條所提供信息分析潛在危害風險,說明人工監(jiān)督措施的實施情況,以及在風險發(fā)生時擬采取的應(yīng)對措施?!盎緳?quán)利影響評估”制度體現(xiàn)了歐盟將基本權(quán)利保護貫穿于人工智能系統(tǒng)設(shè)計、開發(fā)、部署全過程的治理理念。

總體而言,歐盟人工智能立法基于基本權(quán)利保護這一價值引領(lǐng),對不同等級的人工智能風險進行分層治理。所謂“基于風險”的規(guī)制模式,本質(zhì)上是以“對基本權(quán)利的潛在威脅”為風險等級認定標準,通過預(yù)防性控制實現(xiàn)對“人本價值”的守護。歐盟的統(tǒng)一立法路徑具有一定制度優(yōu)勢:一是率先推出《人工智能法》,在全球規(guī)則制定中搶占先機,提升了國際話語權(quán);二是系統(tǒng)性立法有助于防止成員國之間標準割裂與執(zhí)法沖突,增強規(guī)則統(tǒng)一性與可執(zhí)行性;三是強調(diào)基本權(quán)利導(dǎo)向,有利于提升公眾信任與社會接受度,為人工智能技術(shù)的可持續(xù)發(fā)展提供價值基礎(chǔ)。然而,該模式也存在局限,“不具有普適性,很難借鑒”。一方面,其高標準、強約束的合規(guī)要求可能加重企業(yè)特別是中小企業(yè)的研發(fā)負擔,抬高創(chuàng)新門檻;另一方面,制度設(shè)計過于規(guī)范化、程序化,可能難以應(yīng)對技術(shù)快速演化帶來的動態(tài)風險,缺乏足夠的靈活性與適應(yīng)性。也正因如此,歐盟的《人工智能法》未能如《通用數(shù)據(jù)保護條例》一樣,在世界范圍內(nèi)產(chǎn)生“布魯塞爾效應(yīng)”。

(二)美國模式:聯(lián)邦去監(jiān)管化趨勢下的多元規(guī)制補位

相較于歐盟人工智能立法強調(diào)統(tǒng)一規(guī)范與基本權(quán)利保護,美國聯(lián)邦層面則展現(xiàn)出明顯的去監(jiān)管化傾向。自2016年奧巴馬政府發(fā)布《國家人工智能研究與發(fā)展戰(zhàn)略計劃》以來,美國聯(lián)邦政策始終側(cè)重于通過研究資源整合、人才培育和技術(shù)標準建設(shè)推動人工智能發(fā)展,而非確立具有法律約束力的規(guī)制框架。2019年《保持美國在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位》的行政命令,明確將人工智能列為國家戰(zhàn)略重點,治理工具以財政支持、資源配置和倫理框架為主導(dǎo)。2022年《芯片與科學(xué)法案》進一步加大對人工智能基礎(chǔ)研發(fā)與產(chǎn)業(yè)發(fā)展的財政投入,以鞏固美國的技術(shù)主導(dǎo)地位。2025年,特朗普政府重新執(zhí)政后廢除了拜登政府發(fā)布的《關(guān)于安全、可靠和可信地開發(fā)和使用人工智能的行政命令》,重申“減輕監(jiān)管負擔、保護創(chuàng)新自由”的政策導(dǎo)向?!度斯ぶ悄軝?quán)利法案藍圖》和《人工智能風險管理框架》等文件雖然提出了若干倫理原則與治理建議,但均不具備法律效力。

在聯(lián)邦層面去監(jiān)管化的背景下,部分州率先采取立法行動,填補規(guī)制空白。科羅拉多州于2024年出臺了《人工智能消費者保護法》(Senate Bill 24—205),又稱《科羅拉多人工智能法》,是美國首部系統(tǒng)性規(guī)制高風險人工智能的州級立法。該法以防止算法歧視、提升系統(tǒng)透明度為核心,明確開發(fā)者與部署者在人工智能運行過程中負有合規(guī)義務(wù),要求其采取“合理謹慎措施”以防范已知或可合理預(yù)見的算法歧視風險。有學(xué)者指出,該法在結(jié)構(gòu)上與歐盟《人工智能法》類似,均采取風險分級監(jiān)管模式,并強調(diào)高風險人工智能的透明度與責任機制。但相較于歐盟側(cè)重基本權(quán)利保護與市場準入門檻,科羅拉多州立法更突出消費者導(dǎo)向,通過細化開發(fā)者與部署者的“合理注意義務(wù)”并列舉其履行義務(wù)(如風險評估、信息披露與影響報告)的具體情形,增強了法律的可操作性與執(zhí)行確定性。

加利福尼亞州作為位于技術(shù)創(chuàng)新前沿的關(guān)鍵州,于2024年通過了17項與人工智能相關(guān)的法律,涵蓋深度偽造治理、訓(xùn)練數(shù)據(jù)透明、醫(yī)療場景中的人工智能提示義務(wù)以及生成內(nèi)容的可識別性標識等關(guān)鍵議題,回應(yīng)了社會對人工智能技術(shù)濫用風險的高度關(guān)注,體現(xiàn)出其在應(yīng)對人工智能潛在風險與促進負責任技術(shù)發(fā)展上的堅定立場。例如,AB 2355法案聚焦于防范人工智能生成的深度偽造內(nèi)容干預(yù)選舉程序;AB 2013法案則要求生成式人工智能開發(fā)者在其官方網(wǎng)站披露用于模型訓(xùn)練的數(shù)據(jù)來源,以提升系統(tǒng)透明度與公共監(jiān)督;AB 3030規(guī)定醫(yī)療保健提供者在使用生成式人工智能與患者溝通時,尤其在涉及臨床信息的場景中,須明確告知其使用人工智能生成內(nèi)容的事實;SB 942則強制要求人工智能生成內(nèi)容添加水印,以便區(qū)分人工與機器生成的信息。同年,猶他州亦出臺了《人工智能政策法案》,聚焦生成式人工智能的透明度義務(wù)、責任承擔與創(chuàng)新監(jiān)管,要求特定行業(yè)在與消費者互動中明確披露AI身份,并禁止企業(yè)以AI為由規(guī)避法律責任。該法案設(shè)立人工智能政策辦公室與人工智能學(xué)習實驗室項目,推動監(jiān)管沙盒計劃以實現(xiàn)創(chuàng)新與治理的動態(tài)平衡。2025年,猶他州進一步通過SB 226和SB 332對《人工智能政策法案》進行修訂,并通過HB 452為心理健康聊天機器人制定專項規(guī)范。

除州級立法外,美國大模型開發(fā)企業(yè)及其從業(yè)人員展現(xiàn)出一定程度的自律意識。2024年8月,OpenAI和Anthropic與美國國家標準與技術(shù)研究院(National Institute of Standards and Technology,NIST)下屬的人工智能安全研究所簽署了合作協(xié)議,允許該研究所在新模型發(fā)布前后進行安全研究、測試和評估。與此同時,來自O(shè)penAI、Anthropic、Google DeepMind和Meta的120多名員工聯(lián)合發(fā)表聲明,呼吁加州州長簽署《前沿人工智能模型安全與創(chuàng)新法案》(SB 1047),支持建立人工智能安全評估機制和國家級監(jiān)管機構(gòu),以避免大模型在選舉干預(yù)、信息操控、深度偽造等領(lǐng)域的濫用。這些行動表明,在聯(lián)邦層面立法滯后的背景下,技術(shù)企業(yè)及從業(yè)者正通過推動地方立法與加強行業(yè)自律,積極填補治理空白,主動參與人工智能安全治理與風險防控。

美國積極推動以技術(shù)聯(lián)盟和標準聯(lián)盟為核心的產(chǎn)業(yè)合作,強化其在前沿人工智能領(lǐng)域的全球影響力。技術(shù)聯(lián)盟方面,OpenAI、Anthropic、Meta、Google等領(lǐng)先企業(yè)與美國政府機構(gòu)建立了多項合作關(guān)系,部分企業(yè)還與美國軍方及其盟友合作開發(fā)前沿人工智能技術(shù),用于提升國家防御能力。標準聯(lián)盟方面,美國實質(zhì)性主導(dǎo)多個國際人工智能標準組織。由國際標準化組織(ISO)與國際電工委員會(IEC)于2018年設(shè)立的ISO/IEC JTC1/SC 42,是全球首個專責推動人工智能標準化的技術(shù)委員會,涵蓋術(shù)語定義、治理架構(gòu)、數(shù)據(jù)質(zhì)量與可信度評估等關(guān)鍵領(lǐng)域。盡管該委員會為多國參與的國際平臺,但美國在其中扮演著核心角色。作為ISO體系中美國的代表機構(gòu),美國NIST深度參與標準制定過程,并主導(dǎo)或協(xié)同主持多個核心工作組,在技術(shù)方向制定與標準議題推進等方面具有高度主導(dǎo)力,使其在全球人工智能標準體系構(gòu)建中占據(jù)關(guān)鍵地位。同時,總部設(shè)于美國的電氣與電子工程師協(xié)會(IEEE),由美國科研與產(chǎn)業(yè)界廣泛支持并主導(dǎo),推動制定了包括IEEE 7000系列在內(nèi)的多項人工智能倫理與技術(shù)標準,涵蓋算法透明性、數(shù)據(jù)治理、人機接口倫理與風險評估等重要領(lǐng)域。這些標準不僅成為美國本土人工智能研發(fā)的重要依據(jù),也在全球范圍內(nèi)被廣泛采納,持續(xù)擴大美國在國際人工智能治理中的制度影響力與標準主導(dǎo)力。

總體來看,美國人工智能治理“松綁-補位”的二元結(jié)構(gòu),展現(xiàn)出聯(lián)邦層面的去監(jiān)管化傾向,以及州級立法、行業(yè)自律與國際標準補位的治理格局。該模式在鼓勵技術(shù)突破、促進治理試驗與維護企業(yè)活力方面具有明顯優(yōu)勢,亦面臨多重挑戰(zhàn)。一是聯(lián)邦層面法律長期缺位導(dǎo)致治理碎片化,州際標準不一、執(zhí)法不均,顯著放大企業(yè)合規(guī)成本;二是在高風險應(yīng)用場景中,行業(yè)自律難以形成有效約束機制,特別是對科技巨頭的制衡有限,數(shù)據(jù)濫用、算法歧視、虛假內(nèi)容等問題頻繁暴露,亟須更強的外部監(jiān)管介入;三是美國將人工智能治理與國家安全和地緣政治深度綁定,強化技術(shù)封鎖、產(chǎn)業(yè)控制與標準輸出,雖提升了其國際競爭力,卻也引發(fā)他國對其“數(shù)字霸權(quán)”與“科技封鎖”的警惕與批評,削弱其在全球人工智能治理中的合法性。

(三)亞洲模式:韓國、日本與印度的多元探索

在歐盟確立以基本權(quán)利保護為核心的嚴格風險規(guī)制模式、美國堅持以促進發(fā)展為導(dǎo)向的寬松監(jiān)管模式之間,亞洲部分國家則展開多元探索,呈現(xiàn)出立法路徑與治理邏輯的多樣化與差異性,體現(xiàn)出在全球治理格局中尋求本土適應(yīng)性與制度創(chuàng)新的努力。

韓國于2024年12月正式通過《人工智能發(fā)展及信任基礎(chǔ)建立基本法》(又稱《人工智能基本法》),成為繼歐盟之后全球第二部統(tǒng)一的人工智能法。該法確立了“促進產(chǎn)業(yè)發(fā)展”與“構(gòu)建可信環(huán)境”的雙重目標,既強調(diào)政府對人工智能研發(fā)和產(chǎn)業(yè)化的扶持責任,也注重建立技術(shù)標準、倫理規(guī)范與風險評估機制,力圖在鼓勵創(chuàng)新與防控風險之間取得平衡。針對對生命、安全或基本權(quán)利具有重大影響的“高影響人工智能”,該法未采取一刀切的禁用策略,而是通過風險管理機制予以規(guī)范引導(dǎo),旨在降低監(jiān)管不確定性,建立系統(tǒng)化的政策支持體系,從而激勵本土人工智能生態(tài)的發(fā)展,并提升韓國在全球規(guī)則制定與技術(shù)競爭中的地位。在治理架構(gòu)上,韓國于同年9月設(shè)立直屬總統(tǒng)的國家人工智能委員會,作為協(xié)調(diào)國家人工智能政策的公私協(xié)作機構(gòu),強化中央政府的頂層設(shè)計能力,同時吸納產(chǎn)業(yè)、學(xué)界與社會各方參與,體現(xiàn)出協(xié)同治理與戰(zhàn)略統(tǒng)籌并重的制度取向。

日本于2025年5月正式通過的《人工智能相關(guān)技術(shù)的研發(fā)及應(yīng)用促進法》,成為全球首部以“促進人工智能創(chuàng)新發(fā)展”為核心目標的人工智能促進法。該法旨在構(gòu)建一個最有利于人工智能研發(fā)和應(yīng)用的國家治理框架,強調(diào)由政府主導(dǎo)戰(zhàn)略規(guī)劃,設(shè)立首相領(lǐng)導(dǎo)的人工智能戰(zhàn)略本部。在監(jiān)管理念上,堅持“輕監(jiān)管、促發(fā)展”的導(dǎo)向,不設(shè)處罰性條款,而是通過行政指導(dǎo)、政策建議以及“點名通報”等方式應(yīng)對潛在風險,同時建立覆蓋基礎(chǔ)設(shè)施、科研資助、人才培養(yǎng)與國際合作的系統(tǒng)性政策支持機制。該法還鼓勵地方政府根據(jù)區(qū)域優(yōu)勢制定本地AI振興計劃,推動政策多層次落地。為促進行業(yè)自律與標準建設(shè),法律支持各行業(yè)結(jié)合自身特點制定倫理準則與安全規(guī)范,并提出構(gòu)建開放式測試與驗證平臺,以加強人工智能系統(tǒng)的風險評估與安全驗證能力。整體來看,該法體現(xiàn)出日本促進人工智能發(fā)展的堅定信念,力圖在維護基本秩序的同時最大限度釋放創(chuàng)新活力。

印度在人工智能發(fā)展方面潛力巨大,采取了務(wù)實的治理策略。2018年,印度政府發(fā)布《國家人工智能戰(zhàn)略》,提出“負責任的AI”原則,強調(diào)安全性、公平性、隱私保護與透明度等核心價值。目前,印度尚未出臺專門的人工智能立法,主要依賴《信息技術(shù)法》《數(shù)字個人數(shù)據(jù)保護法》《消費者保護法》《版權(quán)法》等現(xiàn)行法律對人工智能相關(guān)的隱私侵犯、數(shù)據(jù)濫用、消費者欺詐與知識產(chǎn)權(quán)問題進行基礎(chǔ)性規(guī)制。對于是否制定專門法律,印度政府始終持謹慎態(tài)度,2023年4月明確表示“目前無意制定人工智能相關(guān)法律”。與單一立法路徑不同,印度正在加大對以人工智能為核心的安全技術(shù)體系投入,資助包括印度理工學(xué)院在內(nèi)的頂尖高校開發(fā)應(yīng)對深度偽造、隱私泄露與網(wǎng)絡(luò)安全風險的技術(shù)方案,走出一條“技術(shù)—法律”結(jié)合的治理路徑。

中國人工智能立法的路徑開釋

中國的人工智能立法并非一蹴而就,而是在國家戰(zhàn)略的總體引領(lǐng)下,逐步形成以政策指引為先導(dǎo)、以專項法規(guī)為支撐、以地方實踐為補充的多層次治理格局。目前,專項立法和地方探索持續(xù)積累制度經(jīng)驗,為未來推進統(tǒng)一立法進程提供有力支撐。

(一)國家戰(zhàn)略的政策引領(lǐng)

中國人工智能治理以國家戰(zhàn)略為引領(lǐng),自上而下推動人工智能政策體系的搭建。2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,首次將人工智能上升為國家核心戰(zhàn)略,提出“三步走”發(fā)展目標,明確到2030年建成世界主要人工智能創(chuàng)新中心。該規(guī)劃不僅制定了技術(shù)發(fā)展的時間表與路線圖,也為法律規(guī)制與制度建設(shè)奠定了政策基礎(chǔ),提出制定法律法規(guī)與倫理規(guī)范、構(gòu)建安全監(jiān)管與風險評估體系,推動技術(shù)、產(chǎn)業(yè)與治理機制協(xié)同發(fā)展。在該戰(zhàn)略統(tǒng)領(lǐng)下,國家發(fā)展改革委、科技部、工業(yè)和信息化部、網(wǎng)信辦等部門先后出臺《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》《新一代人工智能治理原則——發(fā)展負責任的人工智能》《新一代人工智能倫理規(guī)范》《國家新一代人工智能標準體系建設(shè)指南》以及《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進經(jīng)濟高質(zhì)量發(fā)展的指導(dǎo)意見》等政策文件,圍繞技術(shù)創(chuàng)新、應(yīng)用推廣、標準制定與倫理治理,構(gòu)建起覆蓋研發(fā)支持、場景應(yīng)用、安全管理與價值引導(dǎo)的綜合性政策體系。

(二)專項立法的靶向治理

在頂層設(shè)計不斷釋放引導(dǎo)信號的同時,中國逐步通過“專項立法”實現(xiàn)人工智能的“靶向治理”,形成了內(nèi)容上精細化、制度上去中心化的“功能性規(guī)制圖譜”。在算法規(guī)制方面,2022年出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》確立了公正、透明、合理的基本原則,強化算法服務(wù)提供者的主體責任,要求建立審核評估、備案分類等機制,同時賦予用戶知情權(quán)、選擇權(quán)與標簽管理權(quán),并設(shè)立多層次責任追究體系,防止算法濫用。在深度偽造與虛假內(nèi)容治理方面,2022年出臺的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》針對“AI換臉”“語音克隆”等技術(shù)濫用問題,設(shè)立技術(shù)標識與顯著提示雙重義務(wù),推動治理從“事后應(yīng)對”向“事前預(yù)防”轉(zhuǎn)型。在生成式人工智能服務(wù)治理方面,2023年出臺的《生成式人工智能服務(wù)管理暫行辦法》為大模型應(yīng)用設(shè)立了首部專項規(guī)制立法,構(gòu)建包容審慎、分類監(jiān)管框架,涵蓋訓(xùn)練數(shù)據(jù)、算法審查、服務(wù)標識、內(nèi)容安全與用戶權(quán)益等義務(wù),強化內(nèi)容責任與跨部門協(xié)同監(jiān)管。2025年,《人工智能生成合成內(nèi)容標識辦法》進一步完善內(nèi)容標識制度,要求提供者在文本、圖像、音視頻等生成內(nèi)容中同步嵌入顯式與隱式標識,平臺亦須履行核驗義務(wù),構(gòu)建從源頭到傳播環(huán)節(jié)完整的標識鏈條,提升了生成內(nèi)容的可識別性與可追溯性。除專項規(guī)制外,公安、交通等行業(yè)主管部門亦發(fā)布相關(guān)規(guī)章與標準,如《人形機器人創(chuàng)新發(fā)展指導(dǎo)意見》《國家車聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設(shè)指南(智能交通相關(guān))》及《智能網(wǎng)聯(lián)汽車自動駕駛數(shù)據(jù)記錄系統(tǒng)》(GB 44497-2024),強化安全控制、倫理合規(guī)與數(shù)據(jù)記錄要求,已在實踐中發(fā)揮準法律作用,為未來正式立法奠定基礎(chǔ)。

(三)地方層面的立法探索

在國家戰(zhàn)略引領(lǐng)與專項規(guī)制之外,地方立法正成為推動中國人工智能法治建設(shè)的重要支撐。深圳于2022年出臺了《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》,作為中國首部地方性人工智能法規(guī),圍繞基礎(chǔ)研究、產(chǎn)業(yè)設(shè)施、應(yīng)用拓展與風險治理等方面作出系統(tǒng)安排,確立以科技引領(lǐng)、應(yīng)用驅(qū)動、以人為本、安全可控為核心的發(fā)展原則,創(chuàng)新性引入人工智能倫理委員會與分級分類監(jiān)管機制。同年,上海市通過了《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》,系統(tǒng)構(gòu)建以人為本、科技向善、創(chuàng)新驅(qū)動、市場主導(dǎo)的發(fā)展格局,強化算力、算法、數(shù)據(jù)三要素保障,推動集群化、國際化與場景化融合發(fā)展,設(shè)立應(yīng)用開放機制與倫理治理框架。北京市則于2023年出臺《北京市促進通用人工智能創(chuàng)新發(fā)展的若干措施》,作為政策性指導(dǎo)文件,聚焦算力統(tǒng)籌、高質(zhì)量數(shù)據(jù)供給、大模型體系建設(shè)與重點領(lǐng)域應(yīng)用推廣,構(gòu)建了兼顧創(chuàng)新支持與審慎監(jiān)管的政策體系,成為全國首個專門面向通用人工智能的地方專項政策。以深圳、上海、北京為代表的地方性立法和政策,既發(fā)揮了制度創(chuàng)新“試驗場”的作用,也為國家統(tǒng)一立法積累了實踐經(jīng)驗。

(四)統(tǒng)一立法的籌備推進

隨著規(guī)制對象日益增多、規(guī)范之間的銜接壓力加大,關(guān)于制定統(tǒng)一的人工智能法的呼聲日益高漲。特別是在地方與中央規(guī)范體系日益復(fù)雜、各類軟法文件并存的背景下,如何通過統(tǒng)一立法實現(xiàn)原則統(tǒng)一、結(jié)構(gòu)整合與制度協(xié)調(diào),成為理論與實務(wù)界關(guān)注的焦點。需要指出,本文所稱“統(tǒng)一立法”,包括但不限于“大而全”的綜合法典,還包括具有一定統(tǒng)領(lǐng)性和普遍適用性的其他法律制度安排。

自2023年以來,學(xué)界已發(fā)布多部人工智能法專家建議稿,如中國社會科學(xué)院法學(xué)研究所周輝研究員等牽頭起草的《人工智能示范法(專家建議稿)2.0》和中國政法大學(xué)數(shù)據(jù)法治研究院張凌寒教授等聯(lián)合發(fā)布的《人工智能法(學(xué)者建議稿)》。前者提出以人為本、透明可問責等原則,構(gòu)建發(fā)展支持體系,設(shè)立負面清單和許可備案制度,并明確研發(fā)者的安全性與倫理義務(wù),同時關(guān)注降低合規(guī)成本、支持開源生態(tài),規(guī)范訓(xùn)練數(shù)據(jù)與生成內(nèi)容保護。后者則以九章九十六條系統(tǒng)涵蓋發(fā)展促進、權(quán)益保障、安全義務(wù)和國際合作,強調(diào)對人的尊嚴與隱私的保護,提出知情權(quán)、拒絕權(quán)及對數(shù)字弱勢群體的特別保護,并引入風險評估、監(jiān)管沙盒和分級分類機制,力求在安全與創(chuàng)新之間取得平衡。盡管兩者在內(nèi)容上存在差異,但均體現(xiàn)出旨在通過一部綜合性法律實現(xiàn)發(fā)展促進、風險治理與權(quán)利保障等多重目標的制度期待。

從國家立法計劃來看,2024年《全國人大常委會立法工作計劃》提出“研究人工智能健康發(fā)展的立法項目”,《國務(wù)院2024年度立法工作計劃》則明確將人工智能法草案列入擬提請全國人大常委會會議審議的預(yù)備項目,表明人工智能統(tǒng)一立法已從理論構(gòu)想邁入立法實踐的關(guān)鍵階段。然而,隨著2025年美國特朗普政府上臺后在人工智能領(lǐng)域推行去監(jiān)管化政策,以及我國大模型技術(shù)實現(xiàn)突破性發(fā)展,人工智能立法面臨新的國際局勢。在此背景下,今年全國兩會期間,全國人大常委會并未延續(xù)此前審議人工智能法草案的計劃,而是表明“圍繞人工智能、數(shù)字經(jīng)濟、大數(shù)據(jù)等新興領(lǐng)域加強立法研究”。這一變化在一定程度上表明,我國在推進人工智能立法進程中,正在審慎評估國際動態(tài)與國內(nèi)技術(shù)發(fā)展,力求在促進創(chuàng)新與規(guī)范治理之間尋求更為靈活、穩(wěn)健的立法路徑。

(五)中國路徑的基本特征

整體來看,中國人工智能立法展現(xiàn)出戰(zhàn)略引領(lǐng)、專項立法、地方探索、審慎推進的多元協(xié)同特征,既體現(xiàn)出積極構(gòu)建規(guī)范體系的制度主動性,也兼顧了技術(shù)快速演進與國際競爭格局變化下對制度韌性與彈性的現(xiàn)實要求。首先,中國人工智能治理的起點并非直接立法,而是以《新一代人工智能發(fā)展規(guī)劃》等國家戰(zhàn)略為統(tǒng)領(lǐng),優(yōu)先構(gòu)建發(fā)展導(dǎo)向、倫理引導(dǎo)與風險防控并重的政策體系,通過頂層設(shè)計為后續(xù)立法奠定基礎(chǔ)。其次,體現(xiàn)出靶向治理的專項規(guī)制特征,采取“小切口、分領(lǐng)域”的方法,圍繞算法推薦、深度合成、生成式人工智能服務(wù)、內(nèi)容標識等重要議題,建立精細化的治理規(guī)則,及時應(yīng)對技術(shù)發(fā)展帶來的具體風險。再次,突出“地方探索—全國推行”的制度演進機制。深圳、上海等地通過地方性立法和政策創(chuàng)新,在倫理治理、產(chǎn)業(yè)培育和應(yīng)用拓展方面積累了有益經(jīng)驗,為國家層面統(tǒng)一立法提供制度樣本和實踐經(jīng)驗,形成了中央統(tǒng)籌、地方試驗、上下聯(lián)動的治理格局。最后,體現(xiàn)出以動態(tài)調(diào)整應(yīng)對技術(shù)發(fā)展不確定性的審慎推進邏輯。在全球科技競爭與國內(nèi)技術(shù)迭代加速的背景下,中國在推進統(tǒng)一立法進程中保持靈活應(yīng)變、穩(wěn)步前行的策略,努力在促進創(chuàng)新與強化治理之間尋求動態(tài)平衡,展現(xiàn)出高度的戰(zhàn)略敏感性與制度適應(yīng)力。

構(gòu)建人工智能立法的中國模式

在全球人工智能科技競賽與規(guī)則競爭日益激烈的背景下,中國亟須在促進技術(shù)發(fā)展與實現(xiàn)有效治理之間實現(xiàn)動態(tài)平衡,探索契合本國產(chǎn)業(yè)基礎(chǔ)與治理實踐的人工智能立法模式。中國人工智能立法應(yīng)圍繞以下幾個關(guān)鍵問題展開系統(tǒng)謀劃:第一,是否立法,即是否有必要通過統(tǒng)一立法回應(yīng)人工智能帶來的治理挑戰(zhàn)與規(guī)范空白;第二,何時立法,即如何把握統(tǒng)一立法的適宜時機,避免過早介入而抑制創(chuàng)新以及過遲規(guī)制而錯失治理良機;第三,立什么法,即應(yīng)立何種類型的人工智能法,明確立法的功能定位與體系歸屬;第四,如何立法,即采取何種統(tǒng)一立法方式,在專項立法與統(tǒng)領(lǐng)性立法、軟法與硬法之間實現(xiàn)有效協(xié)調(diào)。

(一)是否立法:回應(yīng)技術(shù)變革與治理需求的制度必然

生成式人工智能等大模型技術(shù),正在深刻重塑信息生成、知識生產(chǎn)、產(chǎn)業(yè)結(jié)構(gòu)與國家治理等領(lǐng)域,嵌入到規(guī)則形成、價值分配和行為規(guī)范等治理核心環(huán)節(jié),同時帶來諸多風險與挑戰(zhàn)。法律作為社會規(guī)范的基礎(chǔ)制度,有必要填補規(guī)范空白,引導(dǎo)技術(shù)安全健康發(fā)展。

首先,從風險治理角度看,人工智能引發(fā)的“幻覺生成”“算法歧視”“黑箱決策”“數(shù)據(jù)濫用”“責任模糊”等風險,已超出現(xiàn)有法律的適用邊界,挑戰(zhàn)傳統(tǒng)法律基于“行為明確、結(jié)果清晰、主體特定”的歸責邏輯。由于這些風險具有滯后顯現(xiàn)、歸責鏈條復(fù)雜等特點,傳統(tǒng)法律難以形成有效規(guī)制合力。歐盟《人工智能法》通過風險等級實現(xiàn)分級監(jiān)管;美國NIST發(fā)布的《人工智能風險管理框架》,將風險評估與監(jiān)測納入全生命周期治理。以上國際經(jīng)驗表明,構(gòu)建專門法律體系以實現(xiàn)風險識別、規(guī)則整合與責任協(xié)調(diào),已成為全球人工智能治理的重點方向。

其次,從權(quán)利保障與社會公平角度看,人工智能廣泛應(yīng)用于就業(yè)、教育、醫(yī)療、司法等關(guān)鍵領(lǐng)域,其算法邏輯和數(shù)據(jù)偏見可能加劇社會不平等,損害弱勢群體權(quán)利。同時,“數(shù)字鴻溝”問題也在擴大,部分群體在獲取和利用數(shù)字資源方面處于不利地位。因此,構(gòu)建系統(tǒng)性的人工智能法律框架,不僅是保護個體權(quán)利的需要,更是實現(xiàn)公共服務(wù)公平化與社會正義的制度保障。

再次,從國家戰(zhàn)略與全球競爭角度看,人工智能治理能力已成為衡量國家制度競爭力的重要標志。當前,我國以部門規(guī)章、政策文件和地方探索為主導(dǎo)的治理模式,“面對人工智能問題僅能分散、碎片化適用”,在協(xié)調(diào)統(tǒng)一、規(guī)范銜接與法律約束力方面存在不足。若繼續(xù)依賴碎片化管理與軟性調(diào)控,不僅難以形成系統(tǒng)性制度供給,也難以在全球人工智能治理規(guī)則構(gòu)建過程中掌握主動權(quán)。制定人工智能法不僅有助于提升治理體系的系統(tǒng)性和法治化水平,也是在國際規(guī)則博弈中提供“中國方案”的關(guān)鍵舉措。

最后,從治理現(xiàn)代化角度看,人工智能正推動治理模式向數(shù)據(jù)驅(qū)動、模型分析和智能響應(yīng)轉(zhuǎn)型,深度嵌入公共管理、社會服務(wù)和司法執(zhí)法等領(lǐng)域,對法律制度提出新的支撐要求。若缺乏相應(yīng)的法律規(guī)范,將導(dǎo)致合法性基礎(chǔ)薄弱、權(quán)責不清、執(zhí)行失衡等問題,甚至加劇“治理赤字”。因此,推動人工智能統(tǒng)一立法,構(gòu)建人工智能的法律治理體系,是推進“法治現(xiàn)代化中國模式”的題中應(yīng)有之義。

(二)何時立法:避免過早規(guī)制與滯后治理的時機把握

人工智能技術(shù)的演進具有高度的不確定性與非線性特征,其發(fā)展路徑難以完全預(yù)判,技術(shù)成熟周期、風險顯現(xiàn)時點與社會接受程度常常存在時間錯位。在這種背景下,立法時機的選擇直接關(guān)系到制度供給的有效性與治理體系的適配性。立法過早,可能因技術(shù)路徑尚未穩(wěn)定、風險類型尚未清晰,而導(dǎo)致法律規(guī)范缺乏針對性與可執(zhí)行性,進而抑制技術(shù)創(chuàng)新、影響新興業(yè)態(tài);反之,立法滯后,則可能在風險已形成、后果已蔓延的情況下失去規(guī)范與治理的窗口期,難以及時回應(yīng)社會關(guān)切,甚至引發(fā)治理信任危機。

1.技術(shù)演化的現(xiàn)實約束:避免“路徑鎖定”與“規(guī)制先驗化”

從技術(shù)哲學(xué)視角看,技術(shù)演化并非受人的意志主導(dǎo),而具有“效率驅(qū)動、自主演化”的內(nèi)在邏輯。雅克·埃呂爾(Jacques Ellul)指出,技術(shù)本質(zhì)上是在人類活動的各個領(lǐng)域中理性得出的、在特定發(fā)展階段具有絕對效率的所有方法的總和;凱文·凱利(Kevin Kelly)亦認為,技術(shù)以自我衍生、遞進的方式不斷催生新的發(fā)明,這種演化使技術(shù)發(fā)展呈現(xiàn)出一定的不可逆性。許多技術(shù)發(fā)明在全球多個區(qū)域同時出現(xiàn),正是這一邏輯的體現(xiàn),說明技術(shù)的發(fā)展往往不是偶然事件,而是結(jié)構(gòu)性與階段性的歷史結(jié)果。生成式人工智能目前仍處于Gartner技術(shù)成熟度曲線中的“高期望峰值期”(Peak of Inflated Expectations),其底層邏輯尚在快速演化,幻覺生成、可解釋性差、數(shù)據(jù)依賴性強等核心難題仍未有效解決。此時若過早制定全面統(tǒng)一的人工智能法,可能因以當前技術(shù)為基準而陷入“路徑鎖定”,限制未來替代性技術(shù)的發(fā)展空間;同時也可能出現(xiàn)“規(guī)制先驗化”問題, 即在風險尚未充分識別、問題尚未明晰之前提前設(shè)定制度框架,導(dǎo)致監(jiān)管錯配與法律適應(yīng)性不足。 面對技術(shù)發(fā)展的高度不確定性與復(fù)雜性,人工智能立法應(yīng)當擇機而動,采取漸進式、包容性、反饋驅(qū)動的立法策略,契合技術(shù)發(fā)展不確定性的現(xiàn)實約束與治理體系的彈性需求。

2.治理經(jīng)驗的實踐基礎(chǔ):專項立法與地方探索的制度積累

科學(xué)的立法時機應(yīng)以充分的制度積累與治理反饋為前提。近年來,我國在人工智能治理實踐中逐步形成了專項規(guī)制與地方試驗相互配合的分層推進格局。在國家層面,陸續(xù)出臺了若干面向具體技術(shù)場景的專項法規(guī),針對算法推薦、深度偽造、生成式人工智能等問題突出領(lǐng)域建立初步的制度響應(yīng)機制,不僅有助于及時填補技術(shù)風險引發(fā)的監(jiān)管空白,也為未來統(tǒng)一立法提供了可供借鑒的立法經(jīng)驗。與此同時,深圳、上海、北京等地在回應(yīng)區(qū)域產(chǎn)業(yè)發(fā)展訴求的同時,積極推動地方性法律政策探索,呈現(xiàn)出多樣化的制度工具與治理路徑,為國家層面的制度整合提供寶貴經(jīng)驗。總體而言,國家專項規(guī)制與地方立法試點已共同構(gòu)成我國人工智能治理體系的重要組成部分,逐步積累從局部規(guī)范到系統(tǒng)建構(gòu)的實踐經(jīng)驗。在此基礎(chǔ)上,適時啟動以促進發(fā)展、規(guī)則整合為導(dǎo)向的統(tǒng)一立法,將有助于實現(xiàn)治理框架從碎片拼接向體系構(gòu)建的轉(zhuǎn)變。

3.社會共識的價值底座:從倫理分歧到規(guī)范確認

人工智能立法不僅是技術(shù)規(guī)制工具,更承擔著價值協(xié)調(diào)、利益分配、權(quán)利保護與倫理建構(gòu)的制度使命。不同于傳統(tǒng)工業(yè)技術(shù),人工智能以其自主性、復(fù)雜性和滲透性深度嵌入信息傳播、資源分配、身份識別與社會評價等核心機制,法律規(guī)制面臨價值多元、理念沖突與倫理張力等挑戰(zhàn)。目前,諸如訓(xùn)練數(shù)據(jù)合法性、生成物的著作權(quán)歸屬、數(shù)據(jù)產(chǎn)權(quán)性質(zhì)、算法公平性評估、模型可解釋性以及AI是否可被擬制為“數(shù)字人格”等關(guān)鍵議題,仍處于高度爭議階段。公眾對算法邏輯、數(shù)據(jù)利用后果及潛在風險的理解滯后,信息不對稱與認知分裂明顯。在社會共識尚未充分形成的情況下,若立法介入并試圖先行確立倫理邊界,可能導(dǎo)致規(guī)范錯配與制度空轉(zhuǎn),削弱法治回應(yīng)的正當性與時效性。因此,中國推進人工智能統(tǒng)一立法,應(yīng)建立在初步倫理共識和相對穩(wěn)定的社會認知基礎(chǔ)上,避免將立法簡化為技術(shù)條文的羅列或價值強加的工具。應(yīng)當通過科普傳播與風險教育等方式,在社會層面培育理性認知與參與氛圍,設(shè)立倫理評估、專家咨詢與多元利益表達機制,促成各方在價值判斷上的最低共識,通過程序的開放性與協(xié)商性提升立法的公眾接受度與現(xiàn)實效力。

(三)立什么法:“促進法—基本法—綜合法”的漸進路徑

在明確人工智能立法的必要性與適宜時機之后,立法路徑的核心問題轉(zhuǎn)向“應(yīng)當立什么樣的法”。面對人工智能技術(shù)跨領(lǐng)域、多場景、多主體的特征,中國不宜一開始就制定一部全面綜合的統(tǒng)一法典,而應(yīng)循序漸進地推進人工智能立法進程。本文主張以《人工智能促進法》為先導(dǎo),繼而推動《人工智能基本法》作為制度母法,最終在技術(shù)發(fā)展與治理經(jīng)驗成熟之后制定統(tǒng)一的《人工智能法》。

1.第一階段:制定《人工智能促進法》

當前,以生成式人工智能為典型的人工智能一攬子技術(shù)尚處于技術(shù)高預(yù)期階段,風險類型未穩(wěn)定、倫理共識尚未達成,立法實踐面臨“概念不清、定性不準、理念不彰、范疇不明、脈絡(luò)不暢”等諸多問題,若貿(mào)然制定“大而全”的統(tǒng)一立法,易導(dǎo)致技術(shù)路徑鎖定、規(guī)制錯配與創(chuàng)新受阻。為此,人工智能立法的第一階段應(yīng)優(yōu)先確立促進性制度路徑,通過制定《人工智能促進法》,明確發(fā)展導(dǎo)向與統(tǒng)籌機制,引導(dǎo)技術(shù)演進與資源配置,整合政策工具,構(gòu)建產(chǎn)業(yè)支持體系,并以軟性機制嵌入倫理審議與風險監(jiān)測,推動技術(shù)發(fā)展與制度供給協(xié)同演進。

《人工智能促進法》的統(tǒng)一性,不在于功能全面與形式集中,而是體現(xiàn)在價值共識確立、概念術(shù)語統(tǒng)一以及制度機制協(xié)同上:一是確立“安全、透明、公正、可控”等核心價值,統(tǒng)一治理方向,避免目標沖突;二是厘清關(guān)鍵術(shù)語與技術(shù)邊界,奠定跨領(lǐng)域政策與立法的共同語言基礎(chǔ);三是設(shè)立發(fā)展戰(zhàn)略、倫理審查與監(jiān)管協(xié)同等統(tǒng)籌機制,強化制度銜接與協(xié)同運作。對此,《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》與《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》為全國性的《人工智能促進法》提供了重要的實踐參考。深圳與上海的地方性立法不僅具有地方特色,而且在價值引導(dǎo)、概念統(tǒng)一與機制協(xié)同方面具有一致性,充分體現(xiàn)“促進法”作為引導(dǎo)性制度平臺的功能。深圳強調(diào)“科技引領(lǐng)、應(yīng)用驅(qū)動、以人為本、安全可控”,更側(cè)重基礎(chǔ)設(shè)施建設(shè)與場景開放;上海主張“以人為本、科技向善、市場主導(dǎo)”,更聚焦算力算法建設(shè)與全球協(xié)作,展現(xiàn)出地方的多樣性實踐。未來應(yīng)在總結(jié)地方經(jīng)驗的基礎(chǔ)上,確立統(tǒng)一價值目標、概念術(shù)語與協(xié)同機制,構(gòu)建靈活、開放的治理架構(gòu),既為技術(shù)創(chuàng)新提供正向引導(dǎo),也為后續(xù)基本法與綜合法奠定制度基礎(chǔ)。

2.第二階段:制定《人工智能基本法》

在《人工智能促進法》完成價值共識與發(fā)展統(tǒng)籌之后,立法進程應(yīng)進入第二階段,制定《人工智能基本法》?!度斯ぶ悄芑痉ā纷鳛椤爸卫砜蚣芊ā?,側(cè)重底線設(shè)定與規(guī)范統(tǒng)攝,其體系設(shè)計應(yīng)堅持“原則性、結(jié)構(gòu)性、協(xié)調(diào)性”,不拘泥于短期政策目標,也不試圖詳盡規(guī)制所有技術(shù)場景,而是致力于確立統(tǒng)一的底層法理與制度邏輯。在功能定位上,該法應(yīng)完成三項核心任務(wù):一是確立治理共識,明確“發(fā)展與安全并重”“以人為本”“風險可控”“可問責性”等核心價值原則,為各領(lǐng)域規(guī)制提供統(tǒng)一價值引導(dǎo);二是劃定權(quán)責邊界,厘清國家、地方、平臺、用戶在人工智能生命周期中的職責分工,防止責任重疊或空缺;三是配置關(guān)鍵機制,建立監(jiān)管協(xié)調(diào)、倫理審議、風險評估、責任邊界與軟法對接等制度安排,推動治理模式從單向規(guī)制走向多元協(xié)同。從圖依布納(Gunther Teubner)的“反身性法”理論出發(fā),在高度復(fù)雜與不確定的技術(shù)環(huán)境中,法律應(yīng)通過制度引導(dǎo)而非強制干預(yù),促進社會子系統(tǒng)之間的自我調(diào)節(jié)與結(jié)構(gòu)互動。在這一意義上,《人工智能基本法》應(yīng)被視為一個動態(tài)適應(yīng)的治理框架,通過程序設(shè)計與反饋機制吸納地方試點、行業(yè)經(jīng)驗與國際規(guī)范,為未來綜合性立法提供制度基礎(chǔ),其核心使命在于搭建人工智能治理體系的制度底座,而非承擔最終規(guī)制功能。這一階段不僅為多元規(guī)制提供統(tǒng)一的價值共識與結(jié)構(gòu)支撐,也為第三階段《人工智能法》的系統(tǒng)整合奠定堅實基礎(chǔ)。

3.第三階段:制定綜合性的《人工智能法》

在人工智能技術(shù)日益成熟、主要風險類型基本明確、相關(guān)制度機制經(jīng)過充分試驗的基礎(chǔ)上,立法進程將進入第三階段,即制定綜合性的《人工智能法》。該法區(qū)別于“統(tǒng)攝性藍圖”定位的《人工智能基本法》,其核心任務(wù)是整合前期制度成果,構(gòu)建結(jié)構(gòu)統(tǒng)一、規(guī)則協(xié)調(diào)、機制配套的治理法典,實現(xiàn)從制度構(gòu)想到制度定型的躍遷?!度斯ぶ悄芊ā窇?yīng)是一部具有高度組織性與可操作性的綜合性立法,其目標并非“包打天下”,而是作為制度中樞,在保持體系開放與動態(tài)反饋能力的同時,統(tǒng)一整合數(shù)據(jù)治理、算法責任、風險評估、倫理審查、權(quán)利保障與跨境合作等關(guān)鍵規(guī)范內(nèi)容,并與技術(shù)標準、實施細則、行業(yè)準則之間形成有效銜接,構(gòu)建模塊化、可拓展的制度體系。從體系功能上看,該法的出臺將標志著中國人工智能治理進入制度成熟階段,實現(xiàn)“從分散立法走向系統(tǒng)法治”的關(guān)鍵跨越,也將為我國在全球人工智能治理競爭中提供獨具特色的法律表達。通過“促進法—基本法—綜合法”的漸進式立法路徑,中國將在保持制度彈性的基礎(chǔ)上完成規(guī)則閉環(huán),為人工智能未來發(fā)展和國家治理現(xiàn)代化提供持續(xù)而有韌性的法治支撐。

(四)如何立法:人工智能立法的體系構(gòu)建邏輯

在人工智能領(lǐng)域,傳統(tǒng)法律已難以應(yīng)對多元技術(shù)演化、復(fù)雜場景差異與動態(tài)風險類型交織的現(xiàn)實挑戰(zhàn)。為實現(xiàn)有效規(guī)制與發(fā)展促進的雙重目標,中國人工智能立法亟須在“如何立法”的問題上實現(xiàn)范式轉(zhuǎn)換,確立一種以“分層統(tǒng)籌、程序嵌入、機制彈性”為核心的現(xiàn)代化制度建構(gòu)邏輯。

首先,應(yīng)確立“分層統(tǒng)籌”的制度結(jié)構(gòu)邏輯。鑒于人工智能應(yīng)用場景高度異質(zhì)、風險類型復(fù)雜多樣,人工智能立法不宜采取“大而全式”的立法進路,而應(yīng)通過設(shè)定治理價值底線與原則性框架,統(tǒng)攝各類具體規(guī)制安排,在此基礎(chǔ)上構(gòu)建核心規(guī)則引領(lǐng)、專項規(guī)制配套、軟法機制協(xié)同的多層次制度體系。在縱向維度上,應(yīng)構(gòu)建國家、行業(yè)、地方多級互動的立法體系,鼓勵地方結(jié)合本地產(chǎn)業(yè)基礎(chǔ)和應(yīng)用需求,制定促進條例或試點政策,探索差異化制度路徑;在橫向維度上,“不宜將法律秩序等同于國家的強制秩序,規(guī)范多元應(yīng)成為合作治理體系的結(jié)構(gòu)特征之一”,應(yīng)嵌入倫理指引、行業(yè)標準、技術(shù)規(guī)范等軟法機制,增強法律體系的靈活性與適應(yīng)力。這種分層協(xié)同、剛?cè)岵闹卫砑軜?gòu),既可回應(yīng)人工智能技術(shù)發(fā)展的動態(tài)性與多樣性,也有助于推動規(guī)范體系的銜接與整合。

其次,應(yīng)強化“程序嵌入”的治理意識。面對人工智能發(fā)展的高度不確定性與風險演化,僅依賴實體規(guī)則難以構(gòu)建穩(wěn)健治理體系,必須通過程序機制實現(xiàn)靈活應(yīng)對。在立法階段,應(yīng)明確公眾參與、專家咨詢和多元協(xié)商程序,提升立法的公開性與科學(xué)性;在治理運行中,應(yīng)設(shè)置程序披露、風險評估、定期審查等條款,增強制度的動態(tài)調(diào)整能力;在執(zhí)法環(huán)節(jié),應(yīng)完善協(xié)同監(jiān)管、平臺履責與責任追究機制,提升執(zhí)行效能。更重要的是,程序機制不僅提升治理靈活性,也為多元主體參與提供制度化路徑,推動形成政府、企業(yè)、行業(yè)組織與公眾共治的法治生態(tài)。正如有學(xué)者所指出的,治理應(yīng)從算法設(shè)計源頭嵌入“技術(shù)性正當程序”,通過程序代碼化方式實現(xiàn)公開性、可解釋性與責任機制,從而重塑正當程序的結(jié)構(gòu)邏輯。應(yīng)當注意,程序治理不應(yīng)被簡化為形式主義的程序設(shè)置,而應(yīng)成為實現(xiàn)法治內(nèi)在正當性、推動共治架構(gòu)落地的重要支柱。

最后,應(yīng)構(gòu)建“時間—空間”雙重彈性框架,增強法律適應(yīng)性與治理韌性。在快速演化的技術(shù)環(huán)境中,法律不應(yīng)被視為靜態(tài)規(guī)則的集合,而應(yīng)具備動態(tài)調(diào)整與制度演進的能力,預(yù)設(shè)“修正—退出—升級”機制。一是通過動態(tài)授權(quán)條款,賦予行政機關(guān)根據(jù)技術(shù)進展和監(jiān)管需求及時制定或調(diào)整實施細則、技術(shù)標準等的權(quán)力;二是設(shè)立立法評估機制,定期評估法律實施效果,并據(jù)此推動條款優(yōu)化與制度完善;三是推動監(jiān)管沙盒制度的常態(tài)化運行,為新興技術(shù)提供在受控環(huán)境下探索創(chuàng)新的空間,并在實踐中積累風險識別與治理經(jīng)驗。

結(jié)論

在人工智能深刻塑造社會生產(chǎn)生活方式與國家治理機制的背景下,人工智能立法作為引導(dǎo)和規(guī)范技術(shù)發(fā)展的關(guān)鍵制度工具,已成為各國人工智能治理能力的重要標志。放眼全球,人工智能立法呈現(xiàn)出路徑多元、取向各異的發(fā)展態(tài)勢。歐盟通過統(tǒng)一立法確立了以基于權(quán)利保護為核心的風險分級治理模式;美國形成聯(lián)邦去監(jiān)管化以及州級立法、行業(yè)自律與國際標準的規(guī)制補位的治理格局;韓國、日本與印度等國家則在促進發(fā)展與規(guī)范治理之間探索多樣化路徑。這些差異背后,反映出各國在技術(shù)基礎(chǔ)、戰(zhàn)略目標、法律傳統(tǒng)與治理理念等方面的差異與抉擇。

中國在全球人工智能治理格局中,形成了一條兼具本土特色與制度理性的漸進式立法路徑。自《新一代人工智能發(fā)展規(guī)劃》確立國家戰(zhàn)略起點以來,中國逐步通過專項規(guī)制應(yīng)對關(guān)鍵風險、依托地方試點推動制度創(chuàng)新,并在統(tǒng)籌推進統(tǒng)一立法方面穩(wěn)步前行,體現(xiàn)出“政策引導(dǎo)—分層治理—系統(tǒng)整合”的制度演化邏輯。在此過程中,中國人工智能治理強調(diào)規(guī)范供給的適度彈性,注重底線價值確立、風險類型識別與責任機制建構(gòu),為應(yīng)對快速變化的技術(shù)環(huán)境預(yù)留了制度調(diào)適空間。

展望未來,人工智能立法需在回應(yīng)前沿技術(shù)引發(fā)的權(quán)利沖突與風險挑戰(zhàn)的同時,服務(wù)于國家科技安全與全球規(guī)則構(gòu)建的雙重戰(zhàn)略目標。在制度設(shè)計上,應(yīng)堅持發(fā)展導(dǎo)向與風險治理并重,強化底線規(guī)制與包容激勵的協(xié)調(diào)統(tǒng)一,逐步通過“促進法—基本法—綜合法”的三階段路徑,構(gòu)建統(tǒng)一的價值框架、清晰的權(quán)責結(jié)構(gòu)與靈活的制度調(diào)適機制,推動人工智能治理體系向系統(tǒng)化、法治化方向轉(zhuǎn)型升級。

-向上滑動,查看完整目錄-

《交大法學(xué)》2025年第6期目錄

【習近平法治思想研究】

1.論習近平關(guān)于促進民營經(jīng)濟發(fā)展法治保障重要論述的核心要義和理論創(chuàng)新

徐亞文、陳怡靜

2.論習近平法治思想的預(yù)防性法律制度理論

趙毅宇

【科技創(chuàng)新與數(shù)字法治】

3.人工智能立法的價值取向與模式比較

鄭戈

4.未來尚未到來

——人工智能統(tǒng)一立法模式的內(nèi)在悖論

王凌皞

5.全球人工智能立法的多元趨勢與中國模式

付新華

【法學(xué)原理與制度變革】

6.《民法典》視域下虛假身份行為效力釋論

田韶華

7.貨幣返還請求權(quán)規(guī)則之反思與重述

——以騙取金錢償債案為例

其木提

8.論空域權(quán)與空間權(quán)的分設(shè)

——低空經(jīng)濟價值要素釋放的法治供給

袁曾

9.平臺內(nèi)勢力的來源、濫用危害與監(jiān)管策略

曲創(chuàng)、劉翰臻、鐘興達

【法學(xué)新銳與新知】

10. 刑事辯護變革的契機:人機協(xié)作司法模式

周翔

11.自然犯的法定犯化:“違反國家有關(guān)規(guī)定”對侵犯公民個人信息罪的影響

童云峰

12.OECD“雙支柱”方案背景下數(shù)字企業(yè)課稅規(guī)則的反思與完善

——以信息基礎(chǔ)設(shè)施為切入點

喬博娟

《交大法學(xué)》于2010年以“以書代刊”形式創(chuàng)刊,2012年獲批正式刊號,并于同年以季刊發(fā)行,2022年改為雙月刊。期間歷時整整12年,恰是地支一輪。作為卷帙浩繁法學(xué)期刊中的如米苔花,秉承“君子有所為,有所不為;知其可為而為之,知其不可為而不為”之理念,默默成長,希望以點滴努力,開辟言路,傳達百家之言,給時代留下可供回望和審思的法學(xué)作品和思想。本刊改為雙月刊后,每單月出版一期。在此之際,片刻駐足、冷靜回望,如何提高學(xué)術(shù)品位,構(gòu)建表里澄澈的學(xué)術(shù)公共場域,任重而道遠,我們自當立意勤勉耕耘。

點擊進入下方小程序

獲取專屬解決方案~

責任編輯 | 王睿

審核人員 | 張文碩 張科

本文聲明 | 本文章僅限學(xué)習交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11095文章數(shù) 17492關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關(guān)懷版