国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

謝堯雯:生成式人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配

0
分享至



生成式人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配

謝堯雯

中國政法大學(xué)法與經(jīng)濟學(xué)研究院副教授

摘要:生成式人工智能價值鏈具有多主體參與、機器自主學(xué)習(xí)的特征,法律規(guī)制需要實現(xiàn)行政監(jiān)管與侵權(quán)責(zé)任的效率匹配。行政監(jiān)管旨在預(yù)防系統(tǒng)性風(fēng)險,為基礎(chǔ)模型研發(fā)者、專業(yè)模型研發(fā)者、服務(wù)提供者設(shè)定基礎(chǔ)行為義務(wù),增強價值鏈透明度,從而促進(jìn)價值鏈各主體形成秩序互動與協(xié)同治理。行政監(jiān)管設(shè)置的風(fēng)險預(yù)防規(guī)則將影響侵權(quán)責(zé)任歸責(zé)原則與構(gòu)成要件的判定,侵權(quán)責(zé)任則需要發(fā)揮其獲取場景信息的規(guī)制優(yōu)勢,彌補行政監(jiān)管回應(yīng)科技發(fā)展的制度缺陷。生成式人工智能服務(wù)提供者應(yīng)適用產(chǎn)品責(zé)任,通過完善產(chǎn)品缺陷認(rèn)定實現(xiàn)侵權(quán)與監(jiān)管的銜接。法院以行政監(jiān)管設(shè)置的績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)為框架,判斷行業(yè)守則與標(biāo)準(zhǔn)是否符合合理技術(shù)設(shè)計要求,并激勵行業(yè)層面不斷完善自我規(guī)制、探尋最佳技術(shù)實踐,實現(xiàn)軟法與硬法的互動。

關(guān)鍵詞:生成式人工智能;價值鏈;行政監(jiān)管;侵權(quán)責(zé)任

目錄

一、問題的提出

二、生成式人工智能價值鏈規(guī)制的核心理念——實現(xiàn)行政監(jiān)管與侵權(quán)責(zé)任的匹配

三、生成式人工智能價值鏈的行政監(jiān)管

四、行政監(jiān)管與侵權(quán)責(zé)任的銜接

一、問題的提出

生成式人工智能技術(shù)蘊含著推動各行各業(yè)發(fā)展的重大潛力。這一技術(shù)系統(tǒng)基于價值鏈開展研發(fā)、生產(chǎn)、應(yīng)用活動,牽涉多個主體的復(fù)雜互動且伴隨機器自主學(xué)習(xí)。如何為價值鏈不同主體合理設(shè)定行為義務(wù)以確保系統(tǒng)安全與公正,成為法律規(guī)制難點。行政監(jiān)管與侵權(quán)責(zé)任是約束價值鏈參與者行為的核心規(guī)制框架,二者有效匹配對于優(yōu)化人工智能規(guī)制設(shè)計至關(guān)重要。這一議題在實踐中亦得到了初步關(guān)注。2024年2月,廣州互聯(lián)網(wǎng)法院在判決中對生成式人工智能行政監(jiān)管與侵權(quán)責(zé)任關(guān)系作出了初步評價。法院在判決說理中明晰,由于被告違反了《生成式人工智能服務(wù)管理暫行辦法》第15條、第4條、第12條,未盡到合理注意義務(wù),因此存在過錯。

該判決將“生成式人工智能服務(wù)提供者”違反公法義務(wù)視為侵權(quán)責(zé)任過錯評價標(biāo)準(zhǔn)之一,這一做法值得審視。一方面,《生成式人工智能服務(wù)管理暫行辦法》與現(xiàn)行法院判決都將責(zé)任主體限定為“生成式人工智能服務(wù)提供者”,并沒有關(guān)注到價值鏈其他參與者,是否符合技術(shù)邏輯有待深入探討。另一方面,關(guān)于行政監(jiān)管與侵權(quán)責(zé)任之間如何構(gòu)建匹配機制,違反公法義務(wù)構(gòu)成侵權(quán)過錯判斷標(biāo)準(zhǔn)是否會導(dǎo)致公私法界限模糊,仍有待進(jìn)一步思考。在這一問題意識下,本文以生成式人工智能價值鏈技術(shù)邏輯為基礎(chǔ),探討行政監(jiān)管與侵權(quán)責(zé)任如何實現(xiàn)效率匹配。

二、生成式人工智能價值鏈規(guī)制的核心理念

——實現(xiàn)行政監(jiān)管與侵權(quán)責(zé)任的匹配

生成式人工智能系統(tǒng)價值鏈具有多主體參與、各主體相互依賴與影響、機器自主學(xué)習(xí)等特征,這為有效規(guī)制各主體行為、保障技術(shù)系統(tǒng)的安全與公正帶來了挑戰(zhàn)。法律規(guī)制需要綜合考量行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制方面的優(yōu)勢與不足,構(gòu)建兩者間的協(xié)調(diào)匹配機制。

(一)生成式人工智能價值鏈技術(shù)特征

價值鏈概念最初用于描述商業(yè)運營流程。商業(yè)運營中,每項活動都涉及將輸入資源轉(zhuǎn)化為有價值的輸出,上游行動者基于線性鏈條逐次將輸出轉(zhuǎn)移至下游行動者,進(jìn)而構(gòu)成了一個由多主體共同參與的價值創(chuàng)造鏈條。人工智能系統(tǒng)由一系列活動和環(huán)節(jié)構(gòu)成,牽涉多主體共同創(chuàng)造價值,體現(xiàn)了價值鏈特征。價值鏈概念所揭示的各主體間復(fù)雜的行為關(guān)系以及價值累積效應(yīng),成為人工智能法律規(guī)制設(shè)計必須考量的重要因素,也因此被眾多國家的監(jiān)管機構(gòu)引入至人工智能的監(jiān)管討論之中。生成式人工智能系統(tǒng)價值鏈與一般人工智能系統(tǒng)價值鏈在核心運行機制上是一致的,其主要呈現(xiàn)以下兩大特征。

1.多主體參與

人工智能系統(tǒng)發(fā)展包括如下步驟:問題界定,數(shù)據(jù)收集與預(yù)先處理,模型訓(xùn)練,模型再訓(xùn)練,模型測試與評估,嵌入軟件,人工智能產(chǎn)品或服務(wù)的部署與使用。每一個步驟都牽涉諸多主體參與,包括軟件委托方、數(shù)據(jù)收集者、數(shù)據(jù)清洗者、標(biāo)注者、代碼設(shè)計者、模型調(diào)試者、訓(xùn)練者、產(chǎn)品或服務(wù)運營的后臺操作者、終端使用者等。事實上,軟件研發(fā)一直是多主體參與的過程,導(dǎo)致責(zé)任歸屬不明,形成“多手問題”(Many Hands Problem)。與傳統(tǒng)軟件相比,人工智能系統(tǒng)涵蓋的數(shù)據(jù)、軟件工具與研發(fā)主體更為多樣化,各參與者間的關(guān)聯(lián)錯綜復(fù)雜,彼此高度依賴且影響深遠(yuǎn)。

生成式人工智能系統(tǒng)價值鏈主要由六個核心階段組成,每個階段都會定期進(jìn)行調(diào)整與優(yōu)化以更好地滿足其他階段的需求。具體階段如下:數(shù)據(jù)收集與訓(xùn)練;模型預(yù)先訓(xùn)練—模型訓(xùn)練者選擇訓(xùn)練數(shù)據(jù)集、模型架構(gòu)、訓(xùn)練算法,并設(shè)定訓(xùn)練過程中的隨機種子值,以研發(fā)出具有廣泛適用性的基礎(chǔ)模型;模型微調(diào)——對預(yù)訓(xùn)練模型進(jìn)行調(diào)整,使其在特定領(lǐng)域能夠完成更專業(yè)化任務(wù);模型發(fā)布與系統(tǒng)部署—模型可以以開源形式發(fā)布、供公眾使用與改進(jìn),也可以被嵌入到軟件應(yīng)用中進(jìn)行部署,還可以直接與用戶交互生成內(nèi)容;內(nèi)容生成—系統(tǒng)根據(jù)用戶輸入生成內(nèi)容;模型對齊—整合人類反饋數(shù)據(jù)和強化學(xué)習(xí)算法對模型進(jìn)行更新與優(yōu)化,以確保模型輸出符合預(yù)設(shè)的特定偏好或標(biāo)準(zhǔn)。

2.機器自主學(xué)習(xí)

人工智能系統(tǒng)以機器學(xué)習(xí)技術(shù)為核心,它不是一個具體產(chǎn)品或者一次性服務(wù),而是以數(shù)據(jù)為導(dǎo)向、與環(huán)境進(jìn)行動態(tài)交互的“技術(shù)—社會”系統(tǒng)。系統(tǒng)的持續(xù)性發(fā)展以及用戶、研發(fā)者與系統(tǒng)之間的反饋循環(huán),為新風(fēng)險發(fā)生提供了空間。這表明,即使人工智能系統(tǒng)在某一時刻被判定為安全,但實際應(yīng)用仍可能導(dǎo)致模型不穩(wěn)定及性能下降。

(二)行政監(jiān)管與侵權(quán)責(zé)任的效率匹配

從行為規(guī)制視角來看,行政監(jiān)管與侵權(quán)責(zé)任是約束價值鏈參與者行為的主要規(guī)制框架。行政監(jiān)管旨在于在損害發(fā)生前,設(shè)定統(tǒng)一行為標(biāo)準(zhǔn),并通過責(zé)令改正、警告、罰款、限制或剝奪行為資質(zhì)等一系列公共執(zhí)法方式威懾行為人遵守義務(wù)規(guī)則。侵權(quán)責(zé)任是受害人在損害發(fā)生后提起侵權(quán)訴訟,法院結(jié)合個案確定行為人是否承擔(dān)賠償責(zé)任。

隨著現(xiàn)代規(guī)制國家不斷發(fā)展,行政法律規(guī)范與民事法律規(guī)范不再是截然區(qū)分的運行體系。在公私法界限逐漸模糊背景下,如何鏈接行政監(jiān)管與侵權(quán)責(zé)任,構(gòu)成規(guī)制理論與實踐的重要議題。傳統(tǒng)法教義學(xué)方法從規(guī)則適用角度探討二者關(guān)系。一是探討違反公法規(guī)范是否應(yīng)承擔(dān)侵權(quán)責(zé)任。公法與私法存在不同規(guī)范目標(biāo),前者保護(hù)公共利益,后者保護(hù)個體民事權(quán)益。若特定的行政法律規(guī)范兼具保護(hù)私人利益的目標(biāo),則構(gòu)成“保護(hù)規(guī)范”,將成為侵權(quán)責(zé)任的評價依據(jù)。二是探討公民權(quán)利的公法權(quán)利與私法權(quán)利屬性。如果特定法律條文既保護(hù)公共利益也保護(hù)私人利益,構(gòu)成保護(hù)規(guī)范,則公民據(jù)此享有主觀公權(quán)利,可請求行政主體介入保護(hù)其權(quán)益;如果特定法律條文不構(gòu)成保護(hù)規(guī)范,則公民不得主張公法上的救濟,只能通過向法院提起民事訴訟方式保護(hù)其權(quán)益。

當(dāng)下科技發(fā)展的重要特點是,科技與社會互相影響、關(guān)系錯綜復(fù)雜,公共利益與私人利益難以界分。因此,從規(guī)范保護(hù)目的的規(guī)則適用視角審視行政監(jiān)管與侵權(quán)責(zé)任的關(guān)系,無法為設(shè)計科技規(guī)制制度提供有價值的邊際增量。法經(jīng)濟學(xué)方法以“事前觀點”審視侵權(quán)責(zé)任,即事后損害賠償構(gòu)成對行為人事前行為的激勵。在此意義上,侵權(quán)賠償客觀上激勵了一般社會主體采取措施預(yù)防損害發(fā)生,促使侵權(quán)機制在一定程度上發(fā)揮了“設(shè)定行為標(biāo)準(zhǔn)、監(jiān)督與執(zhí)行行為標(biāo)準(zhǔn)”的規(guī)制功能。一直以來,法經(jīng)濟學(xué)從行為效率規(guī)制視角尋求公私法匹配的理念未得到廣泛推崇。原因在于,在我國強行政監(jiān)管背景下,通過個案救濟發(fā)揮司法公共治理職能,不僅會給資源不足與專業(yè)薄弱的法院帶來訴訟負(fù)擔(dān),亦會對社會主體產(chǎn)生過度威懾效應(yīng),因此理論與實踐多主張弱化侵權(quán)責(zé)任的行為規(guī)制作用。

人工智能侵權(quán)與傳統(tǒng)侵權(quán)存在顯著區(qū)別,侵權(quán)責(zé)任的制度功能需要從個體救濟向公共治理傾斜。一方面,人工智能侵權(quán)是價值鏈多個主體共同創(chuàng)造的結(jié)果,且人工智能決策具有黑箱與涌現(xiàn)性特征,使得判斷某一主體行為是否構(gòu)成過錯、行為與結(jié)果之間是否具有因果關(guān)系存在困難。另一方面,人工智能侵權(quán)并非傳統(tǒng)的一對一侵權(quán)或多對一侵權(quán),其具有大規(guī)模微型侵權(quán)特征,會導(dǎo)致海量個體權(quán)益受損。在此背景下,更合理和可行的方式是直接在不同主體之間分配責(zé)任,而不是依賴主觀意志過錯和因果關(guān)系來判斷侵權(quán)責(zé)任。事實上,從工業(yè)化時代開始,侵權(quán)法就朝著責(zé)任分配方向發(fā)展,責(zé)任設(shè)置亦通常超越直接涉案主體,將社會保險、責(zé)任保險等制度納入分析框架。數(shù)字時代對這種責(zé)任分配轉(zhuǎn)變提出了更迫切的需求,這也表明侵權(quán)制度已不再是單純依賴個案救濟間接實現(xiàn)行為規(guī)制,而是通過責(zé)任分配直接承擔(dān)起公共治理的職能。在此背景下,尋求行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制層面的匹配機制,對于人工智能規(guī)制設(shè)計至關(guān)重要。

1.以制度比較優(yōu)勢為基礎(chǔ)明確行政監(jiān)管的必要與目標(biāo)

行政監(jiān)管的優(yōu)勢在于,監(jiān)管部門可以通過專業(yè)性知識、規(guī);O(jiān)控與多元執(zhí)法手段預(yù)防損害發(fā)生。但在某些情形下,制定行為標(biāo)準(zhǔn)所需的重要信息,是伴隨風(fēng)險活動的開展而生成的附屬品,無法在活動發(fā)生前被監(jiān)管者感知并獲取。侵權(quán)責(zé)任的場景信息獲取優(yōu)勢對于人工智能效率規(guī)制至關(guān)重要。人工智能技術(shù)帶來的社會影響更多體現(xiàn)為變革知識生產(chǎn)方式、個體生活方式、社會交互交往形式等價值性影響。在價值多元與變動的社會中,科技與社會是協(xié)同發(fā)展的關(guān)系,事前規(guī)制性規(guī)則試圖通過特定節(jié)點的價值理念來約束技術(shù)發(fā)展,很容易隨著時間的推移而喪失其合理性。侵權(quán)責(zé)任待損害發(fā)生后進(jìn)行回應(yīng),將更顯審慎性與針對性,減小了過度管制、扼制創(chuàng)新的風(fēng)險。因此,行政監(jiān)管制度設(shè)計需要明確其必要性與目標(biāo)、限度,為侵權(quán)機制制定符合場景特征的最優(yōu)風(fēng)險預(yù)防行為標(biāo)準(zhǔn)預(yù)留空間。

就必要性而言,人工智能價值鏈存在“多手問題”,而侵權(quán)機制難以有效獨立解決。人工智能系統(tǒng)產(chǎn)生的影響,可能源于價值鏈多環(huán)節(jié)的累積效應(yīng),也可能是某關(guān)鍵環(huán)節(jié)出現(xiàn)問題。因此,控制風(fēng)險需要多主體協(xié)同行動,或者由單一主體獨立采取措施。一方面,如果人工智能系統(tǒng)中各方主體承擔(dān)過錯責(zé)任,則每一方主體都可能以其他主體沒有采取更有效的邊際預(yù)防措施為由,主張減免自身責(zé)任。另一方面,如果由人工智能系統(tǒng)中某一方或多方主體承擔(dān)無過錯責(zé)任,則該主體將有動力通過合同等方式厘清并督促價值鏈中其他主體實施預(yù)防措施。然而,鑒于算法的不透明性以及機器具備自主學(xué)習(xí)特征,承擔(dān)無過錯責(zé)任的主體很可能因價值鏈中其他主體的搭便車行為而難以確保系統(tǒng)安全。而且,無過錯責(zé)任還可能使行為主體減少行為量,進(jìn)而扼制創(chuàng)新。就行政監(jiān)管目標(biāo)而言,由于價值鏈中的每一方參與者都有可能對最終結(jié)果產(chǎn)生一定程度的影響,事前監(jiān)管應(yīng)當(dāng)為價值鏈主體設(shè)定基礎(chǔ)行為義務(wù),促使各主體形成秩序互動與協(xié)同治理,從而確保技術(shù)系統(tǒng)維系一定程度的安全與公正水平。

2.完善行政監(jiān)管與侵權(quán)責(zé)任的銜接機制

行政監(jiān)管的必要性與目的得以論證后,接下來的問題是,行政監(jiān)管對于侵權(quán)責(zé)任的作用是什么,二者如何構(gòu)建銜接機制。傳統(tǒng)理論認(rèn)為,二者在行為規(guī)制層面存在三種基本銜接方式:規(guī)制性規(guī)范與侵權(quán)機制部分重合但彼此構(gòu)成獨立行為評價體系,違反了規(guī)制性規(guī)范并不當(dāng)然構(gòu)成侵權(quán)責(zé)任;規(guī)制性規(guī)范厘定了侵權(quán)責(zé)任的基礎(chǔ)框架,侵權(quán)機制依賴規(guī)制性規(guī)范設(shè)置的風(fēng)險級別分配風(fēng)險預(yù)防責(zé)任,而且違反規(guī)制性規(guī)范將構(gòu)成侵權(quán)過錯責(zé)任中的過失;規(guī)制性規(guī)范設(shè)定了細(xì)密、嚴(yán)格的行為標(biāo)準(zhǔn),代表社會最優(yōu)預(yù)防水平,侵權(quán)機制在個案中確定的行為標(biāo)準(zhǔn)不應(yīng)高于規(guī)制性規(guī)范。本文主張第二種銜接方式。人工智能技術(shù)迭代速率日益增進(jìn),法院具有獲取場景信息的優(yōu)勢,能夠在具體個案中尋求與技術(shù)發(fā)展水平相一致的、符合“預(yù)防成本—技術(shù)效益”效率原則的行為規(guī)制標(biāo)準(zhǔn)。然而,法院欠缺專業(yè)優(yōu)勢,難以在權(quán)衡技術(shù)發(fā)展的社會影響與預(yù)防措施成本的基礎(chǔ)上獨立判斷責(zé)任歸屬。因此,行政監(jiān)管規(guī)則應(yīng)當(dāng)成為界分過錯責(zé)任與無過錯責(zé)任的框架,并作為底線規(guī)則,納入侵權(quán)責(zé)任構(gòu)成要件的考量之中。

其一,根據(jù)行政監(jiān)管規(guī)則來確定侵權(quán)責(zé)任的歸責(zé)原則。侵權(quán)責(zé)任歸責(zé)原則存在過錯責(zé)任與無過錯責(zé)任兩種基本形式,不同歸責(zé)原則的行為激勵效果存在區(qū)別。在過錯責(zé)任下,法院可以依據(jù)個案事實、雙方提供的信息,判定預(yù)防行為投入成本與收益,明確行為人在特定場景中的“適當(dāng)注意水平”。如果法院在判斷行為注意水平方面存在信息弱勢,則可以通過設(shè)定無過錯責(zé)任來激勵潛在侵權(quán)人積極采取預(yù)防措施。在過錯責(zé)任下,行為人達(dá)到注意義務(wù)標(biāo)準(zhǔn)后缺乏動力進(jìn)行更多預(yù)防投入,由于這一注意義務(wù)標(biāo)準(zhǔn)是由法院加以認(rèn)定的,因此更多體現(xiàn)為一種可被觀測的“行為注意水平”。同時,過錯責(zé)任也激勵受害人積極預(yù)防損害,實現(xiàn)風(fēng)險的雙邊預(yù)防。在無過錯責(zé)任下,潛在侵權(quán)人無論是否存在過錯都需要對結(jié)果承擔(dān)責(zé)任,這促使他們投入更多不可觀測的預(yù)防努力,構(gòu)成風(fēng)險的單邊預(yù)防機制。然而,理性經(jīng)濟人亦不會過度投入預(yù)防,其會通過減少行為量來最小化成本支出。

因此,過錯責(zé)任與無過錯責(zé)任的區(qū)分不僅會影響預(yù)防主體與成本,還會進(jìn)一步影響人工智能研發(fā)的數(shù)量,以及使用者與公眾是否應(yīng)當(dāng)監(jiān)督人工智能的使用,這些均與“人工智能技術(shù)不可預(yù)測性后果應(yīng)由社會整體還是技術(shù)參與者承擔(dān)”“社會合理的人工智能應(yīng)用規(guī)!钡戎卮笊鐣h題息息相關(guān)。雖然無過錯責(zé)任需要以法律明確規(guī)定為前提,但法院在判斷過錯責(zé)任時往往采用寬泛過錯標(biāo)準(zhǔn),這使得過錯責(zé)任實質(zhì)上發(fā)揮了類似無過錯責(zé)任的行為激勵效果。法院在通過個案影響科技發(fā)展重大方向方面,欠缺專業(yè)優(yōu)勢與民主基礎(chǔ)。鑒于此,有必要通過行政監(jiān)管來制定人工智能技術(shù)風(fēng)險分級標(biāo)準(zhǔn),侵權(quán)機制則依據(jù)風(fēng)險級別設(shè)置無過錯責(zé)任與過錯責(zé)任。對于高風(fēng)險人工智能系統(tǒng),采用無過錯責(zé)任可激勵技術(shù)研發(fā)者與使用者積極投入更多不可觀測的預(yù)防努力,以確保技術(shù)的安全與公正研發(fā)使用,并通過影響行為量的方式逐步控制此類人工智能技術(shù)數(shù)量。對于低風(fēng)險人工智能系統(tǒng),則適用過錯責(zé)任,由社會共同承擔(dān)技術(shù)發(fā)展的剩余風(fēng)險,進(jìn)而激發(fā)人工智能技術(shù)的創(chuàng)新活力。

其二,以行政監(jiān)管規(guī)則框定侵權(quán)責(zé)任構(gòu)成要件。為實現(xiàn)最優(yōu)預(yù)防,行政監(jiān)管設(shè)置的風(fēng)險預(yù)防規(guī)則將影響侵權(quán)責(zé)任構(gòu)成要件判定,而侵權(quán)責(zé)任亦需要發(fā)揮其場景信息優(yōu)勢,補足行政監(jiān)管回應(yīng)科技發(fā)展的制度缺陷。人工智能行政監(jiān)管規(guī)則通常包括具體行為標(biāo)準(zhǔn)、績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn),不同監(jiān)管規(guī)則在影響侵權(quán)責(zé)任構(gòu)成要件方面存在區(qū)別。一方面,具體行為標(biāo)準(zhǔn)規(guī)定價值鏈主體應(yīng)當(dāng)或禁止采用的技術(shù)標(biāo)準(zhǔn)或行為措施,違反該標(biāo)準(zhǔn)將被認(rèn)定為存在過錯。人工智能侵權(quán)存在因果關(guān)系認(rèn)定難題,價值鏈各主體行為均增加了損害發(fā)生的可能性,但難以判斷這些行為對結(jié)果的促成是否具有相當(dāng)性。為應(yīng)對大規(guī)模侵權(quán),工業(yè)化時代的因果關(guān)系開始轉(zhuǎn)變?yōu)樨?zé)任判斷,即通過后者反推前者,而非通過前者推論后者。在人工智能侵權(quán)中,這種轉(zhuǎn)變更為必要,侵權(quán)法應(yīng)進(jìn)一步朝著責(zé)任分配方向發(fā)展。因此,一旦違反具體行為標(biāo)準(zhǔn),即可視為增加了損害發(fā)生概率,構(gòu)成過錯,并應(yīng)當(dāng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任。另一方面,績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)構(gòu)成侵權(quán)責(zé)任鏈接政府監(jiān)管與行業(yè)自治的中介。績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)并不告知價值鏈主體如何行為的具體標(biāo)準(zhǔn)與方式,而是為其勾勒出大致目標(biāo)與決策框架,留待社會自我規(guī)制補充規(guī)范細(xì)則。此種規(guī)制方式激勵科技主體完善自律行為準(zhǔn)則,回應(yīng)了生成式人工智能技術(shù)發(fā)展特征。但是,依賴行業(yè)層面的軟法治理,亦可能導(dǎo)致倫理洗滌、行業(yè)治理逐底競爭等問題。在此意義上,侵權(quán)機制在個案中通過判定注意標(biāo)準(zhǔn)審查行業(yè)實踐是否適當(dāng),以此激勵行業(yè)層面積極完善實踐標(biāo)準(zhǔn)、推動發(fā)現(xiàn)共識,實現(xiàn)軟法與硬法的有序互動。

三、生成式人工智能價值鏈的行政監(jiān)管

行政監(jiān)管應(yīng)當(dāng)充分發(fā)揮其規(guī)模執(zhí)法和預(yù)防系統(tǒng)性風(fēng)險的功能,為人工智能價值鏈主體設(shè)定基礎(chǔ)行為義務(wù),以促進(jìn)價值鏈各主體之間形成有序的互動與協(xié)同治理機制,從而確保人工智能系統(tǒng)能夠維持在一定的安全與公正水平之上。

(一)人工智能價值鏈行政監(jiān)管的基本邏輯

“多手問題”并非人工智能系統(tǒng)引發(fā)的新議題,傳統(tǒng)規(guī)制領(lǐng)域積累了解決該問題的制度經(jīng)驗。典型如,在產(chǎn)品責(zé)任領(lǐng)域,法律將責(zé)任配置給最有能力控制風(fēng)險與分散風(fēng)險的核心主體,以此激勵核心主體通過合同、自我規(guī)制等方式積極采取行動,確保其他參與者行為符合法律要求。這種責(zé)任配置理念深刻影響了當(dāng)下人工智能規(guī)制實踐。在2020年《人工智能白皮書》中,歐盟委員會提出,為解決人工智能系統(tǒng)多主體參與難題,應(yīng)當(dāng)將責(zé)任配置給最有能力解決相關(guān)問題的主體。然而,白皮書并沒有明確具體哪個行為者最適合解決何種問題!度斯ぶ悄芊ò浮穭t提出“提供者”(Provider)與“部署者”(Deployer)兩個定義明確的主體,由他們承擔(dān)主要規(guī)制義務(wù)。

各國人工智能監(jiān)管在認(rèn)定核心主體方面仍在持續(xù)探索,但基本共識是,將人工智能系統(tǒng)價值鏈劃分為研發(fā)、生產(chǎn)階段與應(yīng)用階段,并根據(jù)不同階段特征為核心主體設(shè)置公法行為規(guī)范。行政監(jiān)管的核心目標(biāo)是,以核心主體為規(guī)制抓手,推動價值鏈參與者形成秩序互動、確保人工智能系統(tǒng)維系一定程度的安全水平。行政監(jiān)管的核心路徑在于,對研發(fā)生產(chǎn)與應(yīng)用階段的重要風(fēng)險點實施風(fēng)險緩解措施,并建立信息共享機制,為研發(fā)者或提供者、部署者或使用者進(jìn)行風(fēng)險緩解提供信息基礎(chǔ)。

其一,研發(fā)與生產(chǎn)階段涉及將何種數(shù)據(jù)、算法、功能嵌入到人工智能系統(tǒng)中,這種“價值物化”直接決定了人工智能系統(tǒng)的核心性能。研發(fā)者與提供者對這一過程擁有較高程度控制權(quán),行政監(jiān)管重點在于規(guī)范“算法影響評估程序”,確保人工智能系統(tǒng)嵌入公平、公正、透明等重要價值理念。其二,在人工智能應(yīng)用階段,使用者能夠通過調(diào)適使用方式來減小事故發(fā)生概率,這表明人工智能系統(tǒng)產(chǎn)生的損害是一種雙邊事故,即受影響者本身亦對損害發(fā)生有一定作用力。因此,行政監(jiān)管規(guī)則發(fā)揮了關(guān)系建構(gòu)作用,其通過影響使用者與人工智能系統(tǒng)的互動策略,型塑一種秩序化的人機關(guān)系。規(guī)范人機交互關(guān)系的核心在于,通過制定使用行為規(guī)范,指導(dǎo)人類使用者合理確定對人工智能系統(tǒng)的信任。在輔助決策中,信任程度決定了人類在多大程度上采納機器建議;在替代決策中,信任程度則界定了使用者介入機器行為的范圍與深度。其三,人工智能價值鏈各環(huán)節(jié)緊密相連、互相影響,且風(fēng)險緩解具有疊加性與替代性特征。因此,行政監(jiān)管需要建立信息共享機制,為核心主體履行義務(wù)提供必要支撐。信息共享至少應(yīng)當(dāng)包括:上游研發(fā)生產(chǎn)者之間的信息共享、上游提供者向下游部署者提供系統(tǒng)性能信息、下游部署者向上游提供者提供系統(tǒng)運行信息。

(二)厘定生成式人工智能價值鏈的核心義務(wù)主體

生成式人工智能系統(tǒng)的研發(fā)生產(chǎn)、商業(yè)運營與傳統(tǒng)人工智能系統(tǒng)存在顯著區(qū)別,須結(jié)合具體場景確定核心義務(wù)主體。一方面,生成式人工智能系統(tǒng)的基礎(chǔ)模型并非為特定應(yīng)用場景而研發(fā),且區(qū)別于傳統(tǒng)人工智能系統(tǒng)與模型作為整體研發(fā),其研發(fā)通常獨立于整體系統(tǒng)。基礎(chǔ)模型對系統(tǒng)性能具有重要影響,因此有必要對其進(jìn)行專門規(guī)制。另一方面,基礎(chǔ)模型存在多種部署方式。其一,基礎(chǔ)模型提供者開放應(yīng)用程序接口,形成“模型即服務(wù)”(Maas)產(chǎn)業(yè)生態(tài),向下游部署者提供模型服務(wù)。其二,基礎(chǔ)模型提供者公開發(fā)布模型或其部分元素,其他部署者可根據(jù)許可條件使用或修改模型。其三,基礎(chǔ)模型提供者將模型服務(wù)直接嵌入到網(wǎng)絡(luò)頁面或其他應(yīng)用程序中,向終端用戶提供內(nèi)容生成服務(wù)。

就此而言,生成式人工智能系統(tǒng)的“研發(fā)生產(chǎn)—應(yīng)用”可以劃分為兩種商業(yè)模式:“基礎(chǔ)模型研發(fā)—基礎(chǔ)模型微調(diào)后進(jìn)行服務(wù)供給—終端用戶使用”與“基礎(chǔ)模型研發(fā)—基礎(chǔ)模型垂直部署進(jìn)行服務(wù)供給—終端用戶使用”。就第一種模式而言,研發(fā)生產(chǎn)階段的核心義務(wù)主體應(yīng)確定為基礎(chǔ)模型提供者與專業(yè)模型研發(fā)者;應(yīng)用階段的義務(wù)主體應(yīng)確定為生成內(nèi)容服務(wù)提供者。就第二種模式而言,系統(tǒng)研發(fā)生產(chǎn)階段與應(yīng)用階段的核心主體都是基礎(chǔ)模型提供者。

(三)為生成式人工智能價值鏈核心主體設(shè)定公法義務(wù)

1.基礎(chǔ)模型提供者應(yīng)當(dāng)履行數(shù)據(jù)公平保障義務(wù)和系統(tǒng)安全保障義務(wù)

基礎(chǔ)模型的訓(xùn)練數(shù)據(jù)與生成結(jié)果之間的關(guān)系,并非僅存在算法黑箱的不可解釋性,在達(dá)到某個臨界點時,還會呈現(xiàn)涌現(xiàn)特征。鑒于基礎(chǔ)模型的技術(shù)特征及其對社會的強大賦能效應(yīng),規(guī)制重點應(yīng)當(dāng)集中于微觀層面的數(shù)據(jù)保護(hù)與宏觀層面的系統(tǒng)安全。

就數(shù)據(jù)保護(hù)而言,基礎(chǔ)模型研發(fā)要求更大規(guī)模的數(shù)據(jù)訓(xùn)練,構(gòu)建數(shù)據(jù)保護(hù)利益與模型經(jīng)濟價值之間的權(quán)衡機制至關(guān)重要。數(shù)據(jù)處理方式需依據(jù)具體場景由處理者判斷,難以預(yù)設(shè)明確行為標(biāo)準(zhǔn)。因此,行政監(jiān)管應(yīng)制定程序規(guī)則,如個人信息保護(hù)影響評估及負(fù)責(zé)人職責(zé)等,通過規(guī)范內(nèi)部管理程序促使研發(fā)者將個人信息保護(hù)目標(biāo)嵌入數(shù)據(jù)處理程序。就系統(tǒng)安全而言,基礎(chǔ)模型具有通用性,行政監(jiān)管應(yīng)當(dāng)關(guān)注系統(tǒng)安全而非具體場景下的算法影響。當(dāng)前,宜在激勵相容監(jiān)管理念指引下,對普通基礎(chǔ)模型進(jìn)行包容審慎監(jiān)管,并對達(dá)到一定規(guī)模者提出安全保障要求。歐盟已實施基于風(fēng)險的分層監(jiān)管,為達(dá)到一定規(guī)模的基礎(chǔ)模型設(shè)定安全標(biāo)準(zhǔn)。核心安全保障機制為“對抗測試”,即驗證大模型是否會產(chǎn)生有害內(nèi)容、不可預(yù)測的系統(tǒng)局限或者與系統(tǒng)濫用有關(guān)的潛在風(fēng)險等。法律應(yīng)局限于規(guī)范“對抗測試”的基礎(chǔ)程序,激勵、引導(dǎo)行業(yè)形成符合當(dāng)下最優(yōu)技術(shù)水平的測試標(biāo)準(zhǔn)。

2.專業(yè)模型研發(fā)者應(yīng)當(dāng)履行算法影響評估義務(wù)

算法影響評估根據(jù)不同技術(shù)設(shè)計可能引致的不同應(yīng)用影響,選擇風(fēng)險最小、最符合社會倫理規(guī)范的設(shè)計模式。相較于傳統(tǒng)人工智能系統(tǒng),生成式人工智能價值鏈可能存在兩個研發(fā)階段,如何設(shè)計影響評估制度構(gòu)成監(jiān)管挑戰(zhàn)。這也成為歐盟《人工智能法案》立法過程中關(guān)于生成式人工智能規(guī)制最具爭議的議題。2023年6月的草案文本提出,由于基礎(chǔ)模型應(yīng)用必然包含高風(fēng)險領(lǐng)域應(yīng)用,因此基礎(chǔ)模型提供者需要承擔(dān)高風(fēng)險人工智能系統(tǒng)提供者義務(wù)。但是,最終法案減輕了基礎(chǔ)模型提供者風(fēng)險管控負(fù)擔(dān),轉(zhuǎn)由專業(yè)模型研發(fā)者承擔(dān)。專業(yè)模型研發(fā)者基于特定應(yīng)用目標(biāo)訓(xùn)練基礎(chǔ)模型,能夠感知人工智能系統(tǒng)的應(yīng)用場景且控制了用戶界面,對生成內(nèi)容進(jìn)行了預(yù)先謀劃與控制。因此,從風(fēng)險控制能力出發(fā),法律要求專業(yè)模型研發(fā)者開展影響評估符合效率目標(biāo)。事前監(jiān)管應(yīng)確立算法影響評估核心程序,涵蓋參與者、評估步驟及記錄要求。實際操作中,應(yīng)鼓勵醫(yī)療、心理、法律、金融等專業(yè)應(yīng)用領(lǐng)域制定技術(shù)標(biāo)準(zhǔn)與倫理準(zhǔn)則,指導(dǎo)研發(fā)者進(jìn)行算法影響評估:將基礎(chǔ)模型部署至具體領(lǐng)域會產(chǎn)生何種社會影響,緩解負(fù)面影響的措施是否適當(dāng)?基礎(chǔ)模型部署要解決何種功能性問題,而衡量是否實現(xiàn)該功能的具體指標(biāo)是什么,為什么選擇該指標(biāo)而非其他指標(biāo)?測度該指標(biāo)的具體數(shù)據(jù)集是按照何種標(biāo)準(zhǔn)選取的,其收集、維護(hù)、清洗過程是什么,是否體現(xiàn)了現(xiàn)實決策環(huán)境的完整性?與其他方案相比,該算法決策方案在涉及利益相關(guān)方影響方面是否“中立”,這一結(jié)論是否經(jīng)過測試和驗證?

3.生成式內(nèi)容服務(wù)提供者應(yīng)當(dāng)履行內(nèi)容管控義務(wù)

在具體應(yīng)用階段,生成內(nèi)容造成危害的場景包括用戶與機器交流場景以及用戶使用傳播場景。前者如,生成內(nèi)容可能侵犯他人著作權(quán)與名譽權(quán)、錯誤虛假信息誤導(dǎo)用戶等。后者如,傳播侵犯他人權(quán)利的內(nèi)容、傳播錯誤虛假內(nèi)容、過度依賴生成內(nèi)容減損教育秩序與創(chuàng)作倫理等。法律規(guī)制應(yīng)用階段的核心目標(biāo)是構(gòu)建人機關(guān)系秩序。生成內(nèi)容由人與機器共同完成,終端用戶的提問輸入行為與傳播使用行為對于促成損害結(jié)果至關(guān)重要。行政監(jiān)管應(yīng)當(dāng)規(guī)范終端使用者、內(nèi)容受眾與機器的交互方式,從而引導(dǎo)他們開展高效的風(fēng)險預(yù)防行為。當(dāng)前,行政監(jiān)管應(yīng)當(dāng)針對內(nèi)容服務(wù)提供者,要求其通過規(guī)范“提示”引導(dǎo)用戶輸入,并完善“內(nèi)容標(biāo)識”來協(xié)調(diào)受眾對生成內(nèi)容的信任程度。

就“提示”而言,內(nèi)容服務(wù)提供者應(yīng)當(dāng)在技術(shù)上防范用戶惡意誘導(dǎo)生成違法內(nèi)容、引導(dǎo)用戶輸入合理問題,并明確服務(wù)適用情境,引導(dǎo)終端使用者合法合理使用技術(shù)。就“內(nèi)容標(biāo)識”而言,虛假信息對公共秩序與個體權(quán)益的危害不僅源自內(nèi)容本身失真,更在于公眾因不合理信任而形成認(rèn)知與決策偏差;內(nèi)容標(biāo)識提示生成內(nèi)容來源,助推信息受眾理性審視內(nèi)容可靠性,并檢索更多信息論證生成內(nèi)容是否合理,從而賦能公眾控制生成內(nèi)容對其認(rèn)知、決策與行為的影響程度。

當(dāng)前,提示監(jiān)管取得較大共識,但內(nèi)容標(biāo)識監(jiān)管仍待完善。一方面,法律要求的標(biāo)識范圍與方式并不清晰。內(nèi)容標(biāo)識制度設(shè)計應(yīng)當(dāng)平衡技術(shù)發(fā)展與權(quán)益保護(hù),依據(jù)內(nèi)容種類與行業(yè)應(yīng)用,確定顯性標(biāo)識、隱性標(biāo)識、提供者主動公示標(biāo)識與提供者依據(jù)申請公示標(biāo)識的具體適用。另一方面,內(nèi)容標(biāo)識技術(shù)發(fā)展滯后,法律有待為產(chǎn)業(yè)界提供有效激勵。為此,法律設(shè)置的內(nèi)容標(biāo)識公法義務(wù)之核心在于完善合作規(guī)制架構(gòu),一方面建立顯性標(biāo)識與隱性標(biāo)識、不同行業(yè)標(biāo)識要求的基本程序框架,另一方面激勵產(chǎn)業(yè)層面發(fā)展標(biāo)識技術(shù),完善生成內(nèi)容檢測追蹤。

4.增強價值鏈透明度

人工智能價值鏈各環(huán)節(jié)緊密相連,核心主體義務(wù)的履行依賴其能夠獲取的信息,行政監(jiān)管亦需要建立一定程度的透明機制,確保核心主體具有充足信息進(jìn)行風(fēng)險防控。就生成式人工智能系統(tǒng)而言,這種透明機制應(yīng)當(dāng)包括上游向下游傳達(dá)信息、下游向上游反饋信息。一方面,基礎(chǔ)模型性能信息對于專業(yè)模型研發(fā)者進(jìn)行風(fēng)險管控至關(guān)重要;A(chǔ)模型提供者應(yīng)當(dāng)向部署者提供關(guān)鍵開發(fā)步驟、部署環(huán)境配置、模型性能、擴展和調(diào)整性能、故障排除、更新維護(hù)以及特定應(yīng)用環(huán)境下的風(fēng)險警示等信息,賦能部署者充分理解基礎(chǔ)模型的能力與局限,從而在適配下游應(yīng)用時提升風(fēng)險管控能力。在此過程中,需妥善平衡技術(shù)信息共享與知識產(chǎn)權(quán)、商業(yè)秘密保護(hù)的關(guān)系。另一方面,專業(yè)模型研發(fā)者、生成內(nèi)容服務(wù)提供者在具體應(yīng)用場景中發(fā)現(xiàn)的模型風(fēng)險信息或系統(tǒng)性偏差,亦應(yīng)及時反饋給基礎(chǔ)模型研發(fā)者,并通過協(xié)議等方式與基礎(chǔ)模型研發(fā)者分配風(fēng)險緩解責(zé)任。

四、行政監(jiān)管與侵權(quán)責(zé)任的銜接

面對生成式人工智能技術(shù)的迅速迭代,侵權(quán)機制的行為規(guī)制作用在于,它能夠在行政監(jiān)管確立的底線規(guī)范基礎(chǔ)上,為價值鏈主體設(shè)置符合具體場景特征的更高標(biāo)準(zhǔn)的注意義務(wù)。同時,侵權(quán)機制還具備基礎(chǔ)性的信息生產(chǎn)功能,通過與監(jiān)管的協(xié)作互動,為監(jiān)管部門不斷發(fā)展規(guī)制規(guī)范提供必要信息支撐。

(一)基于行政監(jiān)管邏輯設(shè)置人工智能侵權(quán)責(zé)任

價值鏈多元主體與機器自主學(xué)習(xí)特征,成為了侵權(quán)責(zé)任認(rèn)定難題。一種較為流行觀點認(rèn)為,可以適用代理人責(zé)任或雇主責(zé)任原則,即將人工智能與其管理人之間關(guān)系類比為代理人與被代理人或雇員與雇主的關(guān)系,代理人或雇員的行為后果由被代理人或雇主承擔(dān)。另一種觀點則主張賦予人工智能法律人格以承擔(dān)責(zé)任。然而,人工智能缺乏獨立人格,不符合代理人責(zé)任、雇主責(zé)任、民事主體責(zé)任的法律構(gòu)成要件。同時,這種責(zé)任設(shè)置也未能充分考慮到價值鏈存在多元主體的實際情況。一個更為可行的方案是,按照價值鏈行政監(jiān)管的邏輯來設(shè)置侵權(quán)責(zé)任,依據(jù)研發(fā)生產(chǎn)環(huán)節(jié)與應(yīng)用環(huán)節(jié)的區(qū)分,分別為人工智能系統(tǒng)提供者與使用者設(shè)定相應(yīng)的產(chǎn)品責(zé)任和使用責(zé)任。歐盟當(dāng)下侵權(quán)責(zé)任立法動態(tài)即體現(xiàn)了這一思路:《產(chǎn)品責(zé)任指令》結(jié)合人工智能技術(shù)特征,拓展“產(chǎn)品”與“損害”的范圍,為人工智能產(chǎn)品提供者設(shè)定產(chǎn)品責(zé)任;《人工智能責(zé)任指令(提案)》則為人工智能使用者與非產(chǎn)品類人工智能提供者設(shè)置過錯責(zé)任;趦r值鏈的研發(fā)生產(chǎn)與應(yīng)用環(huán)節(jié)劃分設(shè)置侵權(quán)責(zé)任,將行政監(jiān)管確定的核心義務(wù)主體及相應(yīng)行為規(guī)范適用于侵權(quán)責(zé)任認(rèn)定,這符合“由能夠以最低成本預(yù)防風(fēng)險者承擔(dān)責(zé)任”的責(zé)任配置理念,有助于加強行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制層面的銜接。

其一,人工智能產(chǎn)品生產(chǎn)者享有更多技術(shù)信息、影響產(chǎn)品設(shè)計的能力,且有能力通過定價方式分散風(fēng)險成本,要求生產(chǎn)者承擔(dān)傳統(tǒng)產(chǎn)品責(zé)任,符合行為激勵效率。具體制度設(shè)計的核心要義在于,在個案中明確“產(chǎn)品缺陷”內(nèi)涵與“風(fēng)險發(fā)展抗辯”。就“產(chǎn)品缺陷”而言,事前監(jiān)管規(guī)則構(gòu)成底線行為標(biāo)準(zhǔn),法院在具體個案中綜合技術(shù)發(fā)展水平、技術(shù)收益與風(fēng)險緩解成本對比等因素,判斷產(chǎn)品是否存在設(shè)計缺陷、制造缺陷與警示缺陷。就“風(fēng)險發(fā)展抗辯”而言,鑒于人工智能系統(tǒng)具有自主學(xué)習(xí)特征,針對由學(xué)習(xí)產(chǎn)生的不可預(yù)知風(fēng)險,侵權(quán)機制可以給那些對個體權(quán)益與公眾生活產(chǎn)生重要影響的人工智能系統(tǒng)提供者分配更為嚴(yán)格的責(zé)任,從而激勵提供者增加投入,加強人類對技術(shù)的控制能力;對于其他人工智能系統(tǒng),有必要通過引入“風(fēng)險發(fā)展抗辯”理念,以明確在人工智能系統(tǒng)自主學(xué)習(xí)過程中產(chǎn)生的部分損害,提供者可以享有責(zé)任豁免,從而實現(xiàn)由整體社會來承擔(dān)人工智能“剩余風(fēng)險”的風(fēng)險分散效果。其二,在人工智能系統(tǒng)應(yīng)用階段,行政監(jiān)管規(guī)則通過要求提供者進(jìn)行信息公示與要求使用者進(jìn)行影響評估的方式,來規(guī)范人與機器之間的交互關(guān)系。如果使用者沒有依照提供者提供信息進(jìn)行機器操作或沒有進(jìn)行影響評估,且在此過程中造成損害,則當(dāng)然需要承擔(dān)侵權(quán)責(zé)任。對于構(gòu)成特別高風(fēng)險的人工智能系統(tǒng),可以通過設(shè)置使用者嚴(yán)格責(zé)任來激勵其減少行為量;對于一般人工智能系統(tǒng),則應(yīng)設(shè)置過錯責(zé)任,依據(jù)機器的自動化水平、使用者對機器的控制能力、前端使用者與機器后端操作者之間的關(guān)系、使用者采取預(yù)防措施的成本與收益對比等,在具體場景中調(diào)整使用者注意水平。

(二)為生成式人工智能服務(wù)提供者設(shè)置產(chǎn)品責(zé)任

在實踐應(yīng)用中,生成式人工智能致人侵害主要包括兩種情形:一是生成式人工智能服務(wù)提供者直接向用戶提供服務(wù)的過程中對用戶或第三人造成損害;二是用戶利用該系統(tǒng)向第三人提供服務(wù)的過程中或用戶傳播系統(tǒng)生成內(nèi)容,對第三人造成損害。由此看來,前者侵害源于技術(shù)系統(tǒng)缺陷,應(yīng)當(dāng)適用生產(chǎn)研發(fā)階段責(zé)任,后者侵害源于使用者的使用行為,適用人工智能應(yīng)用責(zé)任,F(xiàn)階段,生成式人工智能侵權(quán)責(zé)任難點在于生產(chǎn)研發(fā)階段責(zé)任,即生成式人工智能服務(wù)提供者責(zé)任。

生成式人工智能系統(tǒng)最初依托互聯(lián)網(wǎng)與用戶對話生成內(nèi)容,因此,我國監(jiān)管部門一直依賴互聯(lián)網(wǎng)內(nèi)容規(guī)制理念開展制度設(shè)計。內(nèi)容規(guī)制理念也深刻影響了侵權(quán)責(zé)任探討。既有研究多從“網(wǎng)絡(luò)服務(wù)提供者”與“網(wǎng)絡(luò)內(nèi)容提供者”界分視角,分析生成式人工智能服務(wù)提供者的法律性質(zhì),進(jìn)而探討其對生成內(nèi)容的民事責(zé)任。但是,網(wǎng)絡(luò)服務(wù)提供者責(zé)任與網(wǎng)絡(luò)內(nèi)容提供者責(zé)任都著重于規(guī)范與用戶直接交互的內(nèi)容輸出端行為,缺乏對“模型即服務(wù)”商業(yè)模式下模型提供者的行為評價。而且,當(dāng)下生成式人工智能技術(shù)既可以作為獨立軟件,亦可以嵌入至硬件設(shè)備中提供服務(wù),既能應(yīng)用于決策輔助型人工智能場景,也能發(fā)展為替代型人工智能應(yīng)用。在生成式人工智能服務(wù)對各行各業(yè)賦能的背景下,現(xiàn)有網(wǎng)絡(luò)內(nèi)容侵權(quán)責(zé)任規(guī)則難以回應(yīng)技術(shù)缺陷帶來的負(fù)面影響。

為充分激勵生產(chǎn)研發(fā)階段的安全預(yù)防投入,一個更可行的路徑是,生成式人工智能服務(wù)提供者適用產(chǎn)品責(zé)任。但是,產(chǎn)品責(zé)任只適用于產(chǎn)品,排除服務(wù)的適用。生成式人工智能軟件可以被嵌入至產(chǎn)品中,亦可以作為獨立軟件提供服務(wù),后者可否適用產(chǎn)品責(zé)任不無疑問。解決該問題關(guān)鍵在于,從功能主義視角分析產(chǎn)品責(zé)任適用的制度目標(biāo)。區(qū)分產(chǎn)品與服務(wù)的制度理念在于:產(chǎn)品具有批量生產(chǎn)、規(guī)模銷售的特點,生產(chǎn)者可以通過定價機制分散風(fēng)險,因此適用嚴(yán)格責(zé)任符合風(fēng)險最優(yōu)預(yù)防理念;服務(wù)供給具有專業(yè)性與個性化特征,要求服務(wù)提供者承擔(dān)嚴(yán)格責(zé)任會減損服務(wù)質(zhì)量,因此服務(wù)提供者更適宜適用過錯責(zé)任。生成式人工智能作為一種軟件,具有批量生產(chǎn)、規(guī)模銷售的特點,其是面向不特定用戶而非提供一對一定制化服務(wù)。同時,提供者能通過定價機制來分散風(fēng)險,這與產(chǎn)品責(zé)任的制度目標(biāo)相契合。正是基于人工智能時代軟件服務(wù)的特殊性,歐盟《產(chǎn)品責(zé)任指令》修訂案拓展了“產(chǎn)品”范圍,將獨立軟件、附加軟件、重要人工智能服務(wù)等數(shù)字服務(wù)納入了“產(chǎn)品”范疇。

作為不真正連帶責(zé)任,產(chǎn)品責(zé)任亦有助于協(xié)調(diào)模型服務(wù)供給者與模型服務(wù)調(diào)用者之間的關(guān)系。因產(chǎn)品缺陷造成損害,被侵權(quán)人既可以向生成式內(nèi)容服務(wù)提供者請求賠償,亦可以向模型服務(wù)提供者請求賠償。生成式內(nèi)容服務(wù)提供者、模型服務(wù)提供者向用戶承擔(dān)責(zé)任后,可以根據(jù)模型卡技術(shù)記錄、模型服務(wù)提供者說明等信息,明確價值鏈其他主體是否存在不當(dāng)行為并向其追償。

(三)加強產(chǎn)品責(zé)任與行政監(jiān)管的互動

通過精細(xì)化的產(chǎn)品責(zé)任制度設(shè)計可以實現(xiàn)侵權(quán)責(zé)任與行政監(jiān)管的有序互動。通常來說,產(chǎn)品缺陷包括制造缺陷、設(shè)計缺陷、警示缺陷三種。制造缺陷關(guān)注產(chǎn)品性能和特征,只要產(chǎn)品在物理上偏離既定設(shè)計就需要承擔(dān)嚴(yán)格責(zé)任。設(shè)計缺陷與警示缺陷關(guān)注生產(chǎn)者、設(shè)計者行為的合理性,需要綜合安全、效用、市場需求等多種因素考量,在認(rèn)定上融入了過錯責(zé)任的因素。其中,設(shè)計缺陷的認(rèn)定是生成式人工智能產(chǎn)品責(zé)任的難點,亦構(gòu)成撬動侵權(quán)與監(jiān)管進(jìn)行效率銜接的關(guān)鍵著力點。

根據(jù)《中華人民共和國產(chǎn)品質(zhì)量法》第46條規(guī)定,缺陷判斷標(biāo)準(zhǔn)包括不合理危險與技術(shù)標(biāo)準(zhǔn)兩類。技術(shù)標(biāo)準(zhǔn)作為行政監(jiān)管規(guī)則,構(gòu)成缺陷產(chǎn)品認(rèn)定的底線規(guī)則,但如何判斷是否構(gòu)成不合理危險,欠缺明晰標(biāo)準(zhǔn)。歐盟與美國的缺陷判斷標(biāo)準(zhǔn)成為我國司法實踐的重要參考。歐盟確立了合理期待標(biāo)準(zhǔn),如果產(chǎn)品安全沒有達(dá)到人們的合理期待即存在缺陷。美國確立了風(fēng)險效用標(biāo)準(zhǔn),強調(diào)對產(chǎn)品的安全設(shè)計進(jìn)行成本—收益比較,判斷是否存在更好的替代設(shè)計。這兩種標(biāo)準(zhǔn)都不符合生成式人工智能技術(shù)特征。就合理期待標(biāo)準(zhǔn)而言,普通消費者難以理解生成式人工智能的技術(shù)機理,往往會產(chǎn)生不切實際的期待。就風(fēng)險效用標(biāo)準(zhǔn)而言,生成式人工智能正經(jīng)歷迅速迭代,而行業(yè)內(nèi)尚未就最佳實踐達(dá)成共識,因此難以判定何種替代設(shè)計更為優(yōu)越。這表明,法院在判斷技術(shù)運行邏輯、技術(shù)的社會影響、技術(shù)的社會選擇方面存在專業(yè)弱勢,應(yīng)當(dāng)依賴行業(yè)知識形成多元主體技術(shù)共治。就此而言,法院在判斷生成式人工智能是否構(gòu)成設(shè)計缺陷時,有必要在行政監(jiān)管規(guī)則框架下,綜合考慮行業(yè)自治因素。

生成式人工智能行政監(jiān)管以抽象績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)為主:前者體現(xiàn)為基本目標(biāo)導(dǎo)向要求,如模型訓(xùn)練使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性等,但法律并未給予“合法來源”“真實、準(zhǔn)確、客觀、多樣”明確界定標(biāo)準(zhǔn);后者體現(xiàn)為程序性要求,如開展影響評估、對抗測試、在發(fā)現(xiàn)違法內(nèi)容后進(jìn)行模型優(yōu)化,但具體的程序步驟與標(biāo)準(zhǔn)仍然非常模糊。行政監(jiān)管設(shè)置的抽象績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)并不告知價值鏈主體如何行為的具體方式,而是為其勾勒出大致目標(biāo)與決策框架,留待社會自我規(guī)制補充規(guī)范細(xì)則。就此而言,法院應(yīng)當(dāng)以行政監(jiān)管設(shè)置的抽象績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)為框架,在具體個案中判斷企業(yè)自我規(guī)制是否達(dá)到了合理注意要求。問題關(guān)鍵在于,在行業(yè)共識尚未統(tǒng)一時,法院如何確定符合合理注意的行業(yè)實踐?尤其是當(dāng)下,生成式人工智能規(guī)制主要依賴軟法規(guī)范,盡管存在多種倫理原則和技術(shù)指引,但同時也面臨著倫理洗滌、倫理規(guī)范欠缺執(zhí)行力、行業(yè)間的逐底競爭等問題,這為法院評判行業(yè)實踐帶來了挑戰(zhàn)。

一方面,生成式人工智能研發(fā)實踐的重要特征是專業(yè)性,即依賴專業(yè)團體的知識與能力,因此相應(yīng)的合理注意應(yīng)當(dāng)以專業(yè)團體的合理注意而非一般理性人的合理注意為標(biāo)準(zhǔn)。一般來說,專業(yè)性合理注意標(biāo)準(zhǔn)包括行業(yè)一般習(xí)慣標(biāo)準(zhǔn)與信義義務(wù)標(biāo)準(zhǔn),前者強調(diào)根據(jù)該領(lǐng)域的一般實踐來確定合理性,后者強調(diào)專業(yè)團體以受托人身份承擔(dān)更高標(biāo)準(zhǔn)的忠實義務(wù)。行業(yè)一般習(xí)慣標(biāo)準(zhǔn)關(guān)注現(xiàn)有技術(shù)水平下的行業(yè)實踐,更適合生成式人工智能發(fā)展現(xiàn)狀。原因在于,在技術(shù)發(fā)展高度不確定背景下,負(fù)面結(jié)果是行業(yè)實踐固有的產(chǎn)物,且技術(shù)實踐發(fā)展會自行消納負(fù)面結(jié)果的產(chǎn)生原因。因此,應(yīng)當(dāng)將行業(yè)一般習(xí)慣標(biāo)準(zhǔn)適用于生成式人工智能技術(shù)研發(fā)缺陷判斷,并根據(jù)技術(shù)發(fā)展不斷調(diào)適缺陷判斷標(biāo)準(zhǔn),以此發(fā)揮侵權(quán)機制場景優(yōu)勢,促使科技穩(wěn)健融入社會。另一方面,現(xiàn)階段行業(yè)實踐在生成式人工智能研發(fā)的有效性、安全性、問責(zé)性、可解釋性、公平性等方面仍存在諸多分歧。在共識難以達(dá)成時,尊重現(xiàn)有技術(shù)水平下的不同實踐方法比確定單一合理標(biāo)準(zhǔn)更合適。評估自我規(guī)制是否完善的核心在于內(nèi)部管理程序是否規(guī)范,因此法院亦應(yīng)當(dāng)以程序為抓手,通過評估技術(shù)研發(fā)實踐所遵從的標(biāo)準(zhǔn)或行為守則的制定程序、技術(shù)研發(fā)的倫理審查程序、該實踐在行業(yè)內(nèi)的接受程度等,判斷不同實踐是否達(dá)到合理注意標(biāo)準(zhǔn)。同時,基于行政監(jiān)管確定的風(fēng)險規(guī)制框架,對于達(dá)到一定規(guī)模的大模型研發(fā)以及應(yīng)用于高風(fēng)險領(lǐng)域的生成式人工智能服務(wù),法院應(yīng)當(dāng)適用更嚴(yán)格的缺陷判斷標(biāo)準(zhǔn)。

通過這種方式,侵權(quán)機制將激勵行業(yè)層面不斷完善自我規(guī)制、探尋最佳技術(shù)實踐。同時,對于法院在個案中認(rèn)可的達(dá)到高標(biāo)準(zhǔn)的部分實踐,亦可以推動監(jiān)管部門將其轉(zhuǎn)化統(tǒng)一監(jiān)管規(guī)則,以此實現(xiàn)軟法與硬法的銜接與互動。

本文轉(zhuǎn)引自中國政法大學(xué)“政法論壇”,原文發(fā)表于《政法論壇》2025年第2期。本文章僅限學(xué)習(xí)交流使用,版權(quán)歸原作者所有。

??

Serving national strategies, focusing on university research and the transformation of scientific and technological achievements


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
埃爾多安說海灣國家通往公海的通行權(quán)不應(yīng)受限

埃爾多安說海灣國家通往公海的通行權(quán)不應(yīng)受限

新華社
2026-04-17 23:48:01
曝孫楊強勢逼妻子道歉,妻子崩潰大哭,朱丹吐槽,孫丞瀟被嚇傻

曝孫楊強勢逼妻子道歉,妻子崩潰大哭,朱丹吐槽,孫丞瀟被嚇傻

王觪曉
2026-04-17 15:01:17
西蒙尼:我現(xiàn)在沒心思想阿森納,這場失利讓我很難受

西蒙尼:我現(xiàn)在沒心思想阿森納,這場失利讓我很難受

懂球帝
2026-04-19 08:09:39
貴州36歲劉偉去世,長得帥氣在銀行上班,嘴唇明顯發(fā)紫,媽媽哭暈

貴州36歲劉偉去世,長得帥氣在銀行上班,嘴唇明顯發(fā)紫,媽媽哭暈

社會日日鮮
2026-04-18 13:15:41
哈里梅根本周操作:一場精準(zhǔn)的情緒收割

哈里梅根本周操作:一場精準(zhǔn)的情緒收割

晚風(fēng)也遺憾
2026-04-17 08:53:45
遭狂噓!21歲棄將反戈曼聯(lián)獻(xiàn)災(zāi)難表現(xiàn) 3射0正 2次業(yè)余失誤看笑了

遭狂噓!21歲棄將反戈曼聯(lián)獻(xiàn)災(zāi)難表現(xiàn) 3射0正 2次業(yè)余失誤看笑了

我愛英超
2026-04-19 06:22:03
學(xué)生的瓜能有多炸裂,網(wǎng)友的分享一個比一個逆天!

學(xué)生的瓜能有多炸裂,網(wǎng)友的分享一個比一個逆天!

黯泉
2026-04-18 13:31:58
難過啊!80后男人的葬禮上,出殯草草了事,家人連一聲痛哭都沒有

難過。80后男人的葬禮上,出殯草草了事,家人連一聲痛哭都沒有

火山詩話
2026-04-18 16:26:38
越南迎來公務(wù)員下崗潮,數(shù)十萬人鐵飯碗不保,越南要做什么?

越南迎來公務(wù)員下崗潮,數(shù)十萬人鐵飯碗不保,越南要做什么?

琴琴有氧運動
2026-04-17 23:36:42
比爾蓋茨唯一重倉的A股科技股,凈利潤11年暴增300倍,PE20倍出頭

比爾蓋茨唯一重倉的A股科技股,凈利潤11年暴增300倍,PE20倍出頭

長風(fēng)價值掘金
2026-04-18 22:11:49
搭載40名中國游客大巴在俄羅斯翻車,或因司機打盹兒致車輛失控

搭載40名中國游客大巴在俄羅斯翻車,或因司機打盹兒致車輛失控

紅星新聞
2026-04-18 19:08:29
演員楊蓉曬燙傷后疤痕恢復(fù)照,稱“帶疤的臉很酷”

演員楊蓉曬燙傷后疤痕恢復(fù)照,稱“帶疤的臉很酷”

韓小娛
2026-04-18 16:13:04
200名中企工人海外務(wù)工被欠薪,向普京求援,俄方:已解約不擔(dān)責(zé)

200名中企工人海外務(wù)工被欠薪,向普京求援,俄方:已解約不擔(dān)責(zé)

杰絲聊古今
2026-04-18 15:44:36
不會干,你就別干了!中國勒令馬士基停運,巴拿馬的反應(yīng)很有意思

不會干,你就別干了!中國勒令馬士基停運,巴拿馬的反應(yīng)很有意思

青桅
2026-04-19 05:09:38
此地?zé)o銀?索馬里議員奧馬爾將資產(chǎn)從3000萬變成9.5萬美元

此地?zé)o銀?索馬里議員奧馬爾將資產(chǎn)從3000萬變成9.5萬美元

大洛杉磯LA
2026-04-19 03:34:13
交警提醒:2026新交規(guī)落地,2分徹底取消,這4類行為直接扣滿12分

交警提醒:2026新交規(guī)落地,2分徹底取消,這4類行為直接扣滿12分

復(fù)轉(zhuǎn)這些年
2026-04-18 12:59:02
男子偷走媽祖廟里的黃金耳環(huán),給自家供奉的媽祖戴上:“想到我家媽祖沒有耳環(huán)”!

男子偷走媽祖廟里的黃金耳環(huán),給自家供奉的媽祖戴上:“想到我家媽祖沒有耳環(huán)”!

落紙生花創(chuàng)意手工
2026-04-02 12:07:08
蔡磊妻子段睿半夜悲痛發(fā)文:明知沒有機會了,偏要賭他會等我回來

蔡磊妻子段睿半夜悲痛發(fā)文:明知沒有機會了,偏要賭他會等我回來

樂天閑聊
2026-04-19 07:05:22
廣東慘遭18分逆轉(zhuǎn)疑似放水!專家暗示打假球:杜鋒為季后賽挑對手

廣東慘遭18分逆轉(zhuǎn)疑似放水!專家暗示打假球:杜鋒為季后賽挑對手

籃球快餐車
2026-04-19 06:11:53
光通信風(fēng)口轉(zhuǎn)向:別盯光模塊,MLCC才是下一個核心主線

光通信風(fēng)口轉(zhuǎn)向:別盯光模塊,MLCC才是下一個核心主線

普陀動物世界
2026-04-18 20:12:11
2026-04-19 09:00:49
科轉(zhuǎn)在線 incentive-icons
科轉(zhuǎn)在線
引領(lǐng)·傳播·連接·賦能
5969文章數(shù) 849關(guān)注度
往期回顧 全部

科技要聞

傳Meta下月擬裁8000 大舉清退人力為AI騰位

頭條要聞

女子與情人在車上發(fā)生關(guān)系后被殺 還被灌農(nóng)藥偽造殉情

頭條要聞

女子與情人在車上發(fā)生關(guān)系后被殺 還被灌農(nóng)藥偽造殉情

體育要聞

時隔25年重返英超!沒有人再嘲笑他了

娛樂要聞

劉德華回應(yīng)潘宏彬去世,拒談喪禮細(xì)節(jié)

財經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

奇瑞威麟R08 PRO正式上市 售價14.48萬元起

態(tài)度原創(chuàng)

手機
藝術(shù)
數(shù)碼
房產(chǎn)
公開課

手機要聞

華為Pura X Max:被曝24日開賣!華為Pura 90:發(fā)售日成謎!

藝術(shù)要聞

鄭麗文大陸之行引發(fā)熱議,孫中山贈對聯(lián)成焦點!

數(shù)碼要聞

首款驍龍8 Gen5小平板!OPPO Pad Mini下周發(fā)

房產(chǎn)要聞

官宣簽約最強城更!?跇鞘,突然殺入神秘房企!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版