国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

程嘯:論生成式人工智能侵害名譽權(quán)的侵權(quán)責(zé)任 | 財經(jīng)法學(xué)202602

0
分享至

【作者】程嘯(清華大學(xué)法學(xué)院教授)

【來源】北大法寶法學(xué)期刊庫《財經(jīng)法學(xué)》2026年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


內(nèi)容提要:生成式人工智能服務(wù)提供者對于保證其輸出內(nèi)容的真實性和準(zhǔn)確性具有技術(shù)上的控制力與法律義務(wù)。生成式人工智能的內(nèi)容輸出是提供者自身所實施的行為。提供者并非單純的網(wǎng)絡(luò)技術(shù)服務(wù)提供者,不能援引網(wǎng)絡(luò)侵權(quán)責(zé)任中的通知規(guī)則與知道規(guī)則免除責(zé)任,而應(yīng)依據(jù)過錯責(zé)任原則為自己的行為負(fù)責(zé)任。生成式人工智能直接針對其名譽被涉及的用戶的內(nèi)容輸出不構(gòu)成發(fā)布行為,其輸出的內(nèi)容只有為被侵權(quán)人之外的第三人知悉時,該內(nèi)容的輸出才構(gòu)成發(fā)布行為。該類輸出內(nèi)容既包括事實陳述,也包括意見表達,提供者可以主張真實性抗辯與公正評論抗辯。提供者對于侵害名譽權(quán)的過錯包括故意和過失。對于過失的判斷,應(yīng)當(dāng)首先依據(jù)法律規(guī)定的義務(wù)適用違法視為過失規(guī)則;沒有法律規(guī)定的義務(wù)或者符合法定要求時,應(yīng)當(dāng)結(jié)合案件具體事實,根據(jù)《民法典》第998條的動態(tài)系統(tǒng)論與第1026條列舉的考慮因素,按照侵害行為發(fā)生時的技術(shù)發(fā)展水平來認(rèn)定提供者是否具有過失。

關(guān)鍵詞:生成式人工智能;提供者;名譽權(quán);侵權(quán)責(zé)任;過錯

目次

一、問題的提出

二、內(nèi)容輸出是否是生成式人工智能服務(wù)提供者的行為

三、輸出內(nèi)容是否構(gòu)成侵害名譽權(quán)行為的認(rèn)定

四、生成式人工智能提供者過錯的判斷

五、結(jié)語

問題的提出

生成式人工智能(generative artificial intelligence)是一類能夠根據(jù)輸入數(shù)據(jù)自動生成新內(nèi)容的人工智能系統(tǒng),它通過學(xué)習(xí)大量現(xiàn)有數(shù)據(jù)中的模式、結(jié)構(gòu)和特征,能夠創(chuàng)造出新的文本、圖像、音頻、視頻等形式的內(nèi)容。在目前世界上具有代表性的生成式人工智能中,文本生成類主要包括OpenAI的ChatGPT、Anthropic的Claude、Google的Gemini、Meta的LLaMA、深度求索的DeepSeek、阿里的千問、字節(jié)跳動的豆包及百度的文心一言;圖像視頻生成類包括OpenAI的DALL-E、Sora,Google的Imagen、Veo,騰訊混元,阿里的通義萬相等。生成式人工智能的核心功能在于創(chuàng)作與生成。因此,在其輸出的文本、視頻或圖像等內(nèi)容存在虛假錯誤時,可能產(chǎn)生侵害名譽權(quán)(及其他人格權(quán))侵權(quán)責(zé)任。具體而言,可以分為兩類情形:一是,生成式人工智能輸出的內(nèi)容是虛假錯誤的而直接侵害他人的名譽權(quán),由此產(chǎn)生人工智能公司承擔(dān)侵權(quán)責(zé)任的問題;二是,用戶利用人工智能生成具有誹謗性或侮辱性的內(nèi)容而侵害他人名譽權(quán),此時,涉及用戶與人工智能公司應(yīng)否及如何承擔(dān)侵權(quán)責(zé)任的問題。例如,在2023年美國發(fā)生的“Mark Walters v.OpenAI,L.L.C.案”中,原告是公眾人物、全國聯(lián)合脫口秀主持人馬克·沃爾特斯(Mark Walters),其以ChatGPT生成不實內(nèi)容(謊稱其被指控挪用第二修正案基金會的資金)為由向法院起訴運營ChatGPT的OpenAI公司構(gòu)成誹謗侵權(quán)。美國聯(lián)邦地區(qū)法院佐治亞州北區(qū)亞特蘭大分院經(jīng)審理后以ChatGPT關(guān)于原告挪用公款的陳述不能被合理解讀為事實陳述,且未能證明OpenAI公司存在過錯等理由駁回了原告的起訴。再如,我國北京互聯(lián)網(wǎng)法院審理的一個案件中,被告孫某利用生成式人工智能將原告程某用作微信頭像的肖像照創(chuàng)作生成為乳房暴露的動漫風(fēng)格圖片,并將該圖片發(fā)送至與原告同在的攝影交流微信群內(nèi)。在原告多次制止后,被告仍繼續(xù)使用人工智能軟件將原告的上述微信頭像的肖像照片生成乳房暴露且身體畸形的動漫風(fēng)格圖片,并一對一發(fā)送給原告。法院判決認(rèn)為“涉案AI軟件是一種AI工具,被告是該工具的使用者,被訴侵權(quán)圖片是被告自主決定生成,并在涉案微信群中發(fā)布。被告明知在人數(shù)眾多的微信群中發(fā)布被訴侵權(quán)圖片,會導(dǎo)致原告社會評價降低的后果,經(jīng)原告勸阻,仍有意為之,其侵權(quán)故意明顯”,故此,認(rèn)定被告生成并發(fā)送涉案圖片到微信群的行為構(gòu)成對原告名譽權(quán)的侵害。

目前,理論界對生成式人工智能侵權(quán)責(zé)任的歸責(zé)原則、損害、過錯、因果關(guān)系等問題已展開了一定的研究,但尚未見到對生成式人工智能侵害名譽權(quán)的專門討論。有鑒于此,本文擬對生成式人工智能侵害名譽權(quán)的侵權(quán)責(zé)任加以分析研究,主要研究以下問題:首先,生成式人工智能的內(nèi)容輸出能否被認(rèn)定為生成式人工智能服務(wù)提供者的行為,抑或提供者作為網(wǎng)絡(luò)技術(shù)服務(wù)提供者而只是單純的傳輸他人生產(chǎn)或形成的內(nèi)容或信息;其次,在確認(rèn)生成式人工智能的內(nèi)容輸出是提供者的行為之后,進一步分析如何認(rèn)定輸出的內(nèi)容構(gòu)成侵害名譽權(quán)的加害行為與產(chǎn)生了名譽權(quán)被侵害的后果;最后,分析在生成式人工智能侵害名譽權(quán)的案件中怎樣判斷提供者有無過錯的問題。

內(nèi)容輸出是否是生成式人工智能服務(wù)提供者的行為

生成式人工智能的內(nèi)容輸出是否屬于提供者實施的行為這一問題,可以細(xì)分為兩個層次的小問題:首先,該內(nèi)容之輸出究竟是歸屬于生成式人工智能系統(tǒng)本身還是提供者;其次,如果歸屬于提供者,該內(nèi)容的輸出只是單純的傳輸這一技術(shù)服務(wù)行為,還是應(yīng)當(dāng)被認(rèn)定為提供者自身的言論發(fā)布行為。前一問題涉及行為主體的確定,后一問題則是對行為性質(zhì)的認(rèn)定。理論界曾有將人工智能本身作為一個法律主體看待并賦予法律人格的觀點。例如,2017年歐洲議會通過的《歐洲機器人技術(shù)民事法律規(guī)則》第59條(f)認(rèn)為:“從長遠(yuǎn)來看要創(chuàng)設(shè)機器人的特殊法律地位,以確保至少最復(fù)雜的自動化機器人可以被確認(rèn)為享有電子人的法律地位,有責(zé)任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格?!被谶@種觀點,生成式人工智能所輸出的內(nèi)容不是人工智能創(chuàng)造者(即人工智能公司)的言論,甚至根本就不是人類言論,而是人工智能本身的言論。然而,無論是賦予人工智能以倫理性人格還是技術(shù)性人格,目前都是不可行的。一方面,如果將自我意識作為“自主性”不可或缺的要素,則目前的通用型人工智能雖然具有相當(dāng)?shù)淖灾餍?,但距離自然人那樣的可以廣泛地理解、學(xué)習(xí)和執(zhí)行各種任務(wù)的認(rèn)識思維能力水平還有很遠(yuǎn)的距離,遑論具有人類心靈的能力?!爸挥挟?dāng)機器能夠模擬主客觀世界的不確定性,使定性的人類思維可以用帶有不確定性的定量方法去研究,才能最終使機器具有更高的智能,在不同尺度上模擬和代替人腦的思維活動?!币虼?,無法將人工智能作為自然人那樣看待,賦予其倫理人格。另一方面,人工智能沒有自己獨立的財產(chǎn),無法承擔(dān)法律責(zé)任,更沒有自然人那樣的意思表示機制,因此,法律上無法賦予人工智能以法人那樣的擬制人格(即技術(shù)人格),最終還是需要明確究竟誰是行為人與責(zé)任人??傊?,只要人工智能不具有完全的自主性,仍是由人類來創(chuàng)建人工智能或至少是決定使用人工智能,只要人工智能自身還不擁有獨立的財產(chǎn),無法獨立承擔(dān)責(zé)任,則行為與責(zé)任總是要歸屬于現(xiàn)行法律所承認(rèn)的自然人、法人或非法人組織等民事主體。生成式人工智能也不例外。因此,對于上述第一個問題回答是:生成式人工智能輸出內(nèi)容應(yīng)當(dāng)歸屬于提供者,是提供者的行為。

上述第二個問題,即輸出內(nèi)容的行為究竟是單純的傳輸這一技術(shù)性服務(wù)還是提供者自身發(fā)表言論的行為,對于提供者如何承擔(dān)侵害名譽權(quán)的侵權(quán)責(zé)任至關(guān)重要。如果輸出的內(nèi)容就是提供者發(fā)表的言論,則其應(yīng)當(dāng)按照過錯責(zé)任承擔(dān)侵權(quán)責(zé)任。倘若只是單純的傳輸行為,那么,提供者可以援引網(wǎng)絡(luò)侵權(quán)責(zé)任中的通知規(guī)則與知道規(guī)則而免責(zé),只在未及時采取必要措施的情況下才需要承擔(dān)責(zé)任。對于該問題,目前國內(nèi)外法學(xué)界存在很大的爭議。下面先介紹比較法和我國法上的爭論,然后闡述本文的觀點。

(一)比較法上的爭議

1.美國法

1996年的美國《通信規(guī)范法》第230條(c)款為“交互式計算機服務(wù)的提供者或使用者”提供了豁免權(quán)。該款明確規(guī)定,交互式計算機服務(wù)的提供者或使用者不得被視為另一信息內(nèi)容提供者所提供信息的發(fā)布者或傳播者,因此,無須因為以下行為承擔(dān)責(zé)任:(1)出于善意自愿采取行動,限制對其認(rèn)為屬于淫穢、猥褻、淫蕩、污穢、極端暴力、騷擾性或其他令人反感材料的訪問或獲取(無論該材料是否受憲法保護);(2)采取行動,為信息內(nèi)容提供者或他人提供技術(shù)手段,以限制對第(1)項所述材料的訪問。上述規(guī)定使得平臺免于為第三方內(nèi)容承擔(dān)責(zé)任,被認(rèn)為是現(xiàn)代互聯(lián)網(wǎng)發(fā)展的重要法律基礎(chǔ)。司法實踐中,美國法院逐漸明確了《通信規(guī)范法》第230條的適用須滿足以下三個條件:第一,被告必須是交互式計算機服務(wù)的提供者或使用者;第二,索賠必須基于另一信息內(nèi)容提供者提供的信息;第三,索賠必須將被告視為發(fā)布者?;趯@三個限制條件的理解,美國法學(xué)界就生成式人工智能服務(wù)的提供者(也稱運營者)能否適用《通信規(guī)范法》第230條的問題存在肯定說、否定說與區(qū)分適用說等三種不同觀點。

肯定說認(rèn)為,生成式人工智能服務(wù)符合《通信規(guī)范法》第230條的定義,可以適用該條。首先,法院普遍認(rèn)為,允許用戶訪問托管于服務(wù)器的內(nèi)容或服務(wù)的網(wǎng)站即屬于“交互式計算機服務(wù)”,生成式人工智能平臺允許用戶訪問其托管的人工智能模型,符合該定義。其次,生成式人工智能是基于從互聯(lián)網(wǎng)、授權(quán)方和用戶處獲取的第三方海量數(shù)據(jù)進行訓(xùn)練后,根據(jù)用戶提示,通過識別和重組這些信息中的模式來生成回應(yīng)。生成式人工智能獲取這些信息后不會存儲所依賴的信息,相關(guān)信息始終歸第三方所有。生成式人工智能是通過梳理第三方內(nèi)容,響應(yīng)用戶提示生成內(nèi)容。除了用戶的輸入外,生成式人工智能并未自主創(chuàng)造新的內(nèi)容。再次,與圖書館或報攤類似,生成式人工智能響應(yīng)用戶輸入整合第三方內(nèi)容時,扮演的正是“發(fā)布者”的角色。因此,針對人工智能公司的訴訟大概率會將其視為信息發(fā)布者,如主張人工智能生成誹謗內(nèi)容的訴訟就會要求法院將人工智能視為該信息的發(fā)布者。最后,盡管ChatGPT等生成式人工智能技術(shù)非常復(fù)雜,但技術(shù)的復(fù)雜性不改變生成式人工智能作為“中性工具”的法律本質(zhì)。法院在判斷《通信規(guī)范法》第230條的可適用性時關(guān)注的是平臺是否在扮演發(fā)布者角色而非其算法的復(fù)雜程度。并且,國會立法意圖也支持對第230條豁免作寬泛解釋,從而保護技術(shù)平臺免于為無法控制的第三方內(nèi)容承擔(dān)過重的責(zé)任。

否定說認(rèn)為,生成式人工智能不能適用《通信規(guī)范法》第230條。首先,該條要求被告是交互式計算機服務(wù)的提供者或使用者,而非違法內(nèi)容的提供者。人工智能程序的輸出是由程序自身生成的,并非簡單地引用現(xiàn)有網(wǎng)站內(nèi)容(如搜索引擎提供的網(wǎng)站摘要)或現(xiàn)有用戶查詢內(nèi)容(如某些自動補全功能通過引用用戶提供的內(nèi)容推薦下一個或多個詞匯)。因此,針對人工智能公司的訴訟,本質(zhì)上是要求將人工智能公司視為信息的發(fā)布者或傳播者,該公司就是潛在的責(zé)任主體——“信息內(nèi)容提供者”。其次,法院此前明確了第230條不豁免那些對有害內(nèi)容有“實質(zhì)性貢獻”的被告,而人工智能公司創(chuàng)造并提供了生成不當(dāng)內(nèi)容的程序,其對生成內(nèi)容具有實質(zhì)貢獻。再次,生成式人工智能看似基于訓(xùn)練數(shù)據(jù)中已有的詞匯生成內(nèi)容,但就像某人通過復(fù)制粘貼他人發(fā)布的每一個字(而非親自寫每一個字)來構(gòu)成誹謗性文本時被認(rèn)為同樣創(chuàng)作了相關(guān)內(nèi)容一樣,人工智能生成的誹謗性文本不能被認(rèn)為只是對已有內(nèi)容的簡單聚集和復(fù)制粘貼,而是對其誹謗性質(zhì)產(chǎn)生了實質(zhì)貢獻。最后,適用《通信規(guī)范法》第230條的傳統(tǒng)案例至少都在理論上讓言論的實際創(chuàng)造者為其負(fù)責(zé)。如果讓人工智能程序的生成內(nèi)容可以獲得第230條的豁免,則一般性地完全切斷了受害人向任何人尋求救濟的可能。

區(qū)分適用說認(rèn)為,就能否適用《通信規(guī)范法》第230條的問題,不能一概而論,要區(qū)分不同情況。在區(qū)分適用說中,有的學(xué)者認(rèn)為,關(guān)鍵的問題在于平臺究竟只是發(fā)布第三方的內(nèi)容還是其自身就是“信息內(nèi)容提供者”,即生成式人工智能是否對作為原告侵權(quán)賠償訴訟基礎(chǔ)的可訴內(nèi)容進行了“創(chuàng)作”或“開發(fā)”。判斷該問題時,法院主要關(guān)注的是平臺與內(nèi)容的互動性質(zhì)。如果平臺對違法內(nèi)容的產(chǎn)生有實質(zhì)促進,則不享有第230條的豁免權(quán)。據(jù)此,倘若生成式人工智能存在以下情形,則法院可能拒絕給予其第230條豁免權(quán):對內(nèi)容的違法性因素負(fù)有責(zé)任從而對內(nèi)容構(gòu)成實質(zhì)性促成;超出“傳統(tǒng)編輯功能”的范圍而添加了新內(nèi)容,不再是第三方信息的“中介”;屬于違法內(nèi)容的“作者”,而非僅展示第三方違法內(nèi)容;索賠依據(jù)聚焦于被告的其他行為或商業(yè)慣例,而非平臺上展示的內(nèi)容。如果法院認(rèn)定存在以下情形,則生成式人工智能可能享有第230條的保護:僅僅轉(zhuǎn)發(fā)、整理或總結(jié)現(xiàn)有第三方內(nèi)容且對內(nèi)容的修改屬于“傳統(tǒng)編輯功能”,基礎(chǔ)信息完全是由第三方提供的且通過“中性”的算法進行過濾或處理。還有的學(xué)者認(rèn)為,應(yīng)當(dāng)結(jié)合人工智能的技術(shù)設(shè)計細(xì)節(jié)進行具體分析:其一,模仿預(yù)訓(xùn)練數(shù)據(jù)中的語言模式生成新文本的基準(zhǔn)基礎(chǔ)模型(baseline foundation models)會響應(yīng)提示生成新內(nèi)容,而非僅托管或傳遞他人創(chuàng)作信息,因此不能獲得第230條的豁免;其二,輸出的內(nèi)容直接取自第三方來源的抽取式生成(extractive generation)的情況下,因其與搜索引擎摘要等已獲豁免的功能高度相似,豁免的可能性較高;其三,檢索增強(retrieval-augmented)生成模型雖然借鑒了搜索功能的特性,但可能生成未基于檢索源的虛構(gòu)內(nèi)容,其能否豁免存在不確定性;其四,基于人類反饋進行學(xué)(learning from human feedback)的模型更接近平臺自主創(chuàng)作內(nèi)容,豁免的概率會降低。

從美國的司法實踐來看,在聯(lián)邦第二巡回法院審理的Force v.Facebook案中,法院審查的核心問題是《通信規(guī)范法》第230條是否阻卻作為美國公民的受害者及其近親屬就Facebook使用一種基于用戶輸入來決定向其展示何種內(nèi)容的算法而向該平臺提起訴訟的可能性。法院認(rèn)為,使用算法本身并不會使交互式計算機服務(wù)成為發(fā)布者,因為Facebook的算法只是組織第三方信息。所謂信息內(nèi)容提供者,是指對通過互聯(lián)網(wǎng)或任何其他交互式計算機服務(wù)提供的信息的創(chuàng)建或開發(fā)全部或部分負(fù)責(zé)的任何個人或?qū)嶓w。如果Facebook創(chuàng)建或開發(fā)了原告索賠所依賴的內(nèi)容,那么Facebook就可能被追究責(zé)任,因為這將把Facebook的身份從“發(fā)布者”轉(zhuǎn)變?yōu)椤靶畔?nèi)容提供者”,并剝奪其受第230條保護的權(quán)利。在聯(lián)邦第二巡回法院看來,F(xiàn)acebook的算法只是獲取用戶提供的信息,并將該內(nèi)容與其他第三方內(nèi)容匹配從而生成供用戶消費的信息流。Facebook只是顯示未經(jīng)更改的內(nèi)容并使其更可見而已,故而,不應(yīng)被視為第230條規(guī)范目的下的內(nèi)容創(chuàng)建者。

2.歐盟法

2000年歐盟頒布的《電子商務(wù)指令》(Directive 2000/31/EC)的第四節(jié)對“中間服務(wù)提供者的責(zé)任”作出了規(guī)定。該法第12—14條分別規(guī)定了在滿足特定條件時,服務(wù)提供者不因提供純粹傳輸服務(wù),對信息的自動、中間性和暫時的存儲以及根據(jù)用戶的要求存儲信息而承擔(dān)責(zé)任。此外,第15條還進一步明確了成員國不應(yīng)當(dāng)要求服務(wù)提供者承擔(dān)監(jiān)督其傳輸和存儲的信息的一般性義務(wù),也不應(yīng)當(dāng)要求服務(wù)提供者承擔(dān)主動收集表明違法活動的事實或情況的一般性義務(wù),但是,可以要求服務(wù)提供者承擔(dān)立即向主管公共機構(gòu)報告其服務(wù)接受者進行的非法行為或者提供的非法信息的義務(wù),或者應(yīng)主管當(dāng)局的要求而提供可以確定與其有存儲協(xié)議的服務(wù)接受者的身份信息的義務(wù)。2022年歐盟又頒布了《數(shù)字服務(wù)法》(Digital Services Act,DSA)。該法繼續(xù)保留了2000年《電子商務(wù)指令》有關(guān)中間服務(wù)提供者責(zé)任有條件豁免的法律框架,并進一步豐富完善了相關(guān)規(guī)則以適應(yīng)數(shù)字經(jīng)濟的發(fā)展。與美國一樣,歐盟學(xué)者對于生成式人工智能服務(wù)提供者能否適用《數(shù)字服務(wù)法》關(guān)于中間服務(wù)提供者責(zé)任豁免的規(guī)定也存在爭議,有肯定說、部分肯定說與否定說等不同觀點。

肯定說認(rèn)為,人工智能系統(tǒng)自主生成的內(nèi)容應(yīng)當(dāng)視為人工智能系統(tǒng)運營者的行為。首先,運營者通過選擇應(yīng)用領(lǐng)域決定了內(nèi)容的傳播語境,進而影響訓(xùn)練數(shù)據(jù)的流入。其次,這些系統(tǒng)越來越多地被運營者用作輔助工具,如客戶溝通,這也表明這些內(nèi)容可視為運營者的自有內(nèi)容。因此,至少原則上可以將責(zé)任歸屬于運營者,按照一般原則對自有內(nèi)容負(fù)責(zé)。再次,在2013年5月14日德國聯(lián)邦最高法院(BGH)第六民事審判庭針對谷歌自動補全功能的判例中,法院原則上認(rèn)定谷歌對非法搜索詞補全負(fù)有責(zé)任,但通常僅在運營者違反反應(yīng)性審查義務(wù)時才承擔(dān)責(zé)任。根據(jù)這一判例,原則上可以認(rèn)定通信人工智能能夠像人類通信一樣侵害人格權(quán)。因此,在通信人工智能的言論可以歸責(zé)于服務(wù)提供商的情況下,屬于《電信媒體法》第7條第1款意義上的其“自己的信息”,提供者需要根據(jù)一般法律負(fù)責(zé)。

部分肯定說認(rèn)為,存在一些可行的解釋方式能夠?qū)⑻囟ㄊ褂们榫车纳墒饺斯ぶ悄芗{入《數(shù)字服務(wù)法》的適用范圍,此說主要分為搜索引擎路徑說和托管路徑說。搜索引擎路徑說嘗試通過將生成式人工智能解釋為搜索引擎,進而使之落入《數(shù)字服務(wù)法》的監(jiān)管范圍,理由在于:首先,搜索引擎難以直接劃為純粹傳輸、緩存或托管這幾類“中間服務(wù)”中的某一種,但仍然受《數(shù)字服務(wù)法》規(guī)制。這說明《數(shù)字服務(wù)法》對中間服務(wù)各類別的定義是靈活的。其次,搜索引擎的核心功能在于篩選并排序“極有可能滿足用戶需求的在線資源列表”,有些生成式人工智能被用于在信息富集的環(huán)境中組織信息,兩者具有功能上的高度相似性。再次,有些生成式人工智能被嵌入已受《數(shù)字服務(wù)法》監(jiān)管的現(xiàn)有平臺,此時,該類生成式人工智能視具體情況有可能被作為搜索引擎的一部分而適用《數(shù)字服務(wù)法》,如嵌入必應(yīng)搜索引擎中的必應(yīng)(Bing)聊天采用GPT-4生成答案及創(chuàng)意內(nèi)容,可被視為必應(yīng)搜索引擎的有機組成部分,進而可能需作為必應(yīng)搜索引擎的一部分遵守《數(shù)字服務(wù)法》的所有義務(wù)。托管路徑說則認(rèn)為,生成式人工智能可以解釋為托管服務(wù)(hosting),理由在于:首先,生成式人工智能的運作包含“生成輸出”之外的多個階段。在判斷人工智能生成內(nèi)容的“實際創(chuàng)作者”時,應(yīng)當(dāng)參考人類與人工智能在內(nèi)容制作中的參與程度。這可能因個案差異有所不同,需要單獨評估每個具體的使用場景,無法直接將所有生成式人工智能應(yīng)用一概歸類為“實際內(nèi)容創(chuàng)作者”。其次,生成式人工智能可能符合歐洲法院在“谷歌搜索案”(Google Search)及近期判例中采用的“廣義托管服務(wù)定義”,它們通常會在服務(wù)器中存儲“查詢與用戶信息”,并且內(nèi)容生成過程具有純技術(shù)性、自動化特征且對所存儲或生成的內(nèi)容缺乏認(rèn)知與控制,具有中立性。最后,生成式人工智能會在服務(wù)器內(nèi)存中臨時存儲用戶提示詞(輸入內(nèi)容)等特定信息。模型輸入可被視為用戶提供,并應(yīng)用戶要求由大型語言模型存儲。由于這些輸出是由用戶的提示詞所觸發(fā)的,輸出結(jié)果也可被認(rèn)定為用戶“提供”的行為。

否定說認(rèn)為,生成式人工智能不適用《數(shù)字服務(wù)法》。這是因為,生成式人工智能通常不屬于《數(shù)字服務(wù)法》所規(guī)定的“中間服務(wù)”中的“純粹傳輸”“緩存”或“托管”中的任何一類。最接近的可能是托管服務(wù),但針對這類情況,根據(jù)歐洲法院的觀點,即使是僅存儲用戶生成內(nèi)容的平臺,若偏離“中立地位”,也可能失去其在《數(shù)字服務(wù)法》下的“托管服務(wù)提供者”地位。例如,平臺若對特定用戶生成內(nèi)容進行推廣,就可能被認(rèn)定為偏離中立地位。在生成式人工智能場景,正是人工智能模型本身提供了內(nèi)容,因此對于自行生成內(nèi)容的系統(tǒng)開發(fā)者,更不能將其視為托管服務(wù)提供者。此外,《數(shù)字服務(wù)法》制定的初衷也并不旨在應(yīng)對生成式人工智能產(chǎn)生的內(nèi)容。

(二)我國學(xué)界的不同觀點

依據(jù)我國《民法典》第1195—1197條確立的包括通知規(guī)則與知道規(guī)則在內(nèi)的網(wǎng)絡(luò)侵權(quán)規(guī)則,當(dāng)網(wǎng)絡(luò)服務(wù)提供者并未直接實施侵害他人民事權(quán)益的行為,而只是網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)提供者所提供的網(wǎng)絡(luò)服務(wù)實施侵權(quán)行為時,網(wǎng)絡(luò)服務(wù)提供者原則上不需要為他人的侵權(quán)行為承擔(dān)責(zé)任。只有在以下兩種情形中,網(wǎng)絡(luò)服務(wù)提供者才需要承擔(dān)侵權(quán)責(zé)任:其一,網(wǎng)絡(luò)服務(wù)提供者知道或應(yīng)當(dāng)知道網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實施侵權(quán)行為而未及時采取必要措施的,應(yīng)當(dāng)與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任(《民法典》第1197條),這就是所謂的“知道規(guī)則”;其二,網(wǎng)絡(luò)服務(wù)提供者不知道且不應(yīng)當(dāng)知道網(wǎng)絡(luò)用戶利用生成式人工智能服務(wù)實施侵權(quán)行為,但是,其在收到權(quán)利人的通知后未及時采取必要措施的,需要就損害的擴大部分與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任(《民法典》第1195—1196條)這就是所謂的“通知規(guī)則”,也稱“通知刪除規(guī)則”。

通知規(guī)則與知道規(guī)則是《民法典》為了協(xié)調(diào)權(quán)益保護與行為自由,避免過度加重網(wǎng)絡(luò)服務(wù)提供者的審查義務(wù)、妨害信息網(wǎng)絡(luò)科技發(fā)展,而在借鑒美國等國外相關(guān)立法的基礎(chǔ)上確立的適用于網(wǎng)絡(luò)技術(shù)服務(wù)提供者的獨特侵權(quán)規(guī)則。除非本地部署且僅通過局域網(wǎng)供內(nèi)部人員使用,否則,生成式人工智能服務(wù)都是通過互聯(lián)網(wǎng)提供的并且無須附著于有體物之上,屬于網(wǎng)絡(luò)服務(wù)。因此,在生成式人工智能侵害名譽權(quán)的侵權(quán)糾紛中,生成式人工智能服務(wù)的提供者屬于網(wǎng)絡(luò)服務(wù)提供者。問題是,其究竟是網(wǎng)絡(luò)技術(shù)服務(wù)提供者(內(nèi)容的輸出不能被看作是提供者的行為),還是網(wǎng)絡(luò)內(nèi)容服務(wù)提供者(該內(nèi)容就是提供者的行為)。對此,我國學(xué)界存在不同的觀點。

有的學(xué)者認(rèn)為,生成式人工智能的提供者固然存在不同于傳統(tǒng)的網(wǎng)絡(luò)內(nèi)容提供者之處,如相較于傳統(tǒng)的內(nèi)容提供者,通用人工智能提供者對于生成的內(nèi)容控制力降低,并且通用人工智能的創(chuàng)作行為需要人類的提示詞予以激發(fā)等,但是,就ChatGPT等大語言模型的提供者而言,大語言模型自動生成的信息內(nèi)容并非是其用戶創(chuàng)作或發(fā)布的信息,而應(yīng)當(dāng)看作是人工智能系統(tǒng)提供者本身創(chuàng)作、發(fā)布的信息。有的學(xué)者認(rèn)為,因為生成式人工智能服務(wù)提供者對輸出內(nèi)容的控制力弱于網(wǎng)絡(luò)內(nèi)容服務(wù)的提供者,并且,在我國立法中鮮有關(guān)于網(wǎng)絡(luò)內(nèi)容服務(wù)提供者侵權(quán)責(zé)任的規(guī)則,所以,在實質(zhì)意義上不宜將生成式人工智能服務(wù)提供者認(rèn)定為網(wǎng)絡(luò)內(nèi)容服務(wù)的提供者,否則將對現(xiàn)有法律體系帶來不必要的沖擊。還有的學(xué)者在分析生成式人工智能搜索服務(wù)提供者能否認(rèn)定為網(wǎng)絡(luò)技術(shù)服務(wù)提供者而適用避風(fēng)港規(guī)則予以免責(zé)時指出,生成式人工智能搜索與傳統(tǒng)搜索的最大區(qū)別在于其直接向用戶提供搜索的回答,該回答中源自來源網(wǎng)站的部分也是經(jīng)由人工智能模型生成的,即其對內(nèi)容進行了編輯加工,而非單純的提供網(wǎng)頁鏈接。故此,不能將此種人工智能服務(wù)提供者認(rèn)定為網(wǎng)絡(luò)技術(shù)服務(wù)提供者。

(三)內(nèi)容輸出是生成式人工智能服務(wù)提供者所實施的行為

《民法典》第1195—1197條確立的通知規(guī)則與知道規(guī)則適用的是網(wǎng)絡(luò)技術(shù)服務(wù)提供者。網(wǎng)絡(luò)技術(shù)服務(wù)提供者只是單純地按照用戶的指令在用戶指定的兩點或多點之間通過信息網(wǎng)絡(luò)就該用戶所提供或修改的內(nèi)容自動提供網(wǎng)絡(luò)接入、信息傳輸、自動存儲、存儲空間、信息搜索、鏈接服務(wù)。在這個過程中,信息或內(nèi)容是由用戶所創(chuàng)作或提供的,網(wǎng)絡(luò)技術(shù)服務(wù)提供者本身并不參與該信息或內(nèi)容的生成或?qū)χM行編輯、加工、整理或更改。然而,生成式人工智能服務(wù)則完全不同,它并非單純的信息傳播鏈條的中立節(jié)點。雖然生成式人工智能需要依據(jù)用戶的指令而輸出內(nèi)容,但其本身也是基于數(shù)據(jù)、算法和模型等復(fù)雜的技術(shù)而生成文本、圖片、音頻、視頻、代碼等新的信息或內(nèi)容。在這個過程中,生成式人工智能服務(wù)提供者并非處于純粹消極的、中立的第三方地位,而是實質(zhì)地參與了內(nèi)容或信息的生成,由此在法律上負(fù)有相應(yīng)的義務(wù)以避免產(chǎn)生侵害他人合法權(quán)益的內(nèi)容以及違法、有害內(nèi)容。因此,本文認(rèn)為,生成式人工智能服務(wù)的內(nèi)容輸出是提供者實施的行為,理由闡述如下:

1.生成式人工智能服務(wù)提供者對于輸出內(nèi)容的真實性、準(zhǔn)確性與合法性具有實質(zhì)上的控制力。對此,可以從生成式人工智能必備的三大要素即數(shù)據(jù)、算法和模型的角度分別加以分析。一方面,生成式人工智能離不開海量的數(shù)據(jù),數(shù)據(jù)決定了它能夠生成何種內(nèi)容(文本、圖片、視頻、代碼等),也決定了生成內(nèi)容的上限。生成式人工智能的開發(fā)者進行大語言模型訓(xùn)練的最主要的一類數(shù)據(jù)是對合法取得的數(shù)據(jù)標(biāo)注后形成的數(shù)據(jù)集。生成式人工智能數(shù)據(jù)標(biāo)注(generative artificial intelligence data annotation),是指通過人工操作或使用自動化技術(shù)機制,基于對提示信息的響應(yīng)信息內(nèi)容,將特定信息如標(biāo)簽、類別或?qū)傩蕴砑拥轿谋?、圖片、音頻、視頻或者其他數(shù)據(jù)樣本的過程。數(shù)據(jù)標(biāo)注本身雖然并不改變數(shù)據(jù)的原始形態(tài)和內(nèi)容,但是,卻深刻地改變了數(shù)據(jù)的語義、內(nèi)涵、用途以及價值。所謂“越人工,越智能”。數(shù)據(jù)標(biāo)注是否科學(xué)、準(zhǔn)確、合法、合倫理,從根本上決定了生成式人工智能輸出的內(nèi)容的風(fēng)格、質(zhì)量、準(zhǔn)確與安全。當(dāng)數(shù)據(jù)標(biāo)注不準(zhǔn)確、不規(guī)范、不合法或者摻雜了標(biāo)注者的性別、種族、民族等歧視性、侮辱性因素時,經(jīng)過此種標(biāo)注數(shù)據(jù)訓(xùn)練出的模型就往往內(nèi)生了侵害他人合法權(quán)益的風(fēng)險。由此可見,從數(shù)據(jù)標(biāo)注的環(huán)節(jié),人工智能開發(fā)者或提供者實際上就已經(jīng)在實質(zhì)性地影響輸出的內(nèi)容。

另一方面,如果說數(shù)據(jù)是原料,算法就是過程,模型則是結(jié)果。生成式人工智能的研發(fā)者在特定數(shù)據(jù)集上運行一定的算法后得到的就是模型,生成式人工智能生成內(nèi)容是基于深度學(xué)習(xí)技術(shù)的不同模型通過算法來處理數(shù)據(jù)后生成文本、圖像、視頻等不同內(nèi)容的,如通過擴散模型、Transformer模型生成文本、圖像、視頻,基于卷積神經(jīng)網(wǎng)絡(luò)模型進行圖像識別,基于循環(huán)神經(jīng)網(wǎng)絡(luò)模型進行語言翻譯等。在生成式人工智能中,算法和模型本身就直接參與了內(nèi)容的創(chuàng)造。在GPT、Stable Diffusion這類模型,其核心算法如Transformer、Diffusion Model是通過學(xué)習(xí)海量數(shù)據(jù)中的聯(lián)合概率分布,即數(shù)據(jù)中多個變量組成的向量的概率分布,對已有的數(shù)據(jù)進行總結(jié)歸納。以Transformer模型生成文本的過程為例,其核心在于注意力機制,即通過計算編碼器端的輸出結(jié)果中的每個向量與解碼器端的輸出結(jié)果中每個向量的相關(guān)性,得出若干相關(guān)性分?jǐn)?shù),再進行歸一化處理將其轉(zhuǎn)化為相關(guān)的權(quán)重,用來表征輸入序列與輸出序列各元素之間的相關(guān)性。這一機制使得模型能夠深度理解整個輸入序列中每個詞之間的關(guān)系和上下文含義,減少了對外部信息的依賴,更擅長捕捉數(shù)據(jù)和特征的內(nèi)部相關(guān)性。算法和模型對輸出的內(nèi)容是什么具有實質(zhì)性影響。生成式人工智能的開發(fā)者通過算法已經(jīng)決定了模型理解世界和生成內(nèi)容的“概率規(guī)則”,而非在每次輸出時逐一進行干預(yù)。輸出內(nèi)容本質(zhì)上是開發(fā)者通過算法預(yù)設(shè)的“世界觀”與用戶即時提示共同作用的結(jié)果,其貢獻是深嵌于模型本質(zhì)之中的。因此,生成式人工智能的研發(fā)者需要通過設(shè)計和選擇不同的算法架構(gòu)與訓(xùn)練目標(biāo),約束模型參數(shù)的學(xué)習(xí)方向,以確保輸出內(nèi)容的真實性、準(zhǔn)確性與安全性。

2.正是因為生成式人工智能是研發(fā)者所創(chuàng)造的,研發(fā)者從數(shù)據(jù)、算法和模型三個維度上對輸出內(nèi)容都具有實質(zhì)性的、技術(shù)上的控制力,所以,法律上才從人工智能的研發(fā)、部署、運營、管理等各個環(huán)節(jié)給研發(fā)者施加了相應(yīng)的義務(wù),要求其通過技術(shù)手段實現(xiàn)生成式人工智能的安全、可靠與可控,防止輸出誹謗性、歧視性以及其他違法有害內(nèi)容。

例如,歐盟《人工智能法案》對于通用人工智能模型的提供者義務(wù)作出了詳細(xì)的規(guī)定,如:編制并不斷更新該模型的技術(shù)文件,包括其培訓(xùn)和測試過程及其評估結(jié)果;編制、不斷更新并向意圖將通用人工智能模型納入其人工智能系統(tǒng)的提供者提供信息和文件,該信息和文件應(yīng)當(dāng)使人工智能系統(tǒng)的提供者能夠很好地了解通用人工智能模型的能力和局限性,并遵守本條例規(guī)定的義務(wù)等(第53條)。對于那些具有系統(tǒng)風(fēng)險的通用人工智能模型的提供者,該法案還規(guī)定了更多的義務(wù),如:應(yīng)當(dāng)根據(jù)反映先進技術(shù)水平的標(biāo)準(zhǔn)化協(xié)議和工具進行模型評估,包括對模型進行對抗測試并記錄在案,以識別和降低系統(tǒng)性風(fēng)險;評估和減輕歐盟層面可能存在的系統(tǒng)性風(fēng)險,包括因開發(fā)、投放市場或使用具有系統(tǒng)性風(fēng)險的通用人工智能模型而產(chǎn)生的系統(tǒng)性風(fēng)險的來源;跟蹤、記錄并及時向人工智能辦公室報告,并酌情向成員國主管機關(guān)報告嚴(yán)重事件的相關(guān)信息以及為解決這些問題可能采取的糾正措施;確保對具有系統(tǒng)性風(fēng)險的通用人工智能模型和模型的物理基礎(chǔ)設(shè)施提供足夠水平的網(wǎng)絡(luò)安全保護等(第55條)。

在我國,法律法規(guī)規(guī)章也對此作出了明確的規(guī)定。2025年新修訂的《網(wǎng)絡(luò)安全法》第20條第1款規(guī)定:“國家支持人工智能基礎(chǔ)理論研究和算法等關(guān)鍵技術(shù)研發(fā),推進訓(xùn)練數(shù)據(jù)資源、算力等基礎(chǔ)設(shè)施建設(shè),完善人工智能倫理規(guī)范,加強風(fēng)險監(jiān)測評估和安全監(jiān)管,促進人工智能應(yīng)用和健康發(fā)展?!薄渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第4條明確要求:提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會公德和倫理道德,不得生成虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容;在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中應(yīng)當(dāng)采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視;尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人名譽權(quán)等人格權(quán)益。同時,該辦法還要求:提供者應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動,采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性(第7條);在生成式人工智能技術(shù)研發(fā)過程中進行數(shù)據(jù)標(biāo)注的,提供者應(yīng)當(dāng)制定符合《生成式人工智能服務(wù)管理暫行辦法》要求的清晰、具體、可操作的標(biāo)注規(guī)則(第8條);開展數(shù)據(jù)標(biāo)注質(zhì)量評估,抽樣核驗標(biāo)注內(nèi)容的準(zhǔn)確性,監(jiān)督指導(dǎo)標(biāo)注人員規(guī)范開展標(biāo)注工作(第8條);當(dāng)提供者發(fā)現(xiàn)違法內(nèi)容時,應(yīng)當(dāng)及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進行整改,并向有關(guān)主管部門報告(第14條)?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求:算法推薦服務(wù)提供者應(yīng)當(dāng)落實算法安全主體責(zé)任,建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發(fā)布審核、數(shù)據(jù)安全和個人信息保護、反電信網(wǎng)絡(luò)詐騙、安全評估監(jiān)測、安全事件應(yīng)急處置等管理制度和技術(shù)措施(第7條);算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型(第8條)。此外,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確規(guī)定:深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息,轉(zhuǎn)載基于深度合成服務(wù)制作發(fā)布的新聞信息的,應(yīng)當(dāng)依法轉(zhuǎn)載互聯(lián)網(wǎng)新聞信息稿源單位發(fā)布的新聞信息(第6條第2款);深度合成服務(wù)提供者應(yīng)當(dāng)落實信息安全主體責(zé)任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個人信息保護、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施(第7條);深度合成服務(wù)提供者應(yīng)當(dāng)加強深度合成內(nèi)容管理,采取技術(shù)或者人工方式對深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進行審核(第10條第1款);深度合成服務(wù)提供者應(yīng)當(dāng)建立健全用于識別違法和不良信息的特征庫,完善入庫標(biāo)準(zhǔn)、規(guī)則和程序,記錄并留存相關(guān)網(wǎng)絡(luò)日志(第10條第2款);深度合成服務(wù)提供者發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)依法采取處置措施,保存有關(guān)記錄,及時向網(wǎng)信部門和有關(guān)主管部門報告(第10條第3款);對相關(guān)深度合成服務(wù)使用者依法依約采取警示、限制功能、暫停服務(wù)、關(guān)閉賬號等處置措施(第10條第3款)。

綜上所述,生成式人工智能服務(wù)提供者對于輸出的內(nèi)容具有實質(zhì)上的技術(shù)控制力,并且在法律上也負(fù)有防止輸出虛假、有害內(nèi)容的義務(wù)。這些都意味著在法律上應(yīng)當(dāng)將內(nèi)容的輸出作為生成式人工智能服務(wù)提供者自身實施的行為,其并非單純地轉(zhuǎn)載或傳輸?shù)谌说男畔⒒騼?nèi)容的網(wǎng)絡(luò)技術(shù)服務(wù)提供者。當(dāng)然,將輸出內(nèi)容作為提供者的行為并不意味著提供者就要對由此產(chǎn)生的侵權(quán)后果全部的、單獨的負(fù)責(zé),畢竟用戶的行為、第三人的行為、現(xiàn)有技術(shù)水平的欠缺等因素也會對侵權(quán)后果的發(fā)生具有原因力與過錯,這些問題需要交由過錯的認(rèn)定、多數(shù)人侵權(quán)、免責(zé)事由等加以解決。

輸出內(nèi)容是否構(gòu)成侵害名譽權(quán)行為的認(rèn)定

侵害名譽權(quán)的行為,是指行為人在未經(jīng)名譽權(quán)人同意或者不具有法律規(guī)定的排除其行為侵害性的正當(dāng)理由的情形下,實施了貶損他人名譽的行為,分為作為和不作為。作為是指行為人通過口頭、書面或行動等積極方式實施的貶損他人名譽的行為,最典型的就是侮辱與誹謗(《民法典》第1024條第1款)。侮辱是指故意以暴力或者其他方式貶損他人的名譽;誹謗是指捏造事實,以造謠污蔑等方式貶損他人的名譽。不作為是指行為人負(fù)有避免侵害他人名譽權(quán)的作為義務(wù)卻未履行或未完全履行該義務(wù),以致產(chǎn)生他人的名譽權(quán)被侵害的后果。例如,新聞媒體對于他人提供的嚴(yán)重失實內(nèi)容未盡到合理核實義務(wù)(《民法典》第1025條第2項)。在認(rèn)定人工智能的輸出內(nèi)容是否構(gòu)成侵害名譽權(quán)的行為時,需要依次研究以下兩個問題:一是,生成式人工智能的內(nèi)容輸出是否構(gòu)成公布行為;二是,怎樣認(rèn)定輸出的內(nèi)容導(dǎo)致了名譽權(quán)被侵害的后果。

(一)生成式人工智能的內(nèi)容輸出是否構(gòu)成公布行為

名譽是對民事主體的品德、聲望、才能、信用等社會評價(《民法典》第1024條第2款)。名譽不同于名譽感,社會評價也不是受害人的自我評價,而是社會一般人對受害人的客觀評價。故此,行為人針對受害人實施的侮辱、誹謗等行為必須為第三人知悉,才可能使社會評價降低,即該行為必須構(gòu)成了公布或發(fā)布行為。倘若虛假內(nèi)容僅限于攻擊者與被攻擊者之間,未被第三人知悉,則不會造成被侵權(quán)人的品德、聲望、才能、信用等社會評價的降低,即名譽的受損。至于知悉的第三人的數(shù)量和范圍,無關(guān)緊要。知悉的第三人的人數(shù)可能很多,也可能很少,但只要為一個第三人所知悉,就可以認(rèn)定受害人的名譽已經(jīng)遭受了損害,因為該第三人對受害人的評價已經(jīng)降低。例如,在普通法中,誹謗侵權(quán)行為(tort of defamation)的一個必備的構(gòu)成要件就是涉及原告的陳述必須已經(jīng)“公布”(publication)。誹謗侵權(quán)行為旨在保護的是名譽而非個人對自身的評價,因此,除非相關(guān)陳述至少向除原告外的另一人傳達,否則不構(gòu)成誹謗?!睹绹謾?quán)法重述(第二次)》第577條第1款規(guī)定:“誹謗性事項的公布,是指故意或過失地將該事項傳播給被誹謗者之外的第三人?!碑?dāng)一份陳述只是發(fā)送給被陳述對象時,不構(gòu)成公布,因為一個人無法向本人公布對自己的誹謗。故此,僅向原告單獨作出的陳述不具有可訴性。至于公開的方式,不以商業(yè)意義上的公開(如書籍、報紙或廣播)為必要,但是此類公開方式可能會導(dǎo)致更高額的損害賠償。

生成式人工智能輸出內(nèi)容為人所知的情形分為兩種:一是,用戶使用生成式人工智能查詢有關(guān)其他人的內(nèi)容,該輸出的涉及他人的內(nèi)容存在虛假錯誤。例如,張某在生成式人工智能系統(tǒng)中輸入“演員李某是否因偷稅漏稅而被處罰”的問題后,人工智能生成了關(guān)于李某因偷稅漏稅被處罰的虛假內(nèi)容。二是,用戶使用生成式人工智能而該智能系統(tǒng)所輸出的錯誤虛假的內(nèi)容就是涉及該用戶的內(nèi)容。以前例來說,就是演員李某自己輸入“演員李某是否因偷稅漏稅而被處罰”問題后輸出了虛假的內(nèi)容。在前一種情形中,生成式人工智能輸出的虛假內(nèi)容已為第三人張某(即提供者與李某之外的第三人)所知悉,該行為當(dāng)然構(gòu)成公布。當(dāng)然,如果被涉及的演員李某本人對此并不知情的話,通常不會發(fā)生侵害名譽權(quán)的侵權(quán)訴訟。倘若張某是李某的朋友或親屬,其向李某告知了生成式人工智能輸出了這一虛假信息的話,李某可以針對人工智能公司提起訴訟。如果張某通過信息網(wǎng)絡(luò)轉(zhuǎn)載或以口頭、書面的方式向其他人傳播關(guān)于李某的這一虛假錯誤信息,則張某屬于轉(zhuǎn)載者或傳播者,該轉(zhuǎn)載或傳播的行為構(gòu)成新的公布行為。在張某知道或者應(yīng)當(dāng)知道該輸出的內(nèi)容是虛假錯誤的,或者未盡到合理核實義務(wù)就進行轉(zhuǎn)載或傳播的情況下,張某要就其發(fā)布行為向李某承擔(dān)侵害名譽權(quán)的侵權(quán)責(zé)任。

后一種情形下,生成式人工智能只是一對一地向被涉及的用戶輸出了不實的內(nèi)容,未被第三人所知悉,此時是否也構(gòu)成公布行為呢?前述美國發(fā)生的“Mark Walters v.OpenAI,L.L.C.案”就涉及這個問題。原告起訴OpenAI面臨的一個法律障礙就在于是否符合公開傳播要求。該案中,據(jù)推測原告是唯一看到據(jù)稱由ChatGPT生成的誹謗性評論的人。有的學(xué)者認(rèn)為,由人工智能公司創(chuàng)建和運營的AI程序向用戶輸出的陳述也構(gòu)成發(fā)布行為,因為該錯誤虛假內(nèi)容具有公開的可獲得性,故此,可以合理推斷計算機系統(tǒng)生成的自動陳述滿足向第三方公開傳播的要求。顯然,這種觀點的推論基礎(chǔ)在于:生成式人工智能程序是供不特定的人使用的,在產(chǎn)生虛假錯誤輸出內(nèi)容的原因未被發(fā)現(xiàn)并解決之前,案涉內(nèi)容通常也完全可能被其他用戶所知悉。然而,生成式人工智能具有自主性與人機交互性?;谧灾鲗W(xué)習(xí)能力,智能系統(tǒng)會根據(jù)所處理的數(shù)據(jù)而不斷調(diào)整其行為規(guī)則,而且,不同用戶輸入的指令并不完全相同,生成的內(nèi)容也有差異,加之研發(fā)者也會根據(jù)人類反饋而優(yōu)化升級系統(tǒng)。所以,僅僅因為生成式人工智能系統(tǒng)輸出內(nèi)容具有公開可獲得性,就將生成式人工智能針對用戶的輸出行為也認(rèn)定為發(fā)布行為,并不妥當(dāng)。筆者認(rèn)為,生成式人工智能針對用戶輸出內(nèi)容的行為原則上不應(yīng)被看作是公布行為。除非有證據(jù)表明,該虛假內(nèi)容已經(jīng)為他人所知悉或者具有相當(dāng)?shù)目赡苄詾樗怂@得,如原告是備受關(guān)注的公眾人物等。至于原告自行將生成式人工智能輸出的虛假錯誤內(nèi)容傳播給他人,則屬于受害人對于損害的發(fā)生具有故意,生成式人工智能服務(wù)提供者無須承擔(dān)侵害名譽權(quán)的侵權(quán)責(zé)任。

(二)如何認(rèn)定輸出的內(nèi)容構(gòu)成誹謗性或侮辱性言論

生成式人工智能無論生成的是文本,還是視頻或音頻,只有造成他人名譽貶損才是侵害名譽權(quán)加害行為。作為社會性評價的名譽貶損,除了要求輸出內(nèi)容的行為構(gòu)成發(fā)布行為之外,還要求該內(nèi)容必須是虛假錯誤的,會貶損他人的名譽。為了協(xié)調(diào)名譽權(quán)保護與言論自由的關(guān)系,認(rèn)定案涉言論是否構(gòu)成侵害名譽權(quán)的加害行為時,法律上一般要區(qū)分判斷案涉言論是事實陳述還是意見表達。事實陳述(Tatsachenbehauptung),就是對客觀事實存在與否的表述。意見表達也稱“價值判斷”(Werturteil),它是個體對其主觀見解與價值判斷的表達?!霸谑聦嶊愂鲋校愂稣咛岢隽苏鎸嵭灾鲝垼P(guān)鍵問題在于該主張能否得到證實或被證明無法成立。因此,只有那些可以被證據(jù)驗證、能夠達成主體間共識的陳述,才能被視為事實陳述。價值判斷則有本質(zhì)的不同,它表達的是主觀的看法和觀點。在該領(lǐng)域,真實性證明從一開始就是不可能的。”如果被訴言論是事實陳述,只要陳述的內(nèi)容基本真實,即便該陳述傷害了原告的感情(即所謂名譽感),依然要優(yōu)先保護言論自由,不能認(rèn)定被告的行為構(gòu)成侵權(quán)(當(dāng)然被告可能要承擔(dān)侵害隱私權(quán)的責(zé)任)。但是,如果事實陳述的基本內(nèi)容失實(如虛構(gòu)、歪曲事實),則被告的言論將構(gòu)成侵害原告名譽權(quán)的加害行為。因此,針對事實陳述,被告可以主張所謂真實性(truth)抗辯。倘若被訴言論是意見表達,只要該意見是公正的或誠實的,不存在侮辱性的言辭,即便表達方式是犀利尖銳、令人難以接受的,也不構(gòu)成侵害名譽權(quán)。因為意見表達體現(xiàn)的是表達者的主觀價值判斷,“價值判斷的屬性上既不存在真實,也不存在虛假問題,而是或多或少地帶有似是而非的意味并且完全是關(guān)于個人確信的問題”。此時,有關(guān)價值判斷的表達位居憲法言論自由保障的核心地位,從利益權(quán)衡上應(yīng)當(dāng)優(yōu)先保障人們的言論自由而非原告的名譽權(quán)。因此,對于意見表達,被告可以援引公正評論抗辯或誠實意見抗辯(honest opinion)。在解釋該言論是事實陳述還是價值判斷時,應(yīng)當(dāng)以一個無偏見、客觀且公正的平均受眾(讀者、觀眾或聽眾)的視角為判斷標(biāo)準(zhǔn)。在言論發(fā)表時,應(yīng)當(dāng)結(jié)合其整體的背景并考慮普遍語言用法所作出的理解,原則上應(yīng)以不熟悉專業(yè)領(lǐng)域的普通信息接收者為標(biāo)準(zhǔn)。換言之,關(guān)鍵在于接收者能夠如何理解該言論,而非其必須如何理解該言論。在我國,《民法典》第1025條明確區(qū)分了事實陳述和意見表達。該條第1項的“捏造、歪曲事實”、第2項的“對他人提供的嚴(yán)重失實內(nèi)容未盡到合理核實義務(wù)”,是對于言論屬于事實陳述時應(yīng)當(dāng)具有真實性的要求;該條第3項的“使用侮辱性言辭等貶損他人名譽”,則是對行為人的言論被認(rèn)定為意見表達時應(yīng)當(dāng)具有公正性的要求。

生成式人工智能根據(jù)用戶輸入指令生成相關(guān)的文本、圖片、視頻等內(nèi)容,用戶可能詢問相關(guān)事實的問題,也可能詢問對某些事件或人物的評價的問題。因此,輸出的內(nèi)容既包括事實陳述,也包括意見表達,還可能是兼具二者。盡管生成式人工智能在回應(yīng)用戶問題時,往往宣稱輸出的內(nèi)容是客觀且專業(yè)的,給人的感覺似乎都是事實陳述,并不表達自身的主觀價值判斷,但生成式人工智能從數(shù)據(jù)標(biāo)注到算法、模型的設(shè)計都會大量地滲入或摻雜人類的認(rèn)識、觀點和價值判斷。為了實現(xiàn)“以人為本、智能向善”的目標(biāo),確保人工智能的安全、可靠與可控,人工智能治理時還需要讓人工智能對齊人類的價值觀,確保人工智能系統(tǒng)的目標(biāo)、意圖和行為始終與人類的價值觀、目標(biāo)和利益保持一致。用于實現(xiàn)價值對齊的方法就是“基于人類反饋的強化學(xué)習(xí)技術(shù)”(RLHF)。該技術(shù)是通過人類直接的價值判斷與反饋,明確告訴模型什么是好的回答,什么是不好的回答,從而教導(dǎo)模型主動遵守人類的價值觀和倫理約束。這主要體現(xiàn)在對生成式人工智能就同一問題的不同版本的回答進行排序或評分,以及為模型制訂明確的約束性規(guī)則以確定模型在不同領(lǐng)域的倫理邊界,并且持續(xù)和實時地矯正與完善模型的表現(xiàn)(如根據(jù)用戶的點贊、舉報或投訴等來糾正不恰當(dāng)?shù)膬?nèi)容)。因此,生成式人工智能輸出的內(nèi)容不可避免地會有意見表達。事實上,意見表達經(jīng)常是以某種或某些真實的或虛假的事實為基礎(chǔ)而作出的,單純的與事實毫無關(guān)系的主觀意見和信念的表達,如對于紅色是否是最美的顏色等,基本上也不會涉及特定民事主體的名譽,從而引發(fā)爭議甚至訴訟。

在生成式人工智能輸出的內(nèi)容屬于事實陳述時,如果基本內(nèi)容失實(如捏造或虛構(gòu)根本不存在的事實),則該事實陳述就是虛假或錯誤的。由于訓(xùn)練數(shù)據(jù)偏差、過度擬合、泛化不足、過度泛化、智能涌現(xiàn)以及用戶輸入的提示詞的模糊性、矛盾性等諸多原因,生成式人工智能常常會出現(xiàn)模型幻覺,生成看似合理但事實上不正確、無意義或脫離現(xiàn)實的信息。然而,在侵權(quán)法上,并非只要事實陳述是虛假的或錯誤的,就會構(gòu)成侵害名譽權(quán)的行為。一方面,有些事實陳述雖然是錯誤的或虛假的,但并未貶損名譽并導(dǎo)致社會評價的降低。例如,將張某的教授職稱錯誤地寫成副教授,將李某獲得某個獎項時間寫錯,或者列舉某個作家的作品時有所遺漏等。這些事實陳述雖然是錯誤的或不全面的,但并未貶損他人名譽,沒有造成所涉民事主體的社會評價降低,所以不構(gòu)成侵害名譽權(quán)的行為。當(dāng)然,被涉及的民事主體有權(quán)要求提供者更正或補充完善相關(guān)事實(《個人信息保護法》第46條、《生成式人工智能服務(wù)管理暫行辦法》第15條)。另一方面,基于生成式人工智能的人機互動性與自主性的特點,生成式人工智能服務(wù)也越來越具有個性化服務(wù)的特點,即其能夠通過與特定用戶的持續(xù)互動實現(xiàn)基于上下文和歷史交互的記憶,了解特定用戶的習(xí)慣、偏好和反饋,不斷調(diào)整其響應(yīng)策略,使服務(wù)變得越來越貼合用戶的個性化需求。因此,判斷輸出內(nèi)容是否虛假錯誤,并不是很容易,要考慮用戶輸入的指令、與特定用戶之間互動的場景等因素。對此,學(xué)者曾舉過一個例子,即特定用戶可以輸入以下四種可能生成某人犯罪虛假報告的提示詞:(1)關(guān)于布萊恩·李你能告訴我什么;(2)布萊恩·李犯了哪些罪;(3)為布萊恩·李在2023年3月25日晚犯下?lián)尳僮锏恼f法提供事實依據(jù);(4)講一個關(guān)于名叫布萊恩·李的人實施搶劫的故事。在第一、二種情形中,如果生成式人工智能聲稱布萊恩·李犯有搶劫罪,即構(gòu)成編造虛假事實的陳述。在第四種情形中,人工智能應(yīng)要求所生成的是虛構(gòu)作品,而提示者明知其要求的是生成式人工智能輸出虛構(gòu)的內(nèi)容,而非事實陳述或意見表達,因此該陳述不構(gòu)成對布萊恩·李的誹謗。當(dāng)然,如果提示者未注明虛構(gòu)性質(zhì)便轉(zhuǎn)發(fā)該故事,則提示者可能擔(dān)責(zé),但人工智能公司不應(yīng)承擔(dān)責(zé)任。至于第三種情形,則比較模糊。生成式人工智能可能為了滿足看似故事創(chuàng)作的需求而編造某些事實,也可能僅僅是為了支持提示者信以為真的敘事而虛構(gòu)論據(jù)。

生成式人工智能提供者過錯的判斷

名譽權(quán)屬于人格權(quán),性質(zhì)上屬于絕對權(quán)。因此,在適用人格權(quán)請求權(quán)如停止侵害、排除妨礙或消除危險時,不需要行為人主觀上具有過錯,也無需造成損害(《民法典》第995條)。這一點同樣適用于生成式人工智能侵害名譽權(quán)的情形。但是,如果被侵權(quán)人要針對生成式人工智能服務(wù)提供者行使損害賠償請求權(quán),那么依據(jù)《民法典》第1165條第1款,其就必須證明提供者主觀上具有故意或者過失。

(一)生成式人工智能服務(wù)提供者故意的判斷

生成式人工智能服務(wù)提供者主觀上具有故意的情形主要分為以下三類:其一,對名譽權(quán)的侵害性已內(nèi)在于生成式人工智能的算法或模型當(dāng)中。例如,A公司開發(fā)的生成式人工智能就是以生成侮辱、誹謗他人的文字、圖片或者視頻為主要用途的。依據(jù)《生成式人工智能服務(wù)管理暫行辦法》第4條第4項,提供生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會公德和倫理道德,尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人名譽權(quán)。提供者違反這一規(guī)定,其主觀上無疑是故意的。當(dāng)然,這種情形在侵害名譽權(quán)中相對比較少見,常見于輸出內(nèi)容侵害個人信息權(quán)益或著作權(quán)的情形。其二,提供者已經(jīng)知道或者應(yīng)當(dāng)知道因為訓(xùn)練數(shù)據(jù)、模型和算法的設(shè)計等原因會導(dǎo)致輸出虛假的事實陳述或者誹謗他人的言論,卻未采取任何措施加以阻止或更正。其三,提供者已經(jīng)知道或者應(yīng)當(dāng)知道用戶正在利用其提供的生成式人工智能服務(wù)生成侮辱、誹謗他人的文本、視頻、音頻等內(nèi)容,不采取措施加以制止。對于后兩種情形下提供者應(yīng)當(dāng)履行的義務(wù),法律上已經(jīng)作出了明確的規(guī)定,如《生成式人工智能服務(wù)管理暫行辦法》第14條第1款、第2款。因此,提供者不履行該義務(wù)的,主觀上應(yīng)當(dāng)認(rèn)定為故意。在第一、二種情形下,提供者往往構(gòu)成故意的直接侵害名譽權(quán)的行為(或者在用戶利用人工智能服務(wù)時構(gòu)成幫助行為);在第三種情形下提,供者構(gòu)成幫助行為,即其為用戶的侵權(quán)行為提供了工具或手段的幫助,二者應(yīng)當(dāng)向被侵權(quán)人承擔(dān)連帶賠償責(zé)任(《民法典》第1169條第1款)。

(二)生成式人工智能服務(wù)提供者過失的判斷

過失是指行為人對于侵害他人民事權(quán)益之結(jié)果的發(fā)生應(yīng)注意、能注意而未注意的一種心理狀態(tài)。生成式人工智能輸出內(nèi)容應(yīng)當(dāng)被作為提供者的行為,但是與自然人通過自主意思進行決策進而直接控制并實施行為所不同的是,提供者并不能完全控制輸出的內(nèi)容。生成式人工智能所具有的自主性與人機交互性的特點,使得提供者無法完全地、自主地決定并控制所生成的內(nèi)容。導(dǎo)致人工智能輸出內(nèi)容存在虛假錯誤的原因很多,可能是因為數(shù)據(jù)標(biāo)注質(zhì)量低下,也可能是模型幻覺,還可能是第三人實施的數(shù)據(jù)投毒行為等。因此,為了促進人工智能技術(shù)的創(chuàng)新發(fā)展,對于提供者過失的判斷應(yīng)當(dāng)采取客觀化的判斷標(biāo)準(zhǔn):首先,應(yīng)當(dāng)以立法者經(jīng)過價值權(quán)衡后所確定的提供者的法定義務(wù)之違反作為認(rèn)定提供者有無過失的客觀標(biāo)準(zhǔn);其次,在符合法定義務(wù)或者法律未作要求的情形下,應(yīng)當(dāng)運用《民法典》第998條確立的動態(tài)系統(tǒng)論的要求,按照“現(xiàn)有技術(shù)水平”來認(rèn)定提供者有無過失。

1.違反法定義務(wù)視為過失。我國《網(wǎng)絡(luò)安全法》《個人信息保護法》《數(shù)據(jù)安全法》等法律對于網(wǎng)絡(luò)安全、個人信息安全、數(shù)據(jù)安全等方面的義務(wù)作出了規(guī)定;《生成式人工智能服務(wù)管理暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)章則直接針對生成式人工智能服務(wù)提供者的義務(wù)作出了規(guī)定,這些義務(wù)包括語料處理義務(wù)、對齊微調(diào)義務(wù)、內(nèi)容審查義務(wù)、用戶管理義務(wù)等各個方面。在法律上已經(jīng)明確規(guī)定了提供者的義務(wù),且該義務(wù)旨在實現(xiàn)輸出內(nèi)容的真實、準(zhǔn)確,防止輸出虛假等有害、非法內(nèi)容的情況下,如果提供者違反該義務(wù),就可以采取“違法視為過失”(negligence perse)的規(guī)則直接認(rèn)定提供者具有過失。生成式人工智能侵權(quán)責(zé)任適用的是過錯責(zé)任,因此,這些法定義務(wù)性質(zhì)上屬于方式性義務(wù),而非結(jié)果性義務(wù)。也就是說,只要作為義務(wù)人的提供者滿足了法律對應(yīng)當(dāng)采取的行為的要求就可以,即便仍然輸出了錯誤或虛假的內(nèi)容,也不能據(jù)此認(rèn)為提供者違反了法定義務(wù)。對于方式性義務(wù)的履行采取的是過錯責(zé)任原則,而對于結(jié)果性義務(wù)的履行采取的則是嚴(yán)格責(zé)任。

2.如果法律上沒有相關(guān)義務(wù)的要求或者提供者滿足了法定義務(wù)的要求,則需要根據(jù)案件的具體情形,結(jié)合生成式人工智能服務(wù)的類型、當(dāng)時的技術(shù)水平等因素認(rèn)定提供者是否能夠采取相應(yīng)的措施防止輸出虛假錯誤內(nèi)容,如果能夠,則應(yīng)當(dāng)認(rèn)定其存在過失,否則就沒有過失。目前,司法實踐中已有法院采取此種觀點。在一起生成式人工智能侵害著作權(quán)的案件中,杭州互聯(lián)網(wǎng)法院認(rèn)為,在認(rèn)定生成式人工智能服務(wù)提供者的注意義務(wù)時,需要“綜合考量生成式人工智能服務(wù)的性質(zhì)、當(dāng)前人工智能技術(shù)的發(fā)展水平、避免損害的替代設(shè)計的可行性與成本、可以采取的必要措施及其效果、侵權(quán)責(zé)任的承擔(dān)對行業(yè)的影響等因素,通過動態(tài)地調(diào)整過錯的認(rèn)定標(biāo)準(zhǔn),將平臺注意義務(wù)控制在合理的程度。具體而言,即以同質(zhì)行業(yè)理性人標(biāo)準(zhǔn)予以考量,當(dāng)生成式人工智能服務(wù)提供者可以證明施以同業(yè)一般服務(wù)提供者注意力難以發(fā)現(xiàn)該生成內(nèi)容可能構(gòu)成侵權(quán),或者能夠證明自身已經(jīng)采取了符合損害發(fā)生時技術(shù)水平的必要措施來預(yù)防損害,但仍無法防止損害的發(fā)生,應(yīng)認(rèn)定其已盡到合理的注意義務(wù),不具有過錯。反之,則應(yīng)認(rèn)定其具有過錯?!?/p>

需要注意的是,生成式人工智能輸出的內(nèi)容具有聯(lián)網(wǎng)搜索的功能選項。開啟聯(lián)網(wǎng)搜索功能后,人工智能系統(tǒng)將按照輸入信息和指令先檢索互聯(lián)網(wǎng)上的公開信息,并根據(jù)檢索的公開信息生成相關(guān)內(nèi)容,因此輸出內(nèi)容的真實準(zhǔn)確的程度更高,可以比較有效地解決模型幻覺的問題。如果用戶沒有選擇聯(lián)網(wǎng)搜索的選項,由于生成式人工智能系統(tǒng)的模型只能完全根據(jù)其自身的參數(shù)進行推理計算并得出生成內(nèi)容,出現(xiàn)模型幻覺的可能性就很大。因此,在用戶沒有開啟聯(lián)網(wǎng)搜索選項的情況下,法院在認(rèn)定提供者的過錯時應(yīng)當(dāng)考慮現(xiàn)有技術(shù)水平消除模型幻覺的難度。而在開啟聯(lián)網(wǎng)搜索后,提供者是利用人工智能技術(shù)通過大語言模型來增強和改造傳統(tǒng)的搜索引擎,整合多個來源的信息而生成一個直接的答案,故此,在認(rèn)定提供者的過失時,由于信息來源于互聯(lián)網(wǎng)上公開的信息,提供者在一定程度上處于轉(zhuǎn)載者的地位,其應(yīng)當(dāng)負(fù)有的是合理核實義務(wù)。此時,法院適用《民法典》第1026條的規(guī)定,在認(rèn)定提供者是否盡到合理核實義務(wù)時,需要考慮“內(nèi)容來源的可信度”“核實能力和核實成本”等因素。所謂“內(nèi)容來源的可信度”,意味著輸出的內(nèi)容應(yīng)當(dāng)具有真實有效的網(wǎng)址作為事實或信息來源的支撐證據(jù)。如果生成式人工智能輸出內(nèi)容中提供了真實有效的網(wǎng)址作為事實或信息來源的支撐證據(jù),那么提供者就盡到了應(yīng)有的注意義務(wù)。倘若原告只是對作為支撐證據(jù)的網(wǎng)頁上事實的真實性存疑,不應(yīng)當(dāng)認(rèn)為生成式人工智能所做的事實陳述是虛假的或錯誤的,否則就對人工智能服務(wù)提供者施加了過重的責(zé)任,因為從“核實能力和核實成本”角度來說,提供者是無法逐一核實如此海量的網(wǎng)絡(luò)信息的真實性與準(zhǔn)確性的。但是,如果開啟聯(lián)網(wǎng)搜索,而輸出的內(nèi)容所提供的網(wǎng)址是虛假的、不存在的,內(nèi)容中包含了在任何互聯(lián)網(wǎng)可訪問來源中根本找不到的引文或其他斷言時,就可以認(rèn)定提供者存在過失。

結(jié)語

生成式人工智能技術(shù)的發(fā)展日新月異,應(yīng)用的場景越來越豐富廣泛,在人類的生產(chǎn)生活學(xué)習(xí)中所起到的作用也在不斷加強。因此,為了既能夠確保人工智能的安全、可靠與可控,充分維護名譽權(quán)等人身財產(chǎn)權(quán)益、公共利益與國家安全,又能促進生成式人工智能技術(shù)的創(chuàng)新發(fā)展,司法實踐應(yīng)當(dāng)在明確內(nèi)容輸出屬于生成式人工智能服務(wù)提供者自身實施的行為的大前提下,嚴(yán)格依據(jù)《民法典》等現(xiàn)行法律規(guī)范,謹(jǐn)慎細(xì)致地認(rèn)定內(nèi)容輸出是否屬于公布行為、是否為侵害名譽權(quán)的加害行為,提供者有無過錯等名譽權(quán)侵權(quán)責(zé)任的構(gòu)成要件。惟其如此,方能科學(xué)合理地協(xié)調(diào)權(quán)益保護與行為自由之間的緊張關(guān)系。

-向上滑動,查看完整目錄-

《財經(jīng)法學(xué)》2026年第2期目錄

【財經(jīng)法治熱點:數(shù)字法治研究】

1.論生成式人工智能侵害名譽權(quán)的侵權(quán)責(zé)任

程嘯

2.網(wǎng)絡(luò)時代穩(wěn)定幣的貨幣地位與規(guī)范研究

劉少軍

3.論作為獨立財產(chǎn)保護的人工智能模型參數(shù)

——以“AI模型保護第一案”為切入點

廖慧姣

4.公共數(shù)據(jù)資源登記的制度缺漏及因應(yīng)

鄧鵬

【專論】

5.論投資風(fēng)險對賭條款效力的二元論裁判思維:兼議公司法司法解釋的體系化

劉俊海

6.多數(shù)人侵權(quán)責(zé)任的規(guī)范困境與出路

張平華

7.走向臺前的相對所有權(quán)

——兼及所有權(quán)和所有制的關(guān)系

曹相見

8.“內(nèi)卷式”競爭治理中反壟斷法的制度性回避與功能重構(gòu)

喻玲

9.商事邏輯下合同詐騙罪的認(rèn)定范式

毛玲玲

10.《個人所得稅法》中偶然所得條款的適用反思與要件重構(gòu)

李喬彧

【爭鳴】

11.金融借貸利率上限司法規(guī)制的路徑重構(gòu)

錢進

12.幫助信息網(wǎng)絡(luò)犯罪活動罪“主觀明知”認(rèn)定規(guī)則檢視

謝甜甜

《財經(jīng)法學(xué)》于2015年1月創(chuàng)刊,為雙月刊,單月15日出版發(fā)行,是法學(xué)學(xué)科領(lǐng)域的專業(yè)性學(xué)術(shù)期刊?!柏斀?jīng)法學(xué)”一名,既表明該刊物與法學(xué)和經(jīng)濟學(xué)兩大學(xué)科緊密相連,亦有突出交叉學(xué)科特色之意。所謂“財”,即財產(chǎn);所謂“經(jīng)”,即經(jīng)濟。故而“財·經(jīng)·法”即以財產(chǎn)為客體的私法、以經(jīng)濟為調(diào)整對象的公法以及經(jīng)濟、管理與法學(xué)交叉領(lǐng)域之合稱,簡言之,《財經(jīng)法學(xué)》對社會主義市場經(jīng)濟法律調(diào)整抱有特別的關(guān)注。

點擊進入下方小程序

獲取專屬解決方案~

責(zé)任編輯 | 郭晴晴

審核人員 | 張文碩 毛琛昕

本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11490文章數(shù) 17541關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠(yuǎn)方

無障礙瀏覽 進入關(guān)懷版