国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

關(guān)于人工智能,法學家在關(guān)注什么? | 《人工智能法治研究十大議題(2026)》正式發(fā)布

0
分享至


來源 | 法治周末報、法學學術(shù)前沿

人工智能法治研究的十大議題(2026)

2026年是人工智能技術(shù)深度迭代、應(yīng)用場景全面拓展的關(guān)鍵之年,也是人工智能法治體系加快完善、理論研究縱深推進的攻堅之年。為緊扣國家人工智能發(fā)展戰(zhàn)略與法治建設(shè)需求,錨定學術(shù)研究與實務(wù)痛點,破解AI治理中的前沿法律難題,3月19日,在“探尋人工智能法治研究的真問題(第二季)”研討會上,《2026年人工智能法治研究十大議題》正式發(fā)布。

自“探尋人工智能法治研究的真問題(第一季)”發(fā)布以來,AI善治學術(shù)工作組聚焦該研究倡議,廣泛開展學術(shù)探討,組織系列碩博士論文研習,持續(xù)輸出研究成果,發(fā)布年度研究觀察。在上述體系化科研成果學術(shù)閉環(huán)的基礎(chǔ)上,2026年AI善治學術(shù)工作組再次邀請長期活躍在人工智能法治研究與產(chǎn)業(yè)實踐一線的多位專家學者,共同研究提出《人工智能法治研究十大議題(2026)》。相較于原則性、框架性、學理性討論,2026年度議題更加注重問題導向與現(xiàn)實針對性,緊密圍繞人工智能技術(shù)產(chǎn)業(yè)最新發(fā)展而設(shè)置,全面聚焦人工智能法治領(lǐng)域核心命題、前沿難點與實踐堵點,為學界研究、實務(wù)探索與制度完善指明方向,凝聚人工智能法治建設(shè)的學術(shù)共識與實踐合力。

一、智能體的行為邊界、授權(quán)機制與競爭治理

當前智能體技術(shù)快速落地應(yīng)用,自主決策、交互執(zhí)行能力持續(xù)升級,隨之引發(fā)的行為邊界模糊、授權(quán)機制缺失、市場競爭失序等問題日益凸顯。智能體在多大程度上可以被視為中立技術(shù)工具,其行為邊界的設(shè)定、用戶授權(quán)與系統(tǒng)控制之間的責任配置,以及在智能體跨平臺、跨系統(tǒng)運行的背景下,現(xiàn)有競爭規(guī)則與監(jiān)管框架如何應(yīng)對新型市場秩序問題。此外,在智能體廣泛參與代理買賣活動中,如何認定其法律效力,如何防范其法律風險,都亟需法律作出調(diào)整與回應(yīng)。

二、人工智能擬人化互動的法律風險及回應(yīng)

隨著AI擬人化交互技術(shù)普及,虛擬陪伴、智能客服、擬人化營銷等場景不斷拓展,由此引發(fā)的人格權(quán)侵權(quán)、情感欺詐、隱私泄露、虛假承諾等法律風險持續(xù)顯現(xiàn)?,F(xiàn)行法律應(yīng)當如何建立規(guī)制框架,以防范具有現(xiàn)實危害可能性的風險;如何明確產(chǎn)品設(shè)計義務(wù)、風險提示義務(wù)或更高層級的合規(guī)要求;以及如何調(diào)整圍繞明確可預(yù)見損害和侵權(quán)行為建立的侵權(quán)責任制度,并建立有效的救濟制度體系,是本議題關(guān)注的核心內(nèi)容。

三、生成式人工智能幻覺致?lián)p風險防范與責任承擔

當前,人工智能幻覺問題的主要法律問題,已經(jīng)從生成內(nèi)容本身是否為違法不良信息,轉(zhuǎn)向錯誤信息在被用戶采信后所引發(fā)的人身、財產(chǎn)或其他損害,由信息虛假、事實錯誤、內(nèi)容失真引發(fā)的侵權(quán)、誤導決策、經(jīng)濟損失等糾紛頻發(fā);算法輔助或代替決策行為致?lián)p也時有發(fā)生,現(xiàn)有責任認定規(guī)則難以適配。如何防范上述損害風險,發(fā)生損害應(yīng)如何歸責,是值得深入研究和探討的問題。

四、人工智能時代個人信息保護制度的結(jié)構(gòu)性沖突與制度調(diào)適

人工智能技術(shù)研發(fā)高度依賴海量個人數(shù)據(jù)支撐,與現(xiàn)行個人信息保護制度存在數(shù)據(jù)利用需求與權(quán)益保護、數(shù)據(jù)流通與安全管控等結(jié)構(gòu)性沖突。該議題聚焦AI場景下個人信息收集、使用、加工、流轉(zhuǎn)流程與個人信息保護制度的結(jié)構(gòu)性矛盾,聚焦知情同意規(guī)則優(yōu)化、敏感個人信息特殊保護、數(shù)據(jù)利用合規(guī)邊界、制度動態(tài)調(diào)適路徑等核心內(nèi)容,推動個人信息保護制度與人工智能發(fā)展需求精準適配,實現(xiàn)數(shù)據(jù)價值釋放與權(quán)益保護雙向共贏。

五、人機協(xié)同場景下知識產(chǎn)權(quán)等權(quán)屬與利益分配規(guī)則

人機協(xié)同創(chuàng)作、研發(fā)、生產(chǎn)等場景日益廣泛,AI生成內(nèi)容、協(xié)同創(chuàng)新成果的知識產(chǎn)權(quán)歸屬、利益分配、侵權(quán)認定等問題,成為知識產(chǎn)權(quán)領(lǐng)域的前沿難點。該議題聚焦人機協(xié)同場景下成果屬性界定、權(quán)利歸屬劃分、利益共享機制構(gòu)建,致力于探索適配人機協(xié)同模式的新型規(guī)則體系,劃定清晰權(quán)屬、制定利益分配規(guī)則,在兼顧創(chuàng)作者、AI研發(fā)方、平臺方等多方主體合法權(quán)益的同時,激發(fā)創(chuàng)新活力與產(chǎn)業(yè)發(fā)展。

六、前沿人工智能安全保障與極端風險防控的法治進路

隨著人工智能系統(tǒng)在模型規(guī)模、自治水平與社會嵌入深度達到前所未有的高度,可能引發(fā)的風險呈現(xiàn)出由局部性、可控風險向系統(tǒng)性、極端性風險擴展的趨勢,算法安全、數(shù)據(jù)安全、系統(tǒng)安全及技術(shù)濫用、失控等極端風險不容忽視。應(yīng)立足AI安全治理全局,聚焦前沿技術(shù)安全標準、風險預(yù)警機制、應(yīng)急處置流程、極端風險追責、全生命周期安全監(jiān)管等,探索法治化防控路徑,補齊AI安全治理制度短板,筑牢人工智能發(fā)展的安全底線,防范化解重大技術(shù)與社會風險。

七、人工智能產(chǎn)業(yè)政策的法治調(diào)控

當前,公共機構(gòu)持有的數(shù)據(jù)資源、基礎(chǔ)設(shè)施建設(shè)能力以及合規(guī)治理工具,正在成為支撐大模型訓練、應(yīng)用落地與風險防控的重要制度要素。本議題聚焦公共機構(gòu)持有數(shù)據(jù)用于大模型訓練的規(guī)則及機制,以及人工智能公共基礎(chǔ)設(shè)施及社會生態(tài)建設(shè),推動產(chǎn)業(yè)政策從行政引導邁向法治調(diào)控,保障人工智能產(chǎn)業(yè)在法治軌道上高質(zhì)量發(fā)展。

八、人工智能企業(yè)出海的法律問題

隨著國際化布局加快,我國人工智能企業(yè)產(chǎn)生依賴海外市場的現(xiàn)象,可能會產(chǎn)生人工智能主權(quán)沖突等一系列問題。同時,企業(yè)出海也面臨海外市場準入、數(shù)據(jù)跨境合規(guī)、地緣法律風險等問題成為出海核心阻礙。本議題梳理全球主要市場AI監(jiān)管規(guī)則差異,研究數(shù)據(jù)跨境合規(guī)路徑、跨境糾紛解決機制、海外合規(guī)風控體系構(gòu)建,為AI企業(yè)合規(guī)出海、參與國際競爭提供法治指引,助力我國AI產(chǎn)業(yè)國際化發(fā)展。

九、人工智能技術(shù)標準、倫理準則與法律規(guī)則的體系協(xié)調(diào)

當前人工智能領(lǐng)域技術(shù)標準、倫理準則、法律規(guī)則三者存在銜接不暢、邊界模糊、效力沖突等問題,難以形成協(xié)同治理合力。上述三類規(guī)則亟需厘清規(guī)則定位、建立銜接機制,推動技術(shù)標準落地法治化、倫理準則轉(zhuǎn)化制度化;要構(gòu)建“標準+倫理+法律”三位一體的協(xié)同治理體系,實現(xiàn)剛性法律約束、柔性倫理引導、技術(shù)標準規(guī)范的有機統(tǒng)一,提升AI治理整體效能。

十、人工智能法律治理的新型工具

人工智能時代,傳統(tǒng)法律治理手段已難以適配當前技術(shù)的迭代速度與復雜特性,研發(fā)數(shù)字化、智能化、專業(yè)化的法律治理新型工具成為必然趨勢。本議題關(guān)注AI治理合規(guī)檢測工具、風險預(yù)警工具、糾紛調(diào)處工具、證據(jù)固定工具、監(jiān)管科技工具等研發(fā)與應(yīng)用,探索新型治理工具的法律定位、適用邊界、效力認定與推廣路徑,推動人工智能法律治理從傳統(tǒng)模式向數(shù)字化、智能化轉(zhuǎn)型,提升AI治理的精準性、高效性與時效性,為人工智能法治建設(shè)提供技術(shù)支撐與工具保障。

本次十大議題的發(fā)布,緊扣國家人工智能發(fā)展戰(zhàn)略與法治建設(shè)全局需求,全部源自行業(yè)實務(wù)痛點與學術(shù)研究前沿,兼具理論深度與實踐價值,打破了高校、科研院所、行業(yè)機構(gòu)之間的研究壁壘,形成了跨地域、跨學科、跨領(lǐng)域的協(xié)同研究格局。后續(xù),各主辦單位將圍繞十大議題開展系列深度研究、學術(shù)研討與實務(wù)調(diào)研,持續(xù)推動人工智能法治理論創(chuàng)新、制度完善與實踐落地,為我國人工智能治理現(xiàn)代化、法治體系完善貢獻堅實力量。


AI在給人類帶來巨大紅利的同時,也向數(shù)據(jù)安全、算法權(quán)責、法律適用等法治領(lǐng)域提出挑戰(zhàn)。在這種背景下,3月19日,“探尋人工智能法治研究的真問題(第二季)”研討會順利舉辦,會議同步發(fā)布了《人工智能法治研究十大議題(2026)》

中國政法大學法學院教授舒國瀅在研討會上表示,新修訂的網(wǎng)絡(luò)安全法已增設(shè)了AI專項條款,從國家層面上確立了發(fā)展和安全并重、創(chuàng)新與規(guī)范協(xié)同的總基調(diào)。

此次發(fā)布的十大議題均是當前AI領(lǐng)域發(fā)展的最前沿、最迫切、最具有爭議的法律難題。

“法治是人工智能健康發(fā)展的底線、邊界和保障。目前面臨日新月異的技術(shù)變革,我們需要以法治明確三大方向:

第一,要以法治來定分止爭,厘清開發(fā)者、運營者、使用者、監(jiān)管方的權(quán)利和責任,讓行為有規(guī)可依、責任可追;第二,要以法治防控風險,防范技術(shù)濫用、算法歧視和深度偽造帶來的社會風險;第三,要以法治護航創(chuàng)新,堅持發(fā)展與安全并重,為技術(shù)突破與產(chǎn)業(yè)升級提供穩(wěn)定可預(yù)期的制度環(huán)境?!笔鎳鵀]說。

中國政法大學人工智能法研究院院長張凌寒表示,建議業(yè)界、學界以人工智能十大議題為抓手,努力產(chǎn)出真正立足實踐、引領(lǐng)未來的富有價值的法治研究成果,既為我國人工智能善治提供理論支撐,也為全球人工智能治理貢獻中國方案、中國智慧。

《法治周末》記者了解到,《人工智能法治研究十大議題(2026)》包括:智能體的行為邊界、授權(quán)機制與競爭治理;人工智能擬人化互動的法律風險及回應(yīng);生成式人工智能幻覺致?lián)p風險防范與責任承擔;人工智能時代個人信息保護制度的結(jié)構(gòu)性沖突與制度調(diào)適;人機協(xié)同場景下知識產(chǎn)權(quán)等權(quán)屬與利益分配規(guī)則;前沿人工智能安全保障與極端風險防控的法治進路;人工智能產(chǎn)業(yè)政策的法治調(diào)控;人工智能企業(yè)出海的法律問題;人工智能技術(shù)標準、倫理準則與法律規(guī)則的體系協(xié)調(diào);人工智能法律治理的新型工具。

相關(guān)專家學者在發(fā)布議題的同時,也深度解讀了議題的核心內(nèi)涵、研究價值與破題方向。

據(jù)悉,本次研討會由中國政法大學人工智能法研究院、西南政法大學科技法學研究院、華東政法大學數(shù)字法治研究院、中南財經(jīng)政法大學知識產(chǎn)權(quán)研究中心、西北政法大學人工智能法治研究中心、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟政策法規(guī)工作組、工業(yè)和信息化智慧法治工信部重點實驗室、AI善治學術(shù)工作組聯(lián)合主辦。

記者梳理了十大議題中的部分內(nèi)容,與讀者共享。

文|《法治周末》記者 肖莎

責任編輯|戴蕾蕾

視覺編輯 | 王雪

PART.01

智能體的行為邊界、授權(quán)機制與競爭治理


對外經(jīng)濟貿(mào)易大學教授許可透露,把智能體的行為邊界、授權(quán)機制和競爭治理作為第一個議題,因為和當前非常熱門的“養(yǎng)龍蝦”有關(guān)聯(lián)。

“OpenCLaw這么一個小小的放在我們電腦上的智能體,目前已經(jīng)成為全民熱炒的一個話題。通過這么一個小小的agent我們可以做各種各樣的事情,幫我們發(fā)消息、做決策、談合作、做風控。用戶對于agent授權(quán)的邊界在哪?agent作為一個代理人,它的行為的邊界又在哪?當它去訪問第三方的網(wǎng)站、第三方的App的時候,如果出現(xiàn)了一些錯誤的行為,那所有的責任都是由用戶來去承擔嗎?agent是不是我們所說的完全的用戶的代理人?對于這些問題,可能在實踐中有大量的需要去討論的地方?!痹S可表示,行為邊界問題、授權(quán)機制問題,人工智能體的市場競爭規(guī)則與合作生態(tài)建設(shè)問題也是無法繞開的根本性的大問題。

浙江大學數(shù)字法治研究院研究員李汶龍也談到,OpenCLaw這種智能體的出現(xiàn),打破了現(xiàn)在的競爭生態(tài)。此前很多的應(yīng)用自成體系,在某種程度上導致數(shù)據(jù)不流通。智能體的出現(xiàn),其實把這樣的一個圈子打破了。這一事實遠遠超出我們的預(yù)期,甚至超出整個行業(yè)的預(yù)期。在這個意義上,我們也有很多的議題需要去攻堅,以確保在新生態(tài)構(gòu)建的過程中,產(chǎn)業(yè)能夠公平有序地發(fā)展。

PART.02

人工智能擬人化互動的法律風險及回應(yīng)


“人工智能擬人化互動的法律風險及回應(yīng)”是此次活動發(fā)布的第二項議題。

中國人民公安大學法學院教授蘇宇在發(fā)布該項議題時說,人工智能不僅是提高生產(chǎn)效率的功能性工具,也在交互界面、語言表達和長期記憶等機制上實現(xiàn)了深度的擬人化互動,目的是為了提高用戶體驗,增強產(chǎn)品粘性,但這背后可能引發(fā)過度信賴、情感依賴、操縱、欺詐乃至關(guān)系替代等新型風險。有些風險具有隱蔽性、漸進性和難以量化的特征,而且實踐中已經(jīng)出現(xiàn)了一些相關(guān)案例,比如用戶聽從智能助手的建議,給陌生賬戶轉(zhuǎn)賬被騙,AI誘導青少年自殺的事件在全世界范圍內(nèi)也已發(fā)生。

“這些現(xiàn)象正是我們法律規(guī)制面臨的嶄新挑戰(zhàn)。在傳統(tǒng)的AI風險治理框架中,我們的目光大多聚焦在算法歧視、自動化決策的不透明或者數(shù)據(jù)權(quán)益的侵害上。然而,擬人化互動帶來的風險更為隱蔽,它作用于個體的認知防線與心理層面,可能導致用戶形成深度沉迷與過度依賴?!敝袊畔⑼ㄐ叛芯吭赫吲c經(jīng)濟研究所主任工程師程瑩補充說。

蘇宇表示,將沉迷、過度依賴等問題,轉(zhuǎn)化為法律可討論的風險類型,是構(gòu)建法律回應(yīng)機制的前提。除此以外,當前我們對生成式人工智能的主要監(jiān)管工具包括算法備案、算法透明、強制標識輸出、結(jié)果審查等,這些監(jiān)管工具能否實現(xiàn)對擬人化互動服務(wù)的有效監(jiān)管?如何規(guī)范人工智能的擬人化互動?如何更新監(jiān)管工具箱,應(yīng)對新型風險?如何針對特殊群體,構(gòu)建特殊的規(guī)制機制?既保護用戶權(quán)益,又不阻礙技術(shù)創(chuàng)新?擬人化智能體的互動邊界,應(yīng)該劃在哪里?有哪些不可忽視的倫理問題,其中哪些又必須在法律層面加以解決?

在程瑩看來,還有很多更具體的問題值得探討:如何及時發(fā)現(xiàn)和防范用戶可能面臨或制造的重大風險?如何有效防止人工智能模擬排他性的情感關(guān)系,實施情感操縱?尤其是在面向未成年人、老年人等特殊群體提供服務(wù)的場景中,擬人化互動存在哪些特殊風險?

“法律需要通過建立強制性的風險提示、動態(tài)的交互干預(yù)機制,或者制定更具針對性的產(chǎn)品設(shè)計準則,來化解擬人化互動中的風險問題。此外,我們還要調(diào)整圍繞明確的可預(yù)見損害和侵權(quán)行為建立的侵權(quán)責任制度,并建立有效的救濟制度體系?!背态撜J為,智能有溫,服務(wù)有度,期待通過討論,以法治的確定性,為人工智能的溫情脈脈劃定理性的邊界。

PART.03

生成式人工智能幻覺致?lián)p風險防范與責任承擔問題


西北政法大學人工智能法治研究中心教授楊建軍在研討會上表示,隨著生成式人工智能技術(shù)迭代升級,尤其是智能體信息工作流逐步成熟,用戶對AI輸出內(nèi)容的依賴度呈現(xiàn)爆發(fā)式增長。與之對應(yīng)的,是普通用戶自主審查核驗生成內(nèi)容真實性與準確性的能力持續(xù)弱化。這一現(xiàn)實轉(zhuǎn)變,直接讓人工智能幻覺致?lián)p的法律核心矛盾發(fā)生了根本遷移。

“我們過去關(guān)注的是生成內(nèi)容本身是否違法,是否屬于不良信息。而當下更需要直面的是用戶基于合理信任采信錯誤內(nèi)容后引發(fā)的人身損害、財產(chǎn)損失乃至各類衍生風險?!睏罱ㄜ娬J為,這也讓“合理信賴標準”的界定,成為當前法律適用和風險防范的核心問題。當AI的專業(yè)性不斷逼近甚至超越普通用戶的認知時,法律層面的合理性究竟該如何界定?用戶到底能否對AI生成內(nèi)容形成合法的合理信賴?又在哪些前提下,信賴才能被認定為合理?這是我們破解后續(xù)責任認定難題的邏輯起點。

楊建軍強調(diào),更關(guān)鍵的是,醫(yī)療診斷、法律研判、金融投資等高風險決策場景和普通日常應(yīng)用場景的風險等級天差地別。這些場景下,用戶對AI輸出的專業(yè)可信度要求極高,合理性的標準顯然不能一刀切,必須做出差異化的適配。與此同時,實踐中大量AI服務(wù)提供者都會通過免責聲明或風險提示告知用戶,生成內(nèi)容僅供參考,不能替代專業(yè)意見。這類條款能否直接作為幻覺致?lián)p后免除責任的依據(jù),也存在巨大爭議。如果一概認定告知有效,將相對弱化平臺方的內(nèi)容管控義務(wù);如果一概否定告知的效力,又會過度限制AI產(chǎn)業(yè)的創(chuàng)新發(fā)展。

“我們需要明確合理性的適用邊界,平衡用戶權(quán)益保護與產(chǎn)業(yè)發(fā)展,既不讓用戶盲目承擔AI幻覺的全部風險,也不讓合理的風險提示完全失去效力。這是本議題需要深入探討、凝聚共識的核心方向?!睏罱ㄜ娬f。

許可在討論這一議題時補充,當幻覺在技術(shù)層面上無法被消除的情況下,如何合理劃定注意義務(wù)的尺度,以及如何準確認定相關(guān)的責任方,是生成式人工智能幻覺致?lián)p的核心難題。同時應(yīng)該看到,生成式人工智能往往涉及到模型的研發(fā)者、系統(tǒng)部署的運營方、插件及工具的提供者等多個主體,各方在技術(shù)掌控能力、風險預(yù)見可能性、實際介入系統(tǒng)運營的深度上都有著明顯的差異。因此,在設(shè)計激勵相關(guān)方做好風險防范的制度安排時,必須綜合考慮不同主體的實際控制力、獲利程度、風險預(yù)見能力,細化責任邊界,既要壓實各方的風險防控責任,守住用戶的合法權(quán)益,又要為產(chǎn)業(yè)發(fā)展預(yù)留空間。

PART.04

個人信息保護制度的結(jié)構(gòu)性沖突與制度調(diào)試


關(guān)于人工智能時代的個人信息保護,程瑩在研討會上描述了這樣一個事實:人工智能的發(fā)展讓個人信息保護變得越來越難。比如,早期的AI推薦算法,只有在收集到我們的瀏覽記錄、興趣偏好等個人信息之后,才能夠為我們推薦喜歡的內(nèi)容;而現(xiàn)在爆火的智能體,為了執(zhí)行用戶的模糊指令,可能需要自主調(diào)用各類插件、跨越多個應(yīng)用,采集盡可能多的背景信息,才能夠貼合用戶需求,這在無形當中增加了個人信息濫用、泄露等風險。

“這些風險體現(xiàn)了個人信息權(quán)益保障和人工智能技術(shù)創(chuàng)新發(fā)展之間的張力,我們亟需在不動搖個人信息保護基本原則的前提下,結(jié)合人工智能的技術(shù)特性,對個人信息界定標準、權(quán)利實現(xiàn)路徑、責任劃分規(guī)則等作出合理解釋或制度調(diào)整?!背态摽偨Y(jié),因此本次發(fā)布的第四項議題為“個人信息保護制度的結(jié)構(gòu)性沖突與制度調(diào)試”,在這個議題下,如下問題值得探討:人工智能大模型的訓練、部署、應(yīng)用等涉及個人信息處理活動時,應(yīng)適用的個人信息保護規(guī)則是否應(yīng)進行必要調(diào)整?如何在保障個人信息權(quán)益的同時,為人工智能技術(shù)和產(chǎn)業(yè)健康創(chuàng)新發(fā)展提供空間和彈性?

西南政法大學民商法學院教授鄭志峰補充,大模型的研發(fā)過程中需要海量數(shù)據(jù),否則很難實現(xiàn)功能的迭代和多場景的適配,但是海量數(shù)據(jù)的利用,就可能與個人信息保護法所要求的“目的明確、范圍限定、最小必要”原則存在沖突。與此同時,微觀層面的個人信息保護規(guī)則和機制,也面臨挑戰(zhàn)。比如,個人信息的刪除權(quán)在大模型的背景下,有時很難真正實現(xiàn),很多個人數(shù)據(jù)通過模型的訓練已經(jīng)成為數(shù)據(jù)池的一部分,很難在事后從如此龐大的數(shù)據(jù)池中找到特定的數(shù)據(jù)進行刪除。這就導致自然人的個人信息刪除權(quán)、更正權(quán)等核心權(quán)利難以有效實現(xiàn),該如何應(yīng)對?

“這些困境都需要我們通過制度調(diào)整來解決,對現(xiàn)有的個人信息保護法及相關(guān)制度規(guī)則進行制度調(diào)試,以適配人工智能不同階段的發(fā)展需求?!编嵵痉逭f。

PART.05

人機協(xié)同場景下知識產(chǎn)權(quán)等權(quán)屬與利益分配規(guī)則


中國社會科學院大學副教授、互聯(lián)網(wǎng)法治研究中心主任劉曉春發(fā)布了第五個議題,即人機協(xié)同場景下知識產(chǎn)權(quán)等權(quán)屬與利益分配規(guī)則。

這一議題發(fā)布的背景是,人工智能越來越多地參與到了創(chuàng)作過程中。目前知識產(chǎn)權(quán)領(lǐng)域討論的議題集中在:作品創(chuàng)作過程中,人工智能生成或參與生成的內(nèi)容能否獲得著作權(quán)保護,是否對獨創(chuàng)性產(chǎn)生實質(zhì)性影響和挑戰(zhàn)?還有一些討論涉及,如何認定權(quán)利主體,如何評價人機協(xié)同過程中人工智能模型的貢獻度,如何分配相應(yīng)的收益?

但在劉曉春看來,這個議題不僅僅是作者權(quán)益的保護問題,還涉及整個內(nèi)容產(chǎn)業(yè)、科技產(chǎn)業(yè)本身,以及在人工智能參與下的創(chuàng)新激勵和權(quán)利保護之間的平衡。“如果缺乏對相關(guān)問題的明確指引,就有可能在一定程度上抑制創(chuàng)新主體的積極性,或者抑制創(chuàng)新主體運用人工智能的積極性?!?/p>

在這個基礎(chǔ)之上,劉曉春提出了三個問題。

第一個就是,傳統(tǒng)的以人類作者或者發(fā)明人為中心的權(quán)屬認定規(guī)則是否需要調(diào)整?在人機協(xié)同的場景之下,這一規(guī)則的適用空間有多大?

目前比較常見的是簡單的人機協(xié)同,由人輸入指令、提示詞,由人工智能輸出結(jié)果。但未來人工智能會進一步融入到各種產(chǎn)業(yè)化的應(yīng)用中,這其中可能不只有一個主體,可能有多名主體,也可能有多個AI模型共同進行創(chuàng)作,因此其中涉及的具體問題(權(quán)屬認定、利益分配)值得深入研究。

第二個問題是,人工智能的利益分配與平衡問題。

隨著人工智能參與創(chuàng)造過程的復雜化,多個層次的問題會浮現(xiàn)出來。比如,人機協(xié)同創(chuàng)作中,如何明確人工智能的貢獻比例,如何平衡模型研發(fā)者、使用者、具體創(chuàng)新實施者之間的收益分配。目前這類問題大多是通過合同的方式來實現(xiàn)的,但合同之外可能會衍生出其他的爭議,這也需要我們進行進一步研究。

第三個問題是,當出現(xiàn)跨平臺的數(shù)據(jù)交互需求時,用戶產(chǎn)生的數(shù)據(jù)的權(quán)屬問題。

PART.06

前沿人工智能的安全保障與極端風險防控


中國人民大學未來法治研究院執(zhí)行院長張吉豫教授表示,科學界在反復警示前沿人工智能的安全問題,并預(yù)見隨著人工智能系統(tǒng)在模型規(guī)模、自治水平與社會嵌入深度等方面達到前所未有的高度,人工智能可能引發(fā)的風險呈現(xiàn)出由局部性、可控風險向系統(tǒng)性、極端性風險擴展的趨勢。因此,推動從以事后責任追究為中心,向以事前預(yù)防為核心的風險應(yīng)對路徑轉(zhuǎn)型,成為我們亟需回應(yīng)的突出問題。

湘潭大學法學學部副教授文禹衡從已經(jīng)出現(xiàn)的人工智能勒索、自主逃逸等極端風險出發(fā)展開探討。文禹衡表示,人工智能自我保全、自我改進、從部署環(huán)境中逃逸和嘗試影響乃至控制人類的案例數(shù)量,或?qū)⑷找嬖黾印?/strong>這種極端風險可能是技術(shù)層面的,比如AI失控、算法崩潰導致工業(yè)生產(chǎn)、交通出行等領(lǐng)域出現(xiàn)安全事故;也可能是社會層面的,比如AI被用于惡意攻擊、虛假信息傳播甚至危害國家安全。

“設(shè)想一下,如果自主決策AI被用于軍事領(lǐng)域,出現(xiàn)失控,自主發(fā)起攻擊,該如何防控?這就是我們要面對的極端風險之一?!蔽挠砗庋a充,前沿人工智能的安全保障面臨著兩個主要問題:

一是“風險不可預(yù)測”,前沿AI的技術(shù)復雜度極高,很多風險在技術(shù)研發(fā)初期無法預(yù)判,等到發(fā)現(xiàn)風險時,可能已經(jīng)造成了嚴重的損害;二是“現(xiàn)有法治體系滯后”,我們目前的安全保障法律規(guī)則,大多是針對傳統(tǒng)AI技術(shù)制定的,面對前沿AI的極端風險,缺乏有效的防控手段和法律依據(jù)。

基于此,文禹衡認為如下兩個問題值得深入探討:第一個是前沿人工智能極端風險的識別評估與法律監(jiān)管,這也是風險防控能力建設(shè)的重要環(huán)節(jié);第二個是如何構(gòu)建前沿人工智能極端風險的多元治理體系。

文禹衡等學者前期也和相關(guān)的專家學者、產(chǎn)業(yè)代表進行了充分的討論,達成了一個共識:前沿人工智能的安全保障不能重研發(fā)、輕防控,必須建立全流程法治防控體系,從研發(fā)、測試、應(yīng)用到廢棄,每一個環(huán)節(jié)都要有明確的法律規(guī)則,防范安全風險。

關(guān)于這個議題,文禹衡認為如下問題都值得進一步深入探討:如何界定前沿人工智能的極端風險,最應(yīng)該重點防控的問題是什么?如何完善前沿人工智能安全保護的法律規(guī)則,構(gòu)建有效防控極端風險的法治體系?如何明確各方的安全責任?如何建立全流程風險防控機制?如何實現(xiàn)技術(shù)創(chuàng)新和安全防控的協(xié)同發(fā)展,既充分保障科技創(chuàng)新的活力,又能夠通過多元手段的結(jié)合,共同守住人類文明的安全底線?

注:

AI善治學術(shù)工作組成員

張凌寒,中國政法大學人工智能法學院院長、教授、博士生導師;AI 善治學術(shù)工作組召集人,《人工智能法(學者建議稿)》起草專家組牽頭專家。

楊建軍,西北政法大學人工智能法治研究中心教授、博士生導師,《法律科學》主編,AI 善治學術(shù)工作組成員,《人工智能法(學者建議稿)》起草專家組專家。

程瑩,中國信通院政策與經(jīng)濟研究所主任工程師,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟政策法規(guī)工作組秘書長,AI 善治學術(shù)工作組成員,《人工智能法(學者建議稿)》起草專家組專家。

趙精武,北京航空航天大學法學院副教授、院長助理,工業(yè)和信息化智慧法治工信部重點實驗室執(zhí)行主任,AI 善治學術(shù)工作組成員,《人工智能法(學者建議稿)》起草專家組專家。

鄭志峰,西南政法大學高等研究院院長,民商法學院教授、博士生導師,科技法學研究院副院長,AI 善治學術(shù)工作組成員,《人工智能法(學者建議稿)》起草專家組專家。

韓旭至,華東政法大學數(shù)字法治研究院副院長、法律學院副教授,《數(shù)字法學評論》副主編,AI 善治學術(shù)工作組成員,《人工智能法(學者建議稿)》起草專家組專家。

徐小奔,中南財經(jīng)政法大學知識產(chǎn)權(quán)學院副院長、教授,《法商研究》學科編輯,AI 善治學術(shù)工作組成員,《人工智能法(學者建議稿)》起草專家組專家。

特邀專家(按姓氏拼音排序)

戴昕,北京大學法學院長聘副教授、博士生導師、副院長。

傅宏宇,阿里研究院人工智能治理中心主任、數(shù)據(jù)經(jīng)濟研究中心主任。

劉晗,清華大學智能法治研究院副院長,法學院長聘教授、博士生導師,

文科建設(shè)處副處長。

李汶龍,浙江大學數(shù)字法治研究院研究員。

劉曉春,中國社會科學院大學法學院副教授、互聯(lián)網(wǎng)法治研究中心主任。

齊英程,吉林大學法學院副教授、司法數(shù)據(jù)應(yīng)用研究中心研究員。

蘇宇,中國人民公安大學法學院教授、博士生導師,數(shù)據(jù)法學研究院院

長 。

邰江麗,科技集團法務(wù)副總裁、中國法學會網(wǎng)絡(luò)與信息法學研究會副會

長。

吳少卿,科技公司合規(guī)負責人,中國法學會網(wǎng)絡(luò)與信息法學研究會理事。

文禹衡,湘潭大學法學學部副教授、博士生導師。

許可,對外經(jīng)濟貿(mào)易大學法學院教授、數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主

任。

徐全全,百度 AI 業(yè)務(wù)法律合規(guī)負責人。

張吉豫,中國人民大學未來法治研究院執(zhí)行院長、法學院教授。

張素華,武漢大學法學院教授、博士生導師,網(wǎng)絡(luò)治理研究院數(shù)據(jù)法治

研究中心主任。

朱悅,同濟大學法學院助理教授、上海市人工智能社會治理協(xié)同創(chuàng)新中

心研究員。

點擊進入下方小程序

獲取專屬解決方案~

責任編輯 | 金夢洋

審核人員 | 張文碩

本文聲明 | 本文章僅限學習交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
揮淚斬馬謖!皇馬正式出售2.1億“頂星”!新主帥攜巨星空降加盟

揮淚斬馬謖!皇馬正式出售2.1億“頂星”!新主帥攜巨星空降加盟

頭狼追球
2026-04-18 17:53:28
57歲好萊塢女星太敢說:自曝生猛夫妻生活,不用生娃更盡興

57歲好萊塢女星太敢說:自曝生猛夫妻生活,不用生娃更盡興

橙星文娛
2026-04-18 16:47:02
更新大潮來了?中央發(fā)文定調(diào):2026年起20年房齡老房子或又吃香了

更新大潮來了?中央發(fā)文定調(diào):2026年起20年房齡老房子或又吃香了

專業(yè)聊房君
2026-04-18 16:45:50
央視再三提醒,綁銀行卡的手機,務(wù)必開啟這兩項功能

央視再三提醒,綁銀行卡的手機,務(wù)必開啟這兩項功能

另子維愛讀史
2026-04-18 22:46:08
泰國潑水節(jié)242人死亡,1200人受傷

泰國潑水節(jié)242人死亡,1200人受傷

每日經(jīng)濟新聞
2026-04-18 10:09:13
許家印被捕細節(jié)公開保交樓會議設(shè)伏抓捕反抗激烈被摘皮帶戴手銬

許家印被捕細節(jié)公開保交樓會議設(shè)伏抓捕反抗激烈被摘皮帶戴手銬

深度報
2026-04-18 23:28:19
決裂?姆巴佩硬剛皇馬!拒絕克洛普執(zhí)教,力挺一人入主

決裂?姆巴佩硬剛皇馬!拒絕克洛普執(zhí)教,力挺一人入主

奶蓋熊本熊
2026-04-19 00:32:00
以色列發(fā)動大規(guī)??找u

以色列發(fā)動大規(guī)??找u

中國經(jīng)濟網(wǎng)
2026-04-17 17:46:03
學校組織10元車費去春游,男孩下車秒哭,“這是我家,油菜花還是我和爺爺一起種的,我媽剛把我送學校,你又把我?guī)Щ貋砹恕?>
    </a>
        <h3>
      <a href=觀威海
2026-04-18 13:16:03
警告三次不如動真格一次!中方勒令即刻停運,西方媒體都看懵了

警告三次不如動真格一次!中方勒令即刻停運,西方媒體都看懵了

書紀文譚
2026-04-18 16:10:54
犯規(guī)罰退一位!WSBK荷蘭站第一回合:張雪機車車手德比斯獲第4名

犯規(guī)罰退一位!WSBK荷蘭站第一回合:張雪機車車手德比斯獲第4名

全景體育V
2026-04-18 20:43:20
女子吃燒烤花了892元,老板搞活動只收89.2元,她卻讓老板退她100元

女子吃燒烤花了892元,老板搞活動只收89.2元,她卻讓老板退她100元

書畫藝術(shù)收藏
2025-02-23 19:30:08
張雪回應(yīng)WSBK荷蘭站拿第四:競技體育就這樣,每人都極限發(fā)揮

張雪回應(yīng)WSBK荷蘭站拿第四:競技體育就這樣,每人都極限發(fā)揮

貝殼財經(jīng)
2026-04-18 23:16:02
全場僅2次罰球,哈登太難了!季后賽剛開打,哈登好像就被針對了

全場僅2次罰球,哈登太難了!季后賽剛開打,哈登好像就被針對了

老梁體育漫談
2026-04-19 04:59:43
普京時代進入倒計時,中國必須警惕俄羅斯政策突變

普京時代進入倒計時,中國必須警惕俄羅斯政策突變

阿七說史
2026-04-18 15:47:09
悲催!上海男子曾年薪百萬,中年失業(yè)被妻子罵廢物,引發(fā)千人共鳴

悲催!上海男子曾年薪百萬,中年失業(yè)被妻子罵廢物,引發(fā)千人共鳴

火山詩話
2026-04-18 06:42:53
要徹底離開?格林:這可能是最后一次和庫里打球,感激這一年!

要徹底離開?格林:這可能是最后一次和庫里打球,感激這一年!

愛體育
2026-04-18 22:04:20
日本女足1-0復仇朝鮮!第7次問鼎U20亞洲杯 全場被動+頭槌制勝

日本女足1-0復仇朝鮮!第7次問鼎U20亞洲杯 全場被動+頭槌制勝

我愛英超
2026-04-18 21:00:45
“五一”假期大批航班取消

“五一”假期大批航班取消

每日經(jīng)濟新聞
2026-04-18 22:20:39
大數(shù)據(jù)分析,在中國,找個身高1米7年入20萬的老公,到底有多難?

大數(shù)據(jù)分析,在中國,找個身高1米7年入20萬的老公,到底有多難?

深度報
2026-04-18 23:37:27
2026-04-19 05:48:49
北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11490文章數(shù) 17541關(guān)注度
往期回顧 全部

科技要聞

傳Meta下月擬裁8000 大舉清退人力為AI騰位

頭條要聞

伊朗革命衛(wèi)隊向油輪開火 伊朗最高領(lǐng)袖發(fā)聲

頭條要聞

伊朗革命衛(wèi)隊向油輪開火 伊朗最高領(lǐng)袖發(fā)聲

體育要聞

時隔25年重返英超!沒有人再嘲笑他了

娛樂要聞

劉德華回應(yīng)潘宏彬去世,拒談喪禮細節(jié)

財經(jīng)要聞

"影子萬科"2.0:管理層如何吸血萬物云?

汽車要聞

奇瑞威麟R08 PRO正式上市 售價14.48萬元起

態(tài)度原創(chuàng)

家居
親子
數(shù)碼
手機
公開課

家居要聞

法式線條 時光靜淌

親子要聞

退燒藥怎么用?90%家長都搞錯了

數(shù)碼要聞

華為版的科技春晚來了!Pura 90/Pura X Max下周發(fā):陣容豪華

手機要聞

榮耀600系列參數(shù)、外觀全曝光

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版