国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

邊琪|論已公開(kāi)個(gè)人信息的保護(hù)模式

0
分享至



已公開(kāi)個(gè)人信息保護(hù)應(yīng)從“嚴(yán)進(jìn)寬出”模式轉(zhuǎn)向“寬進(jìn)嚴(yán)出”模式,在此基礎(chǔ)上,已公開(kāi)個(gè)人信息處理規(guī)則的解釋?xiě)?yīng)被更新。所謂“寬進(jìn)嚴(yán)出”模式,是指在信息收集上放寬對(duì)目的限制的要求,但在信息處理上強(qiáng)化對(duì)處理結(jié)果的控制。我國(guó)《個(gè)人信息保護(hù)法》第24條已在自動(dòng)化決策場(chǎng)景中初步確立“寬進(jìn)嚴(yán)出”模式,該模式在價(jià)值判斷、理論準(zhǔn)備、規(guī)則設(shè)置上亦能得到支持?!皩掃M(jìn)嚴(yán)出”模式下,認(rèn)定已公開(kāi)個(gè)人信息處理在“合理的范圍”內(nèi)應(yīng)降低目的限制要求,以處理結(jié)果倒推處理方式的關(guān)聯(lián)性與合理性。個(gè)人信息處理者無(wú)需履行告知義務(wù),個(gè)人信息主體行使拒絕權(quán)的時(shí)間和方式應(yīng)尊重所在場(chǎng)景的信息處理技術(shù)特性?!皩?duì)個(gè)人權(quán)益有重大影響”的評(píng)估應(yīng)被置于整體風(fēng)險(xiǎn)評(píng)估中,具體為對(duì)處理結(jié)果和系統(tǒng)風(fēng)險(xiǎn)的評(píng)估。從“合理的范圍”和“對(duì)個(gè)人權(quán)益有重大影響”中亦可推出,已公開(kāi)個(gè)人信息也應(yīng)“嚴(yán)出”。


一、問(wèn)題的提出

《個(gè)人信息保護(hù)法》出臺(tái)后,我國(guó)學(xué)理上對(duì)個(gè)人信息保護(hù)形成了“嚴(yán)進(jìn)寬出”模式。所謂“嚴(yán)進(jìn)寬出”模式,是指處理個(gè)人信息需滿足目的特定明確且處理方式與該目的相兼容的要求。該模式是對(duì)目的限制原則的一種解釋方案。目的限制原則的功能,是對(duì)個(gè)人信息處理的目的和圍繞該目的的后續(xù)處理方式進(jìn)行控制。我國(guó)《個(gè)人信息保護(hù)法》第14條、第17條、第28條和第29條都是對(duì)“嚴(yán)進(jìn)寬出”模式在具體規(guī)則上的呈現(xiàn)。但是,“嚴(yán)進(jìn)寬出”模式難以與已公開(kāi)個(gè)人信息處理規(guī)則銜接,也不利于已公開(kāi)個(gè)人信息的大規(guī)模利用。特別是在生成式人工智能場(chǎng)景下,生成式人工智能收集語(yǔ)料以抓取網(wǎng)絡(luò)中海量已公開(kāi)數(shù)據(jù)為最主要的方式。比如,2022年發(fā)布的chatgpt-3的總語(yǔ)料數(shù)為0.499t,總規(guī)模為753gb。而英偉達(dá)于2025年1月推出的cosmos世紀(jì)基礎(chǔ)模型平臺(tái)的總語(yǔ)料數(shù)已達(dá)史無(wú)前例的9000t,總規(guī)模為200萬(wàn)gb。如此海量的語(yǔ)料主要依賴于網(wǎng)絡(luò)中已公開(kāi)數(shù)據(jù),包含大量難以被分離和清洗的已公開(kāi)個(gè)人信息,對(duì)其采用“嚴(yán)進(jìn)寬出”模式進(jìn)行控制,顯然難以實(shí)現(xiàn)。

對(duì)此,學(xué)界當(dāng)下的共識(shí)是應(yīng)當(dāng)對(duì)已公開(kāi)個(gè)人信息處理規(guī)則作出寬松化解釋,特別是放松其在生成式人工智能語(yǔ)料收集階段的限制。但在如何作出寬松化解釋的問(wèn)題上,學(xué)者們并未達(dá)成一致?,F(xiàn)有研究從不同角度提供了論證方案和制度設(shè)想,但總體存在以下兩方面局限性:第一,對(duì)未公開(kāi)個(gè)人信息與已公開(kāi)個(gè)人信息不作區(qū)分,試圖構(gòu)建一體化保護(hù)方案。但就個(gè)人信息收集和利用規(guī)則而言,未公開(kāi)個(gè)人信息與已公開(kāi)個(gè)人信息分別基于擇入同意(opt-in)和擇出同意(opt-out),在此之上形成了不同規(guī)則,面臨的規(guī)則困境亦各自不同,對(duì)此應(yīng)分別考察和論證。比如,未公開(kāi)個(gè)人信息采用擇入同意,若要對(duì)其作出寬松化解釋,需探討擇入同意中相對(duì)寬松的概括同意的適用范圍。已公開(kāi)個(gè)人信息采取擇出同意,應(yīng)重點(diǎn)討論的是《個(gè)人信息保護(hù)法》第27條中“合理的范圍”“個(gè)人明確拒絕”和“對(duì)個(gè)人權(quán)益有重大影響”等要素的解釋方案。第二,已有研究探討寬松化解釋方案時(shí),往往脫離我國(guó)《個(gè)人信息保護(hù)法》現(xiàn)有體系框架,如探討生成式人工智能應(yīng)當(dāng)構(gòu)建何種促進(jìn)型數(shù)據(jù)制度,最終不免流向立法論,在當(dāng)下難具可操作性。

因此,本文將在破除上述局限性基礎(chǔ)上,以生成式人工智能技術(shù)的出現(xiàn)為背景,采取如下研究路徑:首先,區(qū)分已公開(kāi)個(gè)人信息與未公開(kāi)個(gè)人信息處理規(guī)則,僅針對(duì)已公開(kāi)個(gè)人信息處理規(guī)則展開(kāi)研究。其次,運(yùn)用體系化思維,立足于已公開(kāi)個(gè)人信息處理規(guī)則與關(guān)聯(lián)規(guī)則,探討如何借鑒《個(gè)人信息保護(hù)法》體系內(nèi)已有制度資源,為已公開(kāi)個(gè)人信息構(gòu)建合適的保護(hù)模式。本文的基本觀點(diǎn)是,已公開(kāi)個(gè)人信息保護(hù)應(yīng)從“嚴(yán)進(jìn)寬出”模式轉(zhuǎn)向“寬進(jìn)嚴(yán)出”模式。本文將具體探討,已公開(kāi)個(gè)人信息保護(hù)為何需要構(gòu)建及如何構(gòu)建“寬進(jìn)嚴(yán)出”模式。在此基礎(chǔ)上,本文將重新細(xì)化解釋《個(gè)人信息保護(hù)法》第27條規(guī)定的“合理的范圍”“對(duì)個(gè)人權(quán)益有重大影響”和“個(gè)人明確拒絕”等要件。

二、已公開(kāi)個(gè)人信息保護(hù)“嚴(yán)進(jìn)寬出”模式面臨的困境

已公開(kāi)個(gè)人信息保護(hù)采取“嚴(yán)進(jìn)寬出”模式面臨兩方面困境:第一,已公開(kāi)個(gè)人信息處理規(guī)則自身存在局限性,即屬于不完整規(guī)則。第二,生成式人工智能技術(shù)對(duì)已公開(kāi)個(gè)人信息處理規(guī)則帶來(lái)直接沖擊,迫使該規(guī)則在解釋方案上需被整體更新。

(一)

“面目模糊”的已公開(kāi)個(gè)人信息處理規(guī)則

《民法典》第1036條第2項(xiàng)、《個(gè)人信息保護(hù)法》第13條第6項(xiàng)與第27條均規(guī)定了已公開(kāi)個(gè)人信息處理規(guī)則?,F(xiàn)有規(guī)則表明,個(gè)人信息已公開(kāi)與取得個(gè)人同意并列為個(gè)人信息處理的合法性事由,但對(duì)已公開(kāi)個(gè)人信息進(jìn)行處理還存在三個(gè)約束條件:在合理的范圍內(nèi)、個(gè)人未明確拒絕和不對(duì)個(gè)人權(quán)益產(chǎn)生重大影響?!秱€(gè)人信息保護(hù)法》未對(duì)其進(jìn)一步解釋,故相關(guān)理解需借助個(gè)人信息保護(hù)領(lǐng)域已有的法律體系和其他相關(guān)規(guī)則。

首先,本文對(duì)“合理的范圍”“對(duì)個(gè)人權(quán)益有重大影響”和“個(gè)人明確拒絕”的觀點(diǎn)分歧和規(guī)則的不完整展開(kāi)簡(jiǎn)要分析。

學(xué)界對(duì)“合理的范圍”的解釋分歧最大。第一種觀點(diǎn)認(rèn)為,“合理的范圍”是指目的限制原則。第二種觀點(diǎn)認(rèn)為,“合理的范圍”指向最小必要原則。第三種觀點(diǎn)認(rèn)為,“合理的范圍”是指“目的限制原則+最小必要原則”的結(jié)合。此外尚有觀點(diǎn)認(rèn)為,“合理的范圍”除上述兩原則外,還需符合個(gè)人信息處理的合法、正當(dāng)、必要和誠(chéng)信原則,以及比例原則與利益均衡原則等。上述觀點(diǎn)實(shí)際上都以目的限制原則為核心,圍繞這一核心向外拓展了半徑不同的內(nèi)容圈。本文認(rèn)為,目的限制原則與其他原則之間關(guān)系如下:第一,目的限制原則和最小必要原則關(guān)系最為緊密。兩者均被規(guī)定于我國(guó)《個(gè)人信息保護(hù)法》第6條。從該條內(nèi)容看,目的限制原則是最小必要原則的衡量基礎(chǔ),最小必要原則確保個(gè)人信息后續(xù)處理符合目的限制原則??梢哉f(shuō),在我國(guó)法中,最小必要原則是目的限制原則實(shí)現(xiàn)的應(yīng)然結(jié)果,其并無(wú)單獨(dú)存在的顯著意義。第二,除最小必要原則外,目的限制原則和合法、正當(dāng)、必要和誠(chéng)信原則等一般原則地位并列,分別被規(guī)定于《個(gè)人信息保護(hù)法》第6條和第5條,關(guān)系較為疏遠(yuǎn),但內(nèi)容上彼此交叉。第三,比例原則與利益均衡原則是《個(gè)人信息保護(hù)法》應(yīng)遵守的上位原則,但并未被直接規(guī)定于該法中。而從文義解釋看,“合理的范圍”直接指向的是個(gè)人信息處理數(shù)量與規(guī)模,其與最小必要原則關(guān)聯(lián)最為直接。但從最小必要原則與目的限制原則的關(guān)系看,發(fā)揮決定性作用的仍為目的限制原則。因此,“合理的范圍”之內(nèi)容指向目的限制原則。與其關(guān)系更為疏遠(yuǎn)的其他原則并無(wú)被納入“合理的范圍”內(nèi)容之必要,因?yàn)槠渥鳛橐话阍瓌t仍能對(duì)已公開(kāi)個(gè)人信息處理發(fā)揮約束作用。

學(xué)界對(duì)“個(gè)人明確拒絕”的理解亦存在分歧。第一個(gè)分歧是個(gè)人拒絕權(quán)行使是否應(yīng)以個(gè)人信息處理者的告知義務(wù)為前置條件。第二個(gè)分歧是個(gè)人拒絕權(quán)是否應(yīng)當(dāng)受限制以及如何被限制。在部分新技術(shù)場(chǎng)景下,未公開(kāi)個(gè)人信息處理中設(shè)計(jì)的告知義務(wù)、事前同意和同意撤回制度,無(wú)法平移適用于已公開(kāi)個(gè)人信息處理。比如,生成式人工智能場(chǎng)景下,已公開(kāi)個(gè)人信息中即便存在某種“告知義務(wù)”,也更多體現(xiàn)為透明化要求,即面向多元主體的信息披露義務(wù),其功能、目的和內(nèi)容均不同于未公開(kāi)個(gè)人信息處理中的告知義務(wù)。此外,不受任何限制的個(gè)人拒絕權(quán)僅是制度理想,在具體場(chǎng)景中難以實(shí)現(xiàn)。即使在未公開(kāi)個(gè)人信息處理中,個(gè)人拒絕權(quán)也并非在任何階段都可行使。已公開(kāi)個(gè)人信息處理中,欠缺交互場(chǎng)景會(huì)導(dǎo)致個(gè)人拒絕權(quán)的行使客觀受限。若通過(guò)法律規(guī)定改變這一客觀限制,將對(duì)技術(shù)開(kāi)發(fā)者課以過(guò)高成本和負(fù)擔(dān)。“對(duì)個(gè)人權(quán)益有重大影響”這一要件因內(nèi)容過(guò)寬和欠缺具體指導(dǎo)規(guī)則,實(shí)操性極差,本身屬于不完整的否定性構(gòu)成要件?!皩?duì)個(gè)人權(quán)益有重大影響”的衡量通常發(fā)生于個(gè)人信息處理開(kāi)始前,是對(duì)未來(lái)風(fēng)險(xiǎn)的評(píng)估。僅憑《個(gè)人信息保護(hù)法》第55條、第56條之規(guī)定,并依賴于個(gè)人信息處理者的內(nèi)部合規(guī)活動(dòng),個(gè)人信息保護(hù)影響評(píng)估會(huì)因缺乏具體標(biāo)準(zhǔn)、評(píng)估程序和外部監(jiān)管而流于形式,無(wú)法被真正落實(shí)。

其次,已公開(kāi)個(gè)人信息處理規(guī)則的“面目模糊”只是表象。真正的困境在于已公開(kāi)個(gè)人信息處理規(guī)則無(wú)法簡(jiǎn)單參照適用未公開(kāi)個(gè)人信息處理規(guī)則的解釋方案。但在如何構(gòu)建自己獨(dú)立的解釋方案上,學(xué)理層面尚未給出清晰回答和整體框架。

上述問(wèn)題的本質(zhì),是我國(guó)《個(gè)人信息保護(hù)法》對(duì)已公開(kāi)個(gè)人信息處理規(guī)則的設(shè)計(jì)采取了不同于歐盟模式和美國(guó)模式的第三種模式,本文稱為“混合模式”。這給解釋論上的自洽和成熟帶來(lái)一定困難。簡(jiǎn)言之,歐盟模式不區(qū)分未公開(kāi)個(gè)人信息和已公開(kāi)個(gè)人信息,將其統(tǒng)一在擇入同意模式下提供保護(hù),但在特殊場(chǎng)景下弱化對(duì)已公開(kāi)個(gè)人信息的保護(hù)。美國(guó)模式則直接將已公開(kāi)個(gè)人信息排除于隱私權(quán)和個(gè)人信息保護(hù)框架之外。我國(guó)則采取已公開(kāi)個(gè)人信息和未公開(kāi)個(gè)人信息分離保護(hù)的模式,對(duì)已公開(kāi)個(gè)人信息單獨(dú)適用擇出同意。對(duì)此,解釋論上未及時(shí)構(gòu)建與擇出同意適配的理論,反而仍在適用主要和未公開(kāi)個(gè)人信息相匹配的“嚴(yán)進(jìn)寬出”模式下的目的限制原則解釋方案。由此導(dǎo)致的問(wèn)題是,擇出同意作為“事前推定同意+事后明確拒絕”的模式,本系對(duì)個(gè)人信息收集和二次利用的松綁,使得個(gè)人信息處理者在網(wǎng)絡(luò)中收集已公開(kāi)個(gè)人信息時(shí),無(wú)需提前聯(lián)系個(gè)人信息主體。但是,“嚴(yán)進(jìn)寬出”模式下,依照未公開(kāi)個(gè)人信息處理規(guī)則,處理者又需履行事前告知義務(wù),并取得個(gè)人信息主體的事前同意,這與擇出同意的預(yù)設(shè)完全相反。它既不符合已公開(kāi)個(gè)人信息處理初期處理者與個(gè)人信息主體之間往往并無(wú)互動(dòng)的實(shí)際情況,也使已公開(kāi)個(gè)人信息處理者背負(fù)過(guò)高義務(wù)。因此,在不修改立法的前提下,破除上述矛盾的路徑只有一條,即從解釋論層面對(duì)已公開(kāi)個(gè)人信息處理規(guī)則中適用的目的限制原則重新解釋,使已公開(kāi)個(gè)人信息處理規(guī)則脫離“嚴(yán)進(jìn)寬出”模式。

綜上可知,已公開(kāi)個(gè)人信息處理規(guī)則自身系一種不完整規(guī)則,故而蘊(yùn)含充分解釋空間。但在解釋路徑上,該規(guī)則欠缺獨(dú)立性,仍沿用未公開(kāi)個(gè)人信息處理規(guī)則的既有解釋方案,導(dǎo)致內(nèi)部不自洽。因此,已公開(kāi)個(gè)人信息處理規(guī)則應(yīng)以目的限制原則為出發(fā)點(diǎn),重構(gòu)自身的解釋方案。

(二)

生成式人工智能帶來(lái)的新挑戰(zhàn)

生成式人工智能作為一種新技術(shù)和新場(chǎng)景,對(duì)已公開(kāi)個(gè)人信息處理規(guī)則帶來(lái)如下新挑戰(zhàn)。

第一,“合理的范圍”原有理解路徑被完全顛覆。生成式人工智能場(chǎng)景下,“嚴(yán)進(jìn)寬出”模式仍然從數(shù)據(jù)收集階段即要求處理目的特定、明確,但這和生成式人工智能技術(shù)特征相悖。生成式人工智能對(duì)數(shù)據(jù)的利用方式是在學(xué)習(xí)海量數(shù)據(jù)后在詞匯空間中將每個(gè)單詞向量化,揭示不同單詞之間的統(tǒng)計(jì)學(xué)概率分布規(guī)律,再將其以參數(shù)形式保存于大模型中,最終基于用戶指令輸出內(nèi)容。此種技術(shù)路線下,生成式人工智能技術(shù)服務(wù)提供者亦無(wú)法明確獲知其中具體的概率分布規(guī)律和生成式人工智能如何利用這些參數(shù)生成何種內(nèi)容。這從本質(zhì)上顛覆了目的限制原則的出發(fā)點(diǎn),即目的可控,導(dǎo)致目的限制原則已無(wú)法充分回應(yīng)生成式人工智能技術(shù)。此外,若目的限制原則未能貫徹,最小必要原則顯然也難以實(shí)現(xiàn),因?yàn)樽钚”匾瓌t是目的限制原則實(shí)現(xiàn)的應(yīng)然結(jié)果。最小必要原則預(yù)設(shè)的場(chǎng)景,是前信息時(shí)代小規(guī)模、單環(huán)節(jié)且環(huán)節(jié)可控的個(gè)人數(shù)據(jù)收集場(chǎng)景,這從本質(zhì)上與生成式人工智能追求海量語(yǔ)料及難以預(yù)先設(shè)定數(shù)據(jù)類型和范圍的技術(shù)特征相悖。

第二,“個(gè)人明確拒絕”進(jìn)一步受到限制。生成式人工智能場(chǎng)景下,個(gè)人拒絕權(quán)的行使客觀上進(jìn)一步受限。首先,生成式人工智能技術(shù)在未進(jìn)入商業(yè)化應(yīng)用之前,個(gè)人信息處理者因欠缺互動(dòng)關(guān)系,難以向個(gè)人信息主體履行告知義務(wù)。進(jìn)入商業(yè)化應(yīng)用后,其也難以對(duì)處理目的、范圍、內(nèi)容等,進(jìn)行全面、明確和持續(xù)性的告知。其次,生成式人工智能場(chǎng)景下,個(gè)人拒絕權(quán)的行使時(shí)間和方式受限,僅能在收集數(shù)據(jù)前及數(shù)據(jù)最終輸出階段行使。最后,個(gè)人信息處理者可能欠缺回應(yīng)個(gè)人信息主體拒絕權(quán)的意愿,尤其當(dāng)拒絕權(quán)行使的成本能為其所承受時(shí)。因?yàn)閭€(gè)人信息主體拒絕權(quán)與生成式人工智能技術(shù)發(fā)展對(duì)語(yǔ)料“擴(kuò)源提質(zhì)”的要求本質(zhì)沖突。一旦個(gè)體群起效仿,在個(gè)人信息對(duì)價(jià)機(jī)制尚未成熟的情況下,個(gè)人信息主體更可能因風(fēng)險(xiǎn)規(guī)避而直接行使拒絕權(quán)。單一個(gè)體行使拒絕權(quán)影響不大,但如果相關(guān)主體達(dá)到一定數(shù)量,可能會(huì)對(duì)生成式人工智能研發(fā)帶來(lái)重大阻礙??紤]到此種風(fēng)險(xiǎn),不回應(yīng)個(gè)人信息主體的拒絕權(quán)對(duì)個(gè)人信息處理者而言是更好的選擇。

第三,“對(duì)個(gè)人權(quán)益有重大影響”面臨更復(fù)雜的評(píng)估要求。生成式人工智能場(chǎng)景下,“對(duì)個(gè)人權(quán)益有重大影響”的評(píng)估需依托于生成式人工智能自身的風(fēng)險(xiǎn)評(píng)估,且更復(fù)雜。目前,相關(guān)規(guī)定如《信息安全技術(shù)個(gè)人信息安全影響評(píng)估指南》(以下簡(jiǎn)稱《指南》)或《信息安全技術(shù)與個(gè)人信息的自動(dòng)化決策安全要求》(征求意見(jiàn)稿)(以下簡(jiǎn)稱《自動(dòng)化決策意見(jiàn)稿》)針對(duì)的都是自動(dòng)化決策場(chǎng)景中的個(gè)人權(quán)益影響評(píng)估,其難以被延伸適用到生成式人工智能等新技術(shù)和新場(chǎng)景中。

(三)

反思與總結(jié)

已公開(kāi)個(gè)人信息處理規(guī)則的自身特性以及生成式人工智能對(duì)其帶來(lái)的新挑戰(zhàn),二者共同表明,已公開(kāi)個(gè)人信息保護(hù)無(wú)法繼續(xù)適用“嚴(yán)進(jìn)寬出”模式。本文提出的解決方案,是為已公開(kāi)個(gè)人信息保護(hù)構(gòu)建“寬進(jìn)嚴(yán)出”模式。這一模式不僅能理順已公開(kāi)個(gè)人信息處理規(guī)則的自身解釋路徑,也能更好地匹配新技術(shù)場(chǎng)景。

從“嚴(yán)進(jìn)寬出”模式向“寬進(jìn)嚴(yán)出”模式轉(zhuǎn)變的核心,是《個(gè)人信息保護(hù)法》第6條第1款規(guī)定的目的限制原則在已公開(kāi)個(gè)人信息處理場(chǎng)景下的解釋方案需得到更新。以此為出發(fā)點(diǎn),已公開(kāi)個(gè)人信息處理規(guī)則的解釋路徑亦需從整體上重構(gòu)。簡(jiǎn)言之,《個(gè)人信息保護(hù)法》第6條第1款在目的限制原則的解釋上,應(yīng)構(gòu)建未公開(kāi)個(gè)人信息和已公開(kāi)個(gè)人信息相區(qū)別的“雙元路徑”。

具言之,在未公開(kāi)個(gè)人信息處理中,目的限制原則的解釋仍遵循“嚴(yán)進(jìn)寬出”模式,擇入同意規(guī)則與處理者告知義務(wù)規(guī)則與其形成呼應(yīng)。已公開(kāi)個(gè)人信息處理規(guī)則中,目的限制原則的解釋?xiě)?yīng)采取“寬進(jìn)嚴(yán)出”模式,《個(gè)人信息保護(hù)法》第27條應(yīng)與第24條規(guī)定的自動(dòng)化決策場(chǎng)景形成規(guī)則聯(lián)動(dòng)。因?yàn)椤秱€(gè)人信息保護(hù)法》第24條已較早構(gòu)建了已公開(kāi)個(gè)人信息處理的“寬進(jìn)嚴(yán)出”模式,可為第27條在解釋路徑上提供參考。

三、已公開(kāi)個(gè)人信息保護(hù)應(yīng)轉(zhuǎn)向“寬進(jìn)嚴(yán)出”模式

(一)

“寬進(jìn)嚴(yán)出”模式的內(nèi)涵

所謂“寬進(jìn)嚴(yán)出”模式,是指在信息收集上放寬目的限制要求,但在信息處理上強(qiáng)化對(duì)處理結(jié)果的控制。結(jié)合《個(gè)人信息保護(hù)法》第24條規(guī)定的自動(dòng)化決策場(chǎng)景,下文對(duì)“寬進(jìn)嚴(yán)出”和“嚴(yán)進(jìn)寬出”兩種模式展開(kāi)對(duì)比。

第一,“嚴(yán)進(jìn)寬出”模式中的“嚴(yán)進(jìn)”要求個(gè)人信息處理目的特定與明確,對(duì)此展開(kāi)嚴(yán)格解釋;“寬進(jìn)嚴(yán)出”模式中的“寬進(jìn)”允許個(gè)人信息處理目的不夠特定和明確。“嚴(yán)進(jìn)寬出”模式下,“特定”是指對(duì)目的的描述必須提供足夠細(xì)節(jié),使之具備辨識(shí)度,“改進(jìn)用戶體驗(yàn)”“營(yíng)銷目的”等不符合特定要求?!懊鞔_”是指目的特定化后能被明白無(wú)誤展現(xiàn),確保信息主體和其他相關(guān)方對(duì)該目的有一致理解。“寬進(jìn)嚴(yán)出”模式下,“寬進(jìn)”意味著特定場(chǎng)景中尊重技術(shù)特性,個(gè)人信息收集之際,如收集目的無(wú)法特定化和明確化,應(yīng)適當(dāng)降低要求,采用業(yè)內(nèi)共識(shí)的較低標(biāo)準(zhǔn)。

第二,“嚴(yán)進(jìn)寬出”模式中的“寬出”,是指?jìng)€(gè)人信息處理方式與處理目的之間的關(guān)聯(lián)性符合相兼容標(biāo)準(zhǔn),允許后續(xù)處理方式一定程度上偏離初始目的,存在更為直接的其他目的?!皩掃M(jìn)嚴(yán)出”模式中的“嚴(yán)出”,是指?jìng)€(gè)人信息處理方式與處理目的之間的關(guān)聯(lián)性符合相兼容標(biāo)準(zhǔn),但在特定場(chǎng)景下,處理結(jié)果應(yīng)依據(jù)相關(guān)規(guī)定而被嚴(yán)格控制。比如,在自動(dòng)化決策場(chǎng)景下,處理結(jié)果應(yīng)當(dāng)公平、公正,不得差別對(duì)待。在生成式人工智能場(chǎng)景下,《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)第4條同樣規(guī)定,處理結(jié)果(生成內(nèi)容)必須準(zhǔn)確、可靠。

第三,“嚴(yán)進(jìn)寬出”模式與“寬進(jìn)嚴(yán)出”模式對(duì)個(gè)人信息處理場(chǎng)景的預(yù)期不同。“嚴(yán)進(jìn)寬出”模式誕生于前信息時(shí)代,面對(duì)的是小規(guī)模、單一環(huán)節(jié)的個(gè)人信息處理場(chǎng)景。該模式目的在于遏制信息處理者濫用“權(quán)力”,保護(hù)個(gè)人信息權(quán)益。由于后續(xù)處理環(huán)節(jié)的可預(yù)期性強(qiáng),所以控制數(shù)據(jù)收集階段是一種有效方式。“寬進(jìn)嚴(yán)出”模式基于個(gè)人信息保護(hù)與利用的平衡,面對(duì)的是信息大規(guī)模收集、信息處理自動(dòng)化與處理過(guò)程連續(xù)不可分割的場(chǎng)景。此種場(chǎng)景往往存在“算法黑箱”,用戶只能被動(dòng)接受其最終決策結(jié)果。無(wú)論是控制數(shù)據(jù)輸入端,還是介入個(gè)人信息處理過(guò)程,均存在高成本、低效率和難以保證效果的問(wèn)題。因此,控制輸出端更能兼顧成本、技術(shù)和效果的平衡。

(二)

“寬進(jìn)嚴(yán)出”模式的適用理由

支持個(gè)人信息合理利用和人工智能新技術(shù)發(fā)展的理由并不足以充分論證,已公開(kāi)個(gè)人信息處理規(guī)則在解釋論上應(yīng)全面轉(zhuǎn)向“寬進(jìn)嚴(yán)出”模式。這里將展示更為有力和直接的理由,表明已公開(kāi)個(gè)人信息處理中早已存在“寬進(jìn)嚴(yán)出”模式,且該模式與已公開(kāi)個(gè)人信息處理規(guī)則體系更為匹配。

第一,從價(jià)值判斷上看,“寬進(jìn)嚴(yán)出”模式能夠獲得支持。《個(gè)人信息保護(hù)法》第1條將“促進(jìn)個(gè)人信息合理利用”納入了立法目的。這一目的的存在表明:其一,個(gè)人信息權(quán)益雖為人格利益,但并非絕對(duì)權(quán),對(duì)其保護(hù)具有相對(duì)性。其二,個(gè)人信息權(quán)益保護(hù)與個(gè)人信息合理利用之間應(yīng)形成平衡關(guān)系。其三,平衡關(guān)系的判定仍以利益權(quán)衡為根本手段,相關(guān)規(guī)則可被視為利益權(quán)衡結(jié)果的定型化表達(dá)?!皩掃M(jìn)嚴(yán)出”模式系在特定場(chǎng)景下利益權(quán)衡的結(jié)果。該場(chǎng)景下,相比于個(gè)人信息權(quán)益保護(hù),個(gè)人信息合理利用更被優(yōu)先考慮。對(duì)此,下一節(jié)還將具體展開(kāi)說(shuō)明。因此,“寬進(jìn)嚴(yán)出”模式在價(jià)值判斷上本就為《個(gè)人信息保護(hù)法》所預(yù)設(shè)和兼容。

第二,從理論準(zhǔn)備上看,“寬進(jìn)嚴(yán)出”模式指向的是目的限制原則中“目的限制”的寬松化,對(duì)此學(xué)理上已做好準(zhǔn)備。目的限制原則在歐盟gdpr中有最為成熟的表達(dá)。但當(dāng)下歐盟學(xué)者對(duì)其集中提出批判,指出在人工智能時(shí)代目的限制原則已過(guò)時(shí)。當(dāng)下,人們已難以通過(guò)目的限制來(lái)控制個(gè)人信息處理,確保處理活動(dòng)合理。我國(guó)學(xué)者表示認(rèn)同,指出目的限制原則屬于通過(guò)抽樣或單項(xiàng)分析實(shí)現(xiàn)個(gè)人信息價(jià)值的前大數(shù)據(jù)時(shí)代。當(dāng)下,目的限制原則與人工智能技術(shù)本質(zhì)上相沖突,需要被松綁。美國(guó)未采用歐盟gdpr中的目的限制原則,而是代之以場(chǎng)景理論和風(fēng)險(xiǎn)理念,個(gè)人信息合法利用的認(rèn)定基于處理行為的合法性與可預(yù)期性。美國(guó)2024年公布的《隱私權(quán)法案草案》規(guī)定了相對(duì)寬松的數(shù)據(jù)處理最小化原則。基于特定關(guān)系中具有合理預(yù)期的溝通目的或經(jīng)允許的目的處理個(gè)人信息,也滿足數(shù)據(jù)處理最小化要求。上述表明,在個(gè)人信息處理中松綁目的限制原則或放棄目的限制原則,已有理論準(zhǔn)備乃至立法實(shí)踐。

第三,從規(guī)則設(shè)置上看,《個(gè)人信息保護(hù)法》第6條第1款能容納目的限制原則的“雙元解釋”路徑。第6條第1款規(guī)定:“處理個(gè)人信息應(yīng)當(dāng)具有明確、合理的目的,并應(yīng)當(dāng)與處理目的直接相關(guān),采取對(duì)個(gè)人權(quán)益影響最小的方式?!睆奈牧x上看,其為“目的限制”和“使用限制”的解釋預(yù)留了較大空間?!澳康南拗啤敝械摹懊鞔_、合理”是指處理目的不得寬泛與模糊,且需符合社會(huì)一般人的事理認(rèn)知,不得違反基本倫理道德與公序良俗。而“使用限制”中的“與處理目的直接相關(guān)”在實(shí)踐中已被寬松化解釋為“直接關(guān)聯(lián)性”與“合理關(guān)聯(lián)性”,與歐盟所采用的“相兼容”理論類似。這表明,《個(gè)人信息保護(hù)法》第6條第1款在“目的限制”層面門(mén)檻較低,而在“使用限制”層面也能滿足“相兼容”標(biāo)準(zhǔn)。這和《個(gè)人信息保護(hù)法》出臺(tái)前已有規(guī)定的做法保持了一致?!秱€(gè)人信息保護(hù)法》出臺(tái)前,我國(guó)法律法規(guī)中未規(guī)定目的限制原則,對(duì)個(gè)人信息處理目的的限制主要是合法、正當(dāng)、必要原則和明示處理目的規(guī)則。比如,2012年出臺(tái)的《全國(guó)人民代表大會(huì)常務(wù)委員會(huì)關(guān)于加強(qiáng)網(wǎng)絡(luò)信息保護(hù)的決定》第2條第1款規(guī)定了合法、正當(dāng)、必要原則和明示處理目的規(guī)則,該條亦為《民法典》第1035條所繼承。有學(xué)者指出,我國(guó)個(gè)人信息保護(hù)制度在設(shè)計(jì)上更傾向于要求信息處理者把目的及用途一次說(shuō)清,而“直接相關(guān)”僅指目的與用途是否關(guān)聯(lián)的檢驗(yàn)。對(duì)個(gè)人信息處理目的的合法正當(dāng)性要求及完整揭示要求并不表明,目的呈現(xiàn)的明確性、特定性要達(dá)到歐盟gdpr的標(biāo)準(zhǔn)。

第四,“寬進(jìn)嚴(yán)出”模式實(shí)際上在我國(guó)《個(gè)人信息保護(hù)法》第24條中已初步確立。該條規(guī)定自動(dòng)化決策場(chǎng)景下的個(gè)人信息處理,在信息收集階段僅要求收集目的為利用個(gè)人信息進(jìn)行自動(dòng)化決策(第24條第1款),是對(duì)“目的明確”的寬松化解釋。在信息輸出端,該條則要求結(jié)果公平、公正,不得差別對(duì)待,是對(duì)個(gè)人信息處理結(jié)果的嚴(yán)格控制,本質(zhì)是對(duì)目的限制原則中“使用限制”的特殊要求。第24條未區(qū)分已公開(kāi)個(gè)人信息和未公開(kāi)個(gè)人信息,但實(shí)踐中大量自動(dòng)化決策基于已公開(kāi)個(gè)人信息展開(kāi)。當(dāng)下的生成式人工智能場(chǎng)景之所以可借鑒自動(dòng)化決策場(chǎng)景的規(guī)則,在于兩者屬于人工智能技術(shù)發(fā)展的不同階段,但在個(gè)人信息處理上具有高度相似性:(1)均包含個(gè)人信息收集階段,僅在收集個(gè)人信息的目的、范圍、數(shù)量上不同;(2)個(gè)人信息從收集到算法/大語(yǔ)言模型處理,再到輸出前,形成“技術(shù)黑箱”,個(gè)人信息主體無(wú)法介入;(3)個(gè)人信息主體僅在信息輸出端與個(gè)人信息處理者建立起互動(dòng)關(guān)系;(4)均采用擇出同意,個(gè)人拒絕權(quán)和“對(duì)個(gè)人權(quán)益有重大影響”均為約束要件。

(三)

“寬進(jìn)嚴(yán)出”模式下的利益權(quán)衡與規(guī)則細(xì)化

1.利益權(quán)衡中個(gè)人信息合理利用處于優(yōu)位

從《個(gè)人信息保護(hù)法》第24條的規(guī)定看,“寬進(jìn)嚴(yán)出”模式與擇出同意適配。在擇出同意的適用場(chǎng)景內(nèi),個(gè)人信息處理者合法利益優(yōu)于信息主體的個(gè)人信息權(quán)益。原因在于,擇出同意本身系這種利益權(quán)衡結(jié)果的表達(dá)。相比于擇入同意,擇出同意在數(shù)據(jù)資源優(yōu)化配置和節(jié)省交易成本上發(fā)揮了良好功能,能推動(dòng)個(gè)人信息商業(yè)導(dǎo)向的利用。行為經(jīng)濟(jì)學(xué)中的助推理論表明,如果想要鼓勵(lì)某項(xiàng)行為,就要找到人們不去做它的原因,然后消除阻礙因素。反之,如果想打消人們采取某種行動(dòng)的念頭,則可以設(shè)置障礙,讓它變得更困難。擇出同意下的拒絕權(quán)看似為權(quán)利,實(shí)質(zhì)上是給個(gè)人信息主體施加了特定行為要求,而給個(gè)人信息處理者提供便利,因?yàn)楹笳邿o(wú)需事前采取任何行動(dòng)。

個(gè)人信息處理者的合法利益并非單純指向經(jīng)濟(jì)性利益,否則其無(wú)法優(yōu)于人格利益。個(gè)人信息處理者的合法利益能處于優(yōu)位,在于其系一種綜合性利益。綜合性利益中超越個(gè)體利益的信息自由和信息公共性等價(jià)值在利益權(quán)衡中得以優(yōu)于個(gè)體的人格利益。對(duì)此,我國(guó)司法實(shí)踐中也予以認(rèn)可。與我國(guó)類似,歐盟gdpr第6.1f條的處理者合法利益條款中,個(gè)人信息處理者所追求的合法利益不僅包括經(jīng)濟(jì)性利益,還包括法律利益和非物質(zhì)性利益,乃至更為廣闊的公共利益。實(shí)踐中,此種價(jià)值權(quán)衡方案被視為“最后的救濟(jì)方案”,是個(gè)人信息處理者維護(hù)自身利益的兜底路徑。當(dāng)然,其還必須符合處理必要性及在利益權(quán)衡中處于優(yōu)位的限制要件。

因此,具體個(gè)案中,處理者一方利益集合里公共利益和非物質(zhì)性利益越突出,能在利益權(quán)衡中優(yōu)于信息主體一方的個(gè)人信息權(quán)益,并且處理方式上符合比例原則,就越能彰顯處理活動(dòng)本身的合法性。

2.已公開(kāi)個(gè)人信息規(guī)則的細(xì)化——以《個(gè)人信息保護(hù)法》第24條為例

以《個(gè)人信息保護(hù)法》第24條為例,這里進(jìn)一步分析,“寬進(jìn)嚴(yán)出”模式下已公開(kāi)個(gè)人信息規(guī)則在解釋論上如何進(jìn)一步細(xì)化。相比于已有的個(gè)人信息處理規(guī)則而言,該條系特殊規(guī)則。在未公開(kāi)個(gè)人信息處理規(guī)則強(qiáng)調(diào)知情同意和已公開(kāi)個(gè)人信息處理規(guī)則仍有“合理的范圍”之束縛時(shí),該條在立法技術(shù)上早已放松了對(duì)個(gè)人信息收集環(huán)節(jié)的控制,而轉(zhuǎn)向有效規(guī)制“算法黑箱”的功能性路徑。

但對(duì)于《個(gè)人信息保護(hù)法》第24條的特殊性,許多學(xué)者并不認(rèn)可。一種觀點(diǎn)認(rèn)為,自動(dòng)化決策分為用戶畫(huà)像和進(jìn)行決策兩個(gè)階段,在用戶畫(huà)像階段,個(gè)人信息處理者仍應(yīng)主動(dòng)履行告知義務(wù),使個(gè)人信息主體知情。還有研究者認(rèn)為,《個(gè)人信息保護(hù)法》第24條并未規(guī)定個(gè)人信息收集階段,故在該階段,未公開(kāi)個(gè)人信息和已公開(kāi)個(gè)人信息收集活動(dòng)應(yīng)當(dāng)分別遵循告知同意規(guī)則和《個(gè)人信息保護(hù)法》第27條“合理的范圍”之規(guī)定,“合理的范圍”的認(rèn)定應(yīng)為再處理目的與初始目的一致。由此,該研究者得出,已公開(kāi)個(gè)人信息處理中,第27條系對(duì)第24條的細(xì)化。理由主要有兩點(diǎn):第一,《個(gè)人信息保護(hù)法》第24條涉及更多類型的個(gè)人信息,但第27條僅涉及已公開(kāi)個(gè)人信息,顯然更為特殊。第二,第24條未規(guī)定個(gè)人信息收集階段,第27條則規(guī)定了個(gè)人信息應(yīng)在“合理的范圍”內(nèi)被收集,顯然系對(duì)第24條的細(xì)化。其背后所隱含的,是請(qǐng)求權(quán)規(guī)范競(jìng)合下,特殊規(guī)則優(yōu)于一般規(guī)則的判定方法。

實(shí)際上,上述兩個(gè)理由皆難以成立,《個(gè)人信息保護(hù)法》第24條既是未公開(kāi)個(gè)人信息處理中的特殊條款,也是已公開(kāi)個(gè)人信息處理中的特殊條款。

首先,《個(gè)人信息保護(hù)法》第24條系我國(guó)此前數(shù)年自動(dòng)化決策領(lǐng)域司法實(shí)踐和立法實(shí)踐的結(jié)果。司法實(shí)踐中,法院對(duì)自動(dòng)化決策數(shù)據(jù)收集階段放寬限制采取支持立場(chǎng)。2014年的“cookie隱私第一案”中,法官對(duì)網(wǎng)絡(luò)平臺(tái)利用cookie技術(shù)收集網(wǎng)絡(luò)用戶上網(wǎng)信息進(jìn)行商業(yè)化營(yíng)銷的行為表達(dá)了支持意見(jiàn)。這一立場(chǎng)也在隨后立法中得到延續(xù)。2018年出臺(tái)的《電子商務(wù)法》第18條規(guī)定,電子商務(wù)經(jīng)營(yíng)者可以利用自動(dòng)化決策向消費(fèi)者提供商品或服務(wù)的搜索結(jié)果,這里未規(guī)定任何限制條件。2021年修訂的《廣告法》第44條規(guī)定網(wǎng)絡(luò)定向廣告應(yīng)當(dāng)顯著標(biāo)明關(guān)閉標(biāo)志,確保一鍵關(guān)閉,但也未提及限制條件。《個(gè)人信息保護(hù)法》第24條同樣如此。《個(gè)人信息保護(hù)法》出臺(tái)后的兩個(gè)典型案例,“法先生濫用麥某公開(kāi)個(gè)人信息案”和“王某與北京某科技有限公司人格權(quán)糾紛案”中,法院亦不關(guān)注自動(dòng)化決策信息收集階段的情況,而是關(guān)注自動(dòng)化決策結(jié)果是否公平公正與差別對(duì)待。上述態(tài)度立場(chǎng)與行業(yè)實(shí)踐情況相符。在行業(yè)實(shí)踐中,數(shù)據(jù)收集階段通常被視為個(gè)性化決策的前置環(huán)節(jié),但其本身欠缺獨(dú)立性,不會(huì)被單獨(dú)衡量。

其次,從場(chǎng)景特殊性看,自動(dòng)化決策無(wú)論在未公開(kāi)個(gè)人信息處理中,還是在已公開(kāi)個(gè)人信息處理中,都屬于特殊場(chǎng)景,是大數(shù)據(jù)技術(shù)成熟后的一種典型場(chǎng)景。這里的“場(chǎng)景”更應(yīng)指向的是個(gè)人信息處理的具體場(chǎng)合全景,綜合個(gè)人信息處理的目的、方式、內(nèi)容和結(jié)果等,不應(yīng)被片面理解為處理的個(gè)人信息類型。

最后,從已公開(kāi)個(gè)人信息角度看,不能因?yàn)椤秱€(gè)人信息保護(hù)法》第27條規(guī)定了“合理的范圍”,而第24條未規(guī)定,就認(rèn)為第27條相比于第24條而言系特殊規(guī)則。相反,《個(gè)人信息保護(hù)法》第27條系針對(duì)所有已公開(kāi)個(gè)人信息處理的一般規(guī)則。其雖然規(guī)定了“合理的范圍”等約束要件,但“合理的范圍”本身文義比較抽象,指向的也是作為一般原則的目的限制原則。與之相對(duì),《個(gè)人信息保護(hù)法》第24條卻是對(duì)目的限制原則在目的限制層面的放松和在處理結(jié)果上的從嚴(yán),相比于第27條而言,是更為特殊的規(guī)定。立法者已意識(shí)到,在自動(dòng)化決策場(chǎng)景中,個(gè)人信息處理的核心痛點(diǎn)是算法歧視,利用算法處理個(gè)人信息指向的是目的限制原則中的處理方式限制。對(duì)此的主要驗(yàn)證方式,是考察決策輸出結(jié)果。從決策結(jié)果可以推出算法模型的合理性和信息收集是否在“合理的范圍”。

綜上,《個(gè)人信息保護(hù)法》第24條對(duì)已公開(kāi)個(gè)人信息處理規(guī)則解釋方案的更新提供了如下借鑒。第一,在具體場(chǎng)景下,“合理的范圍”這一約束要件可能過(guò)于單薄,不足以涵蓋整個(gè)個(gè)人信息處理過(guò)程的合理要求。而對(duì)“合理的范圍”之內(nèi)容進(jìn)行擴(kuò)充,且對(duì)其嚴(yán)格解釋,試圖基于該要件構(gòu)建起整個(gè)已公開(kāi)個(gè)人信息合理處理規(guī)則,并不可取。更應(yīng)采取的路徑,是對(duì)“合理的范圍”作出寬松的解釋,并抓住具體場(chǎng)景的技術(shù)特征和侵害風(fēng)險(xiǎn),采用更有效的方式對(duì)其進(jìn)行驗(yàn)證。比如,通過(guò)對(duì)處理結(jié)果是否合法合理進(jìn)行驗(yàn)證,從而倒推處理方式是否在“合理的范圍”內(nèi)。第二,將個(gè)人信息處理過(guò)程視為一個(gè)連續(xù)性的整體系統(tǒng),在合適的階段配置個(gè)人拒絕權(quán)的類型和方式。比如,《個(gè)人信息保護(hù)法》第24條就充分考慮了自動(dòng)化決策的技術(shù)特征,將個(gè)人拒絕權(quán)細(xì)化為脫離算法自動(dòng)化決策權(quán)、關(guān)閉算法的權(quán)利和人工干預(yù)(接管)權(quán)三類,并在內(nèi)容輸出階段進(jìn)行配置。此外還有一項(xiàng)輔助性權(quán)利,即要求說(shuō)明權(quán)。第三,《個(gè)人信息保護(hù)法》第24條第3款的“對(duì)個(gè)人權(quán)益有重大影響”需要通過(guò)更為詳細(xì)的規(guī)章或指南來(lái)落實(shí)具體評(píng)估過(guò)程。

四、已公開(kāi)個(gè)人信息保護(hù)“寬進(jìn)嚴(yán)出”模式的具體展開(kāi)

(一)

已公開(kāi)敏感個(gè)人信息不適用“寬進(jìn)嚴(yán)出”模式

實(shí)踐中存在敏感個(gè)人信息被公開(kāi)的情況,被公開(kāi)的敏感個(gè)人信息是否應(yīng)被弱化保護(hù),乃至直接適用已公開(kāi)個(gè)人信息處理規(guī)則,有待進(jìn)一步分析。我國(guó)主流觀點(diǎn)認(rèn)為,已公開(kāi)敏感個(gè)人信息處理仍應(yīng)適用敏感個(gè)人信息處理規(guī)則。《個(gè)人信息保護(hù)法》也未對(duì)已公開(kāi)敏感個(gè)人信息設(shè)置單獨(dú)規(guī)定。由此可知,在我國(guó)現(xiàn)行法框架下,敏感個(gè)人信息如在公開(kāi)后并不喪失敏感性,則仍應(yīng)被視為敏感個(gè)人信息,適用《個(gè)人信息保護(hù)法》第28條至第32條的敏感個(gè)人信息處理規(guī)則。反之,敏感個(gè)人信息如在公開(kāi)后喪失敏感性,比如,因長(zhǎng)期公開(kāi)、信息陳舊化等原因,不再“容易導(dǎo)致自然人的人格尊嚴(yán)受到侵害或者人身、財(cái)產(chǎn)安全受到危害”,則轉(zhuǎn)變?yōu)槠胀ㄒ压_(kāi)個(gè)人信息,適用已公開(kāi)個(gè)人信息處理規(guī)則。對(duì)此的驗(yàn)證應(yīng)當(dāng)放在具體場(chǎng)景中進(jìn)行。

在個(gè)人信息收集階段,敏感個(gè)人信息仍應(yīng)采取“嚴(yán)進(jìn)”模式,無(wú)論其是否被公開(kāi)。只有具備特定目的和充分必要性,并采取嚴(yán)格保護(hù)措施,且履行“告知+個(gè)人單獨(dú)同意”義務(wù),個(gè)人信息處理者方可處理敏感個(gè)人信息。與此同時(shí),敏感個(gè)人信息還應(yīng)采取“嚴(yán)出”模式。比如,在自動(dòng)化決策和生成式人工智能場(chǎng)景中,都可能發(fā)生碎片信息聚合生成新的敏感個(gè)人信息問(wèn)題,此種輸出結(jié)果應(yīng)被嚴(yán)格控制。學(xué)理上指出,敏感個(gè)人信息可被劃分為本質(zhì)敏感型和工具敏感型兩類。例如,歐盟法學(xué)者quinn和malgieri認(rèn)為,歐盟法律保護(hù)敏感數(shù)據(jù)有時(shí)使用工具性理由,有時(shí)又將保護(hù)敏感數(shù)據(jù)視為目的本身。美國(guó)學(xué)者paul ohm根據(jù)處理方式將敏感個(gè)人信息區(qū)分為本質(zhì)敏感信息、推斷敏感信息和工具敏感信息。我國(guó)也有學(xué)者將敏感個(gè)人信息區(qū)分為對(duì)具體內(nèi)容直接利用的敏感個(gè)人信息和用以進(jìn)行算法決策的敏感個(gè)人信息。本質(zhì)敏感型個(gè)人信息在內(nèi)容層面直接體現(xiàn)敏感性,故在個(gè)人信息收集階段能被識(shí)別、避免被抓取或在被抓取后被清洗、匿名化或假名化處理。但是,工具敏感型個(gè)人信息在內(nèi)容層面不直接體現(xiàn)敏感性,而是在特定場(chǎng)景下因與其他信息聚合而展現(xiàn)出敏感性。比如,家庭住址、身份證號(hào)碼、行蹤信息等,它們通常需要與其他個(gè)人信息聚合后,才體現(xiàn)出較強(qiáng)的敏感性。此類個(gè)人信息難以在信息收集階段被預(yù)先篩選、識(shí)別和過(guò)濾,需要在后續(xù)處理和結(jié)果輸出階段被嚴(yán)格控制。

(二)

“寬進(jìn)嚴(yán)出”模式下已公開(kāi)個(gè)人信息處理規(guī)則的具體解釋

1.重構(gòu)“合理的范圍”解釋路徑

目前,對(duì)“合理的范圍”進(jìn)行寬松化解釋的方案主要有兩種:第一種是針對(duì)特定場(chǎng)景如生成式人工智能的數(shù)據(jù)訓(xùn)練階段放寬限制或豁免限制,必要時(shí)可通過(guò)立法進(jìn)行例外規(guī)定。第二種是引入科研和業(yè)務(wù)改進(jìn)例外的數(shù)據(jù)合理使用制度,建立訓(xùn)練數(shù)據(jù)“安全港”制度。兩種方案都更偏向于立法論,并且對(duì)所有類型數(shù)據(jù)采取一體化放寬視角。本文認(rèn)為,可以從解釋論和雙元解釋路徑視角,對(duì)已公開(kāi)個(gè)人信息處理規(guī)則中的“合理的范圍”重新進(jìn)行解釋。

無(wú)論采取何種解釋方案,“合理的范圍”最終會(huì)被化為對(duì)處理目的和處理方式是否合理的考察。但是,該要件不應(yīng)當(dāng)承載過(guò)重的任務(wù),即不應(yīng)當(dāng)容納所有的已公開(kāi)個(gè)人信息合理處理內(nèi)容。否則該要件將更難以被把握,進(jìn)而使整個(gè)條款的適用難度都加大,與條款推動(dòng)已公開(kāi)個(gè)人信息合理利用的初衷背道而馳。其應(yīng)當(dāng)發(fā)揮的功能,是支持目的限制原則在已公開(kāi)個(gè)人信息處理中采用“寬進(jìn)嚴(yán)出”模式解釋方案,并繼續(xù)作為基石條款,為其他一般原則在已公開(kāi)個(gè)人信息處理中的適用提供解釋論上的指引。因此,“合理的范圍”應(yīng)當(dāng)具體包含如下內(nèi)容:第一,確保個(gè)人信息收集目的合法正當(dāng),且相對(duì)明確(明確性程度應(yīng)符合行業(yè)相關(guān)群體共識(shí))。第二,處理方式與收集目的存在直接關(guān)聯(lián)或合理關(guān)聯(lián)。第三,通過(guò)處理結(jié)果驗(yàn)證,處理方式是否與收集目的相關(guān),以及處理方式自身是否合理。如果處理結(jié)果具有侵害性,且處理者存在對(duì)應(yīng)過(guò)錯(cuò),則可以倒推已公開(kāi)個(gè)人信息處理方式的不合理,進(jìn)而得出個(gè)人信息處理不在合理的范圍內(nèi)。有學(xué)者認(rèn)為,在對(duì)收集目的放寬后,沒(méi)有必要再對(duì)處理方式與收集目的的關(guān)系解釋為“相兼容”,而應(yīng)嚴(yán)格按照文義表達(dá)的“直接相關(guān)”解釋。對(duì)此,本文并不贊同。首先,該觀點(diǎn)僅考慮到已公開(kāi)個(gè)人信息處理,卻沒(méi)有考慮到并非所有情形下,收集目的都可以被放寬解釋。在未公開(kāi)個(gè)人信息處理中,收集目的仍應(yīng)遵循《個(gè)人信息保護(hù)法》第17條規(guī)定,此時(shí)收集目的與處理方式之間的關(guān)系采取“相兼容”標(biāo)準(zhǔn)就有其必要性。其次,“相兼容”標(biāo)準(zhǔn)既然已經(jīng)在其他規(guī)定和實(shí)踐中被認(rèn)可與使用,此時(shí)再對(duì)其否定而適用嚴(yán)格解釋,顯然不妥。在生成式人工智能場(chǎng)景下,上述規(guī)則亦能被適用,因?yàn)樵搱?chǎng)景中的處理結(jié)果主要為生成式人工智能輸出結(jié)果。其輸出結(jié)果的侵害性是指直接輸出他人隱私和個(gè)人信息,或輸出結(jié)果系與個(gè)人信息主體相關(guān)的虛假信息、錯(cuò)誤信息等。對(duì)此,判定處理者是否存在過(guò)錯(cuò),需在現(xiàn)有技術(shù)水平下。因此,“寬進(jìn)嚴(yán)出”模式充分考慮了生成式人工智能這類新技術(shù)的特征,對(duì)處理目的明確性要求放寬,僅要求其符合生成式人工智能的技術(shù)特征,達(dá)到行業(yè)相關(guān)群體共識(shí)。簡(jiǎn)言之,其對(duì)已公開(kāi)個(gè)人信息處理是否在“合理的范圍”內(nèi),可以通過(guò)內(nèi)容輸出“存在侵害結(jié)果+處理者過(guò)錯(cuò)”方式進(jìn)行倒推認(rèn)定。

這種解釋路徑充分吸收了技術(shù)主義思路。已公開(kāi)個(gè)人信息處理規(guī)則需要不斷接受新技術(shù)和新場(chǎng)景的考驗(yàn),故而在規(guī)則解釋方案上應(yīng)與技術(shù)主義解決方案彼此配合。技術(shù)主義在回應(yīng)“總得有法律來(lái)防止此事”的要求時(shí),不是起草新的法律規(guī)則,而是尋找技術(shù)上的解決方案。因此,現(xiàn)有規(guī)則對(duì)個(gè)人信息權(quán)益的保護(hù)應(yīng)與技術(shù)上的解決方案配合,從對(duì)不法行為的糾正和懲罰轉(zhuǎn)向預(yù)防和排除,從依賴規(guī)則和標(biāo)準(zhǔn)轉(zhuǎn)向采用技術(shù)解釋方案。實(shí)際上,技術(shù)主義思路不僅在《個(gè)人信息保護(hù)法》第24條的自動(dòng)化決策場(chǎng)景中已經(jīng)出現(xiàn),同時(shí)在我國(guó)2023年出臺(tái)的《暫行辦法》中也有所體現(xiàn)。《暫行辦法》第4條第5項(xiàng)規(guī)定:“基于服務(wù)類型特點(diǎn),采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性?!边@里的“基于服務(wù)類型特點(diǎn)”和“采取有效措施”一定程度上體現(xiàn)了尊重技術(shù)特性和技術(shù)解釋方案。

在采取上述方案的情況下,本文提出的對(duì)《個(gè)人信息保護(hù)法》第6條第1款“目的限制原則”構(gòu)建解釋論上的“雙元路徑”即已實(shí)現(xiàn)。在未公開(kāi)個(gè)人信息處理活動(dòng)中,目的限制原則仍應(yīng)被解釋為目的明確、特定、具體,從而和《個(gè)人信息保護(hù)法》第14條和第17條規(guī)定對(duì)應(yīng)。在已公開(kāi)個(gè)人信息處理活動(dòng)中,目的限制原則可以被解釋為目的相對(duì)明確,符合行業(yè)相關(guān)群體共識(shí)。在處理目的和處理方式的關(guān)系上,兩者都采用“相兼容”標(biāo)準(zhǔn)。如此,已公開(kāi)個(gè)人信息處理中,目的限制原則的控制功能被一定程度弱化,但通過(guò)加強(qiáng)控制處理結(jié)果的方式又得到補(bǔ)強(qiáng)。《個(gè)人信息保護(hù)法》第24條對(duì)自動(dòng)化決策中個(gè)人信息處理的規(guī)定可以印證。

2.告知義務(wù)的豁免與個(gè)人拒絕權(quán)的合理配置

已公開(kāi)個(gè)人信息處理中,告知義務(wù)并非信息處理者必須履行的義務(wù),個(gè)人信息主體行使拒絕權(quán)也不以告知義務(wù)的履行為前提。原因在于,告知義務(wù)系擇入同意的對(duì)稱義務(wù),被明確規(guī)定在未公開(kāi)個(gè)人信息和敏感個(gè)人信息相關(guān)規(guī)定中。它不應(yīng)也無(wú)必要被擴(kuò)大適用到已公開(kāi)個(gè)人信息處理中。雖然《個(gè)人信息保護(hù)法》第44條賦予了個(gè)人信息主體的一般知情權(quán),但從中也不能直接推導(dǎo)出,處理者負(fù)擔(dān)告知義務(wù)。比較法上,對(duì)欠缺互動(dòng)關(guān)系的個(gè)人信息處理活動(dòng)往往豁免告知義務(wù)。比如,美國(guó)《加州消費(fèi)者隱私法案》(ccpa)專門(mén)強(qiáng)調(diào)豁免間接收集個(gè)人信息當(dāng)事人的告知義務(wù)。而歐盟gdpr第14.5b條指出,如果告知義務(wù)的履行不可能或涉及不成比例的努力,特別是為了公眾利益、科學(xué)或歷史研究或統(tǒng)計(jì)目的而進(jìn)行的處理,可以豁免告知義務(wù)。

從功能上看,告知義務(wù)可以部分被《個(gè)人信息保護(hù)法》第7條公開(kāi)透明原則下的信息披露義務(wù)所替代,但兩者的側(cè)重點(diǎn)并不相同。告知義務(wù)的直接目的是確保個(gè)人信息主體在充分知情的前提下自愿、明確作出同意。信息披露義務(wù)則是為了解決信息不對(duì)稱問(wèn)題,它既不專門(mén)針對(duì)個(gè)人信息主體,在披露目的上也不直接指向個(gè)人信息主體的知情同意。學(xué)理上,有人對(duì)兩者不免混淆,進(jìn)而得出應(yīng)強(qiáng)化告知義務(wù)的結(jié)論。但實(shí)際上兩者在內(nèi)容、形式、范圍和方法上均有所不同。《個(gè)人信息保護(hù)法》第17條明確規(guī)定了告知義務(wù)的履行內(nèi)容、形式、范圍和方法。《個(gè)人信息保護(hù)法》第18條第1款和第35條對(duì)告知義務(wù)的豁免規(guī)定,針對(duì)的都是該條。但是,直接源自《個(gè)人信息保護(hù)法》第7條公開(kāi)透明原則的信息披露義務(wù)卻需要根據(jù)個(gè)人信息處理的具體場(chǎng)景而被具體規(guī)定。比如,《暫行辦法》規(guī)定了生成式人工智能服務(wù)的透明度要求,訓(xùn)練數(shù)據(jù)的透明度理應(yīng)成為其中的重要組成部分。學(xué)理上也探討了生成式人工智能服務(wù)者對(duì)訓(xùn)練數(shù)據(jù)相關(guān)信息如何履行信息披露義務(wù)。如有學(xué)者提出,應(yīng)當(dāng)構(gòu)建梯次披露配置,并對(duì)特定情形作出例外規(guī)定,形成多方參與的規(guī)范實(shí)施機(jī)制??紤]到不同技術(shù)和處理場(chǎng)景之間的差異性,信息披露義務(wù)的細(xì)化很難在《個(gè)人信息保護(hù)法》中完成,有賴于更為細(xì)化的專門(mén)規(guī)定。

個(gè)人拒絕權(quán)的行使方式、時(shí)間和效果會(huì)受到具體場(chǎng)景下信息處理技術(shù)特性的限制,對(duì)此應(yīng)正視和接受。比如在生成式人工智能場(chǎng)景下,個(gè)人拒絕權(quán)的行使會(huì)“前移”和“后置”。所謂“前移”,是指面對(duì)大規(guī)模數(shù)據(jù)爬取技術(shù),已公開(kāi)個(gè)人信息主體只有在自行公開(kāi)個(gè)人信息的同時(shí)表達(dá)拒絕個(gè)人信息被再處理,該拒絕權(quán)的行使才有意義。此時(shí)的拒絕權(quán)類似于自動(dòng)化決策場(chǎng)景中的拒絕自動(dòng)化決策本身之權(quán)利,可被命名為拒絕生成式人工智能處理權(quán)。同時(shí),這種表達(dá)還需要得到發(fā)布個(gè)人信息平臺(tái)在技術(shù)上的支持,比如平臺(tái)需要提供可機(jī)讀的標(biāo)識(shí)服務(wù),才有可能避免生成式人工智能對(duì)其進(jìn)行抓取的可能。因?yàn)橐坏﹤€(gè)人信息被打上禁止被處理的標(biāo)識(shí),人工智能系統(tǒng)就不得使用該信息進(jìn)行訓(xùn)練。可機(jī)讀的標(biāo)識(shí)模式是人工智能時(shí)代拒絕權(quán)的重要行使方式。一旦個(gè)人信息主體未在該階段行使拒絕權(quán),則通常只能在處理結(jié)果輸出后行使拒絕權(quán)。此時(shí)即為個(gè)人拒絕權(quán)的“后置”。

以生成式人工智能為例,“后置”的個(gè)人拒絕權(quán)可以被細(xì)化為兩類:內(nèi)容生成拒絕權(quán)和內(nèi)容直接輸出拒絕權(quán)。根據(jù)《暫行規(guī)定》第14條規(guī)定,提供者發(fā)現(xiàn)違法內(nèi)容后,應(yīng)當(dāng)及時(shí)采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門(mén)報(bào)告。這表明,拒絕內(nèi)容生成和拒絕內(nèi)容輸出是不同的,拒絕內(nèi)容生成涉及算法優(yōu)化和調(diào)整,拒絕內(nèi)容輸出則涉及屏蔽、過(guò)濾措施等。有觀點(diǎn)認(rèn)為,拒絕權(quán)主要體現(xiàn)為拒絕內(nèi)容直接輸出。該觀點(diǎn)顯然未考慮到,并非所有內(nèi)容的直接輸出都能夠通過(guò)屏蔽、過(guò)濾措施阻卻,生成式人工智能服務(wù)提供者對(duì)此的履行程度以是否盡到注意義務(wù)為限。更為根本性的措施,是通過(guò)算法優(yōu)化和調(diào)整來(lái)阻止相關(guān)內(nèi)容的生成??傮w而言,生成式人工智能服務(wù)提供者回應(yīng)拒絕權(quán)也應(yīng)有界限,即其在履行方式和程度上應(yīng)以“現(xiàn)有技術(shù)水平”為限,具體措施應(yīng)在技術(shù)和成本層面具有合理性。

3.在具體場(chǎng)景整體風(fēng)險(xiǎn)評(píng)估中展開(kāi)“對(duì)個(gè)人權(quán)益有重大影響”的評(píng)估

離開(kāi)具體場(chǎng)景的整體風(fēng)險(xiǎn)評(píng)估而單獨(dú)談“對(duì)個(gè)人權(quán)益有重大影響”的評(píng)估并無(wú)意義。相比于“合理的范圍”這一要件,“對(duì)個(gè)人權(quán)益有重大影響”作為一種事前風(fēng)險(xiǎn)評(píng)估措施,實(shí)際上更宜容納不同方面的要求。

從程序上看,已公開(kāi)個(gè)人信息是否“對(duì)個(gè)人權(quán)益有重大影響”的評(píng)估應(yīng)當(dāng)被置于具體場(chǎng)景的整體風(fēng)險(xiǎn)評(píng)估中。對(duì)此可以借鑒個(gè)人信息安全影響評(píng)估的規(guī)范性文件《指南》。其評(píng)估過(guò)程分為兩部分:對(duì)個(gè)人權(quán)益影響及程度,安全保護(hù)措施有效性。由此可以評(píng)估出安全事件發(fā)生的可能性,最終能夠得出個(gè)人信息處理活動(dòng)的安全風(fēng)險(xiǎn)等級(jí)。在具體評(píng)估方式上,《指南》首先對(duì)個(gè)人信息敏感程度進(jìn)行分析,然后分析個(gè)人信息處理活動(dòng)特點(diǎn)及其中存在的問(wèn)題,最終綜合得出對(duì)個(gè)人權(quán)益影響的程度?!吨改稀穌.4還專門(mén)對(duì)上述四個(gè)維度造成的個(gè)人權(quán)益影響程度進(jìn)行了“嚴(yán)重、高、中、低”四檔列舉。此外,2023年發(fā)布的《自動(dòng)化決策意見(jiàn)稿》也在第11章專門(mén)規(guī)定了“對(duì)個(gè)人權(quán)益有重大影響的自動(dòng)化決策典型場(chǎng)景特殊要求”。


圖1 《信息安全技術(shù)個(gè)人信息安全影響評(píng)估指南》評(píng)估原理圖

從內(nèi)容上看,不同場(chǎng)景中“對(duì)個(gè)人權(quán)益有重大影響”的情形也不同,應(yīng)通過(guò)專門(mén)的規(guī)章或指南規(guī)定具體內(nèi)容。具體內(nèi)容應(yīng)包括兩類:第一類是處理結(jié)果,第二類是處理系統(tǒng)本身的風(fēng)險(xiǎn)。比如,生成式人工智能“對(duì)個(gè)人權(quán)益有重大影響”的情形主要指向了輸出內(nèi)容對(duì)個(gè)人信息的泄露、錯(cuò)誤關(guān)聯(lián)和虛假內(nèi)容,從而對(duì)個(gè)人權(quán)益帶來(lái)重大影響?!稌盒修k法》第4條第4項(xiàng)規(guī)定,“不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個(gè)人信息權(quán)益”。此系對(duì)“重大影響”的具體列舉。此外,生成式人工智能大模型本身可能也會(huì)“對(duì)個(gè)人權(quán)益有重大影響”,對(duì)此可以借鑒《歐盟人工智能法案》對(duì)大型人工智能系統(tǒng)的評(píng)估方案,比如其明令禁止開(kāi)發(fā)和使用四類人工智能,同時(shí)對(duì)人工智能系統(tǒng)風(fēng)險(xiǎn)進(jìn)行分級(jí)分類管理。

4.應(yīng)確保特定場(chǎng)景下已公開(kāi)個(gè)人信息的“嚴(yán)出”

所謂“嚴(yán)出”,是指特定場(chǎng)景下,處理結(jié)果應(yīng)依據(jù)相關(guān)規(guī)定而被嚴(yán)格控制。僅從《個(gè)人信息保護(hù)法》第27條規(guī)定看,其似乎對(duì)于已公開(kāi)個(gè)人信息再利用的結(jié)果控制不足。如果將該條與《個(gè)人信息保護(hù)法》第24條關(guān)聯(lián)起來(lái),可知結(jié)果控制仍隱含在第27條的規(guī)定之中。無(wú)論是從“合理的范圍”還是從“對(duì)個(gè)人權(quán)益有重大影響”的要件中,都可以推理出已公開(kāi)個(gè)人信息處理結(jié)果應(yīng)受到控制,應(yīng)滿足合法、合理、正當(dāng)?shù)纫螅駝t,已公開(kāi)個(gè)人信息處理可能不在“合理的范圍”內(nèi),或?qū)€(gè)人權(quán)益產(chǎn)生重大影響。此外,在特定場(chǎng)景下,也有專門(mén)規(guī)定會(huì)對(duì)處理結(jié)果提出具體要求。

已公開(kāi)個(gè)人信息在特定場(chǎng)景下應(yīng)當(dāng)“嚴(yán)出”的另一個(gè)理由,是為應(yīng)對(duì)“算法黑箱”和碎片信息聚合問(wèn)題?!八惴ê谙洹辈粌H在自動(dòng)化決策中存在,在當(dāng)下的生成式人工智能中同樣存在。它使處理結(jié)果一定程度上呈現(xiàn)不可控性,即便信息收集階段合法合規(guī)。碎片信息聚合則可能導(dǎo)致敏感個(gè)人信息、隱私信息被直接輸出,同樣也加大了處理結(jié)果的不確定性。在生成式人工智能場(chǎng)景下,輸出結(jié)果產(chǎn)生如上問(wèn)題,會(huì)給個(gè)人信息主體帶來(lái)隱私泄露、安寧侵?jǐn)_、名譽(yù)受損和個(gè)人信息權(quán)益侵害等問(wèn)題。如果沒(méi)有在處理結(jié)果上進(jìn)行控制,這些問(wèn)題將會(huì)直接給個(gè)體帶來(lái)侵害結(jié)果,甚至被用來(lái)進(jìn)行違法犯罪活動(dòng)。

未來(lái),已公開(kāi)個(gè)人信息的處理結(jié)果應(yīng)當(dāng)進(jìn)一步得到合理控制。因?yàn)樗赡軙?huì)直接影響物理世界,發(fā)生不可預(yù)知的侵害后果。在技術(shù)更為復(fù)雜的人工智能體(ai agent)場(chǎng)景中,人工智能體是能自主規(guī)劃且執(zhí)行行動(dòng)的人工智能系統(tǒng),甚至其中的具身智能將會(huì)對(duì)外部環(huán)境直接產(chǎn)生影響。比如,“強(qiáng)人工智能”甚至“超人工智能”技術(shù)的發(fā)展,可能使得人工智能可以部分替代人類參與司法裁判,擁有“準(zhǔn)主體”地位。而在人類的生活和工作中,人工智能體的深度嵌入也會(huì)重塑人機(jī)關(guān)系,人機(jī)協(xié)同乃至人機(jī)共生將成為常態(tài)。此種情況下,人工智能體的信息處理結(jié)果不僅會(huì)直接作用于物理世界,也會(huì)對(duì)人類認(rèn)知帶來(lái)影響,甚至因此導(dǎo)致難以預(yù)料的極端情況。

結(jié)語(yǔ)

鑒于已公開(kāi)個(gè)人信息處理規(guī)則本身的局限,以及當(dāng)下新技術(shù)和新場(chǎng)景對(duì)其帶來(lái)的重大挑戰(zhàn),已公開(kāi)個(gè)人信息保護(hù)有必要從“嚴(yán)進(jìn)寬出”模式轉(zhuǎn)向“寬進(jìn)嚴(yán)出”模式。在“寬進(jìn)嚴(yán)出”模式下,以《個(gè)人信息保護(hù)法》第24條的自動(dòng)化決策規(guī)則為借鑒,已公開(kāi)個(gè)人信息處理規(guī)則應(yīng)重塑“合理的范圍”之解釋路徑,在《個(gè)人信息保護(hù)法》第6條第1款的范圍內(nèi)形成與未公開(kāi)個(gè)人信息保護(hù)模式區(qū)分的“雙元路徑”。在“合理的范圍”解釋路徑指引下,個(gè)人拒絕權(quán)與“對(duì)個(gè)人權(quán)益有重大影響”應(yīng)被進(jìn)一步細(xì)化解釋。最終,已有規(guī)則的解釋方案更為尊重特定場(chǎng)景的技術(shù)特征,并在個(gè)人信息保護(hù)中更多吸收技術(shù)主義理念,從而合理配置有效的規(guī)則體系。已公開(kāi)個(gè)人信息保護(hù)從“嚴(yán)進(jìn)寬出”模式轉(zhuǎn)向“寬進(jìn)嚴(yán)出”模式,是技術(shù)與法律互動(dòng)的生動(dòng)寫(xiě)照和典型范例。


熊波|數(shù)據(jù)財(cái)產(chǎn)的獨(dú)立性構(gòu)造與刑法保護(hù)

姚萬(wàn)勤|“知情同意”與侵犯公民個(gè)人信息罪的出罪機(jī)制

郭雨婷|構(gòu)建風(fēng)險(xiǎn)分級(jí)導(dǎo)向的人工智能系統(tǒng)備案制度

魏慶坡|去中心化自治組織的法治化:從組織擬制到實(shí)質(zhì)控制

畢文軒|元宇宙平臺(tái)互操作實(shí)現(xiàn)的激勵(lì)型治理

吳逸越|數(shù)實(shí)融合產(chǎn)品出賣(mài)人主給付義務(wù)的重構(gòu)

上海市法學(xué)會(huì)官網(wǎng)

http://www.sls.org.cn



上觀號(hào)作者:上海市法學(xué)會(huì)

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
萊納德26+8快船逆轉(zhuǎn)活塞2連勝,科林斯25分哈登19+7+7

萊納德26+8快船逆轉(zhuǎn)活塞2連勝,科林斯25分哈登19+7+7

湖人崛起
2026-01-11 11:08:27
庫(kù)皮揚(yáng)斯克俄兵投降,哈馬斯歷史翻篇

庫(kù)皮揚(yáng)斯克俄兵投降,哈馬斯歷史翻篇

名人茍或
2026-01-11 17:14:51
雷軍放話:SU7已擊敗Model 3,YU7一直沒(méi)大力推廣,準(zhǔn)備發(fā)力……

雷軍放話:SU7已擊敗Model 3,YU7一直沒(méi)大力推廣,準(zhǔn)備發(fā)力……

柴狗夫斯基
2026-01-10 21:49:03
電詐“殺”到西半球:400美國(guó)人被騙2億美元,智利出動(dòng)500探員抓捕,涉119家洗錢(qián)公司

電詐“殺”到西半球:400美國(guó)人被騙2億美元,智利出動(dòng)500探員抓捕,涉119家洗錢(qián)公司

紅星新聞
2026-01-10 19:39:16
博主:落選U23亞洲杯大名單的朱鵬宇將在今日前往國(guó)家隊(duì)報(bào)到

博主:落選U23亞洲杯大名單的朱鵬宇將在今日前往國(guó)家隊(duì)報(bào)到

懂球帝
2026-01-11 14:13:08
特朗普:將不會(huì)再有石油或資金流入古巴

特朗普:將不會(huì)再有石油或資金流入古巴

財(cái)聯(lián)社
2026-01-11 20:50:05
劉燁的基因太強(qiáng)大了,兒子太像他了,諾一是中法混血兒,很帥

劉燁的基因太強(qiáng)大了,兒子太像他了,諾一是中法混血兒,很帥

手工制作阿殲
2026-01-11 03:00:48
中國(guó)向全球曝光美4400顆衛(wèi)星圍堵中國(guó)空間站

中國(guó)向全球曝光美4400顆衛(wèi)星圍堵中國(guó)空間站

花寒弦絮
2026-01-09 22:03:26
官方稱亞運(yùn)“三金”得主舉報(bào)基本屬實(shí),還有四個(gè)疑問(wèn)待說(shuō)清

官方稱亞運(yùn)“三金”得主舉報(bào)基本屬實(shí),還有四個(gè)疑問(wèn)待說(shuō)清

極目新聞
2026-01-11 14:13:44
表面是說(shuō)車,實(shí)際是開(kāi)車,哈哈哈哈哈

表面是說(shuō)車,實(shí)際是開(kāi)車,哈哈哈哈哈

深度報(bào)
2026-01-10 22:18:27
一顆老鼠屎壞一鍋粥!央8《小城大事》遭惡評(píng),這戲混子擔(dān)大責(zé)任

一顆老鼠屎壞一鍋粥!央8《小城大事》遭惡評(píng),這戲混子擔(dān)大責(zé)任

卷史
2026-01-11 14:18:31
你們可能被特朗普騙了,特朗普有可能真的是美國(guó)最偉大的總統(tǒng)

你們可能被特朗普騙了,特朗普有可能真的是美國(guó)最偉大的總統(tǒng)

流蘇晚晴
2026-01-10 16:24:45
閆學(xué)晶的拼搏:20歲嫁30歲小老板,給8歲小妹妹當(dāng)后媽

閆學(xué)晶的拼搏:20歲嫁30歲小老板,給8歲小妹妹當(dāng)后媽

小小河
2026-01-10 20:21:22
江蘇35歲男子被騙到柬埔寨!妻子接到遺言電話,不止詐騙這么簡(jiǎn)單

江蘇35歲男子被騙到柬埔寨!妻子接到遺言電話,不止詐騙這么簡(jiǎn)單

李健政觀察
2026-01-10 14:45:38
林詩(shī)棟心態(tài)崩盤(pán),單局被打1-10!中國(guó)男乒全軍覆沒(méi),王皓仰天長(zhǎng)嘆

林詩(shī)棟心態(tài)崩盤(pán),單局被打1-10!中國(guó)男乒全軍覆沒(méi),王皓仰天長(zhǎng)嘆

楊哥乒乓
2026-01-11 20:03:02
2025年NBA球員收入榜前10榜單發(fā)布:庫(kù)里11.20億元 詹姆斯9.66億

2025年NBA球員收入榜前10榜單發(fā)布:庫(kù)里11.20億元 詹姆斯9.66億

體壇八點(diǎn)半的那些事兒
2026-01-11 21:08:32
河南新蔡13歲學(xué)生死亡后續(xù):左胸部針孔和嘴角紅色液體解釋來(lái)了

河南新蔡13歲學(xué)生死亡后續(xù):左胸部針孔和嘴角紅色液體解釋來(lái)了

江山揮筆
2026-01-11 09:27:07
16GB+1TB!新機(jī)官宣:1月19日,新品正式發(fā)布!

16GB+1TB!新機(jī)官宣:1月19日,新品正式發(fā)布!

科技堡壘
2026-01-09 11:44:41
伊朗總統(tǒng)稱正全力通過(guò)根除腐敗來(lái)改善民生

伊朗總統(tǒng)稱正全力通過(guò)根除腐敗來(lái)改善民生

界面新聞
2026-01-11 07:01:41
1980年,王光美拿過(guò)追悼會(huì)名單,狠狠劃掉幾人,卻添上個(gè)正在挨整的將軍:他對(duì)咱家有恩

1980年,王光美拿過(guò)追悼會(huì)名單,狠狠劃掉幾人,卻添上個(gè)正在挨整的將軍:他對(duì)咱家有恩

源溯歷史
2026-01-07 19:28:08
2026-01-11 22:43:00
上觀新聞 incentive-icons
上觀新聞
站上海,觀天下
416793文章數(shù) 758677關(guān)注度
往期回顧 全部

頭條要聞

4.5萬(wàn)株草莓苗停止生長(zhǎng) 果農(nóng)急求助1小時(shí)后獲專家回應(yīng)

頭條要聞

4.5萬(wàn)株草莓苗停止生長(zhǎng) 果農(nóng)急求助1小時(shí)后獲專家回應(yīng)

體育要聞

U23國(guó)足形勢(shì):末輪不負(fù)泰國(guó)即確保晉級(jí)

娛樂(lè)要聞

留幾手為閆學(xué)晶叫屈?稱網(wǎng)友自卑敏感

財(cái)經(jīng)要聞

外賣(mài)平臺(tái)"燒錢(qián)搶存量市場(chǎng)"迎來(lái)終局?

科技要聞

“我們與美國(guó)的差距也許還在拉大”

汽車要聞

2026款宋Pro DM-i長(zhǎng)續(xù)航補(bǔ)貼后9.98萬(wàn)起

態(tài)度原創(chuàng)

游戲
教育
時(shí)尚
親子
藝術(shù)

《堡壘之夜》聯(lián)動(dòng)鬧誤會(huì)!老外竟不知VTuber老祖

教育要聞

現(xiàn)在最雞娃的群體就是體制內(nèi)的成員!

當(dāng)一個(gè)57歲的女人,決定從零開(kāi)始

親子要聞

晨時(shí)評(píng) | 新生兒疑被助產(chǎn)士剪斷手指,別用孩子亂動(dòng)推卸責(zé)任

藝術(shù)要聞

砸18億!游戲巨頭落子廣州!詩(shī)悅網(wǎng)絡(luò)總部大樓新進(jìn)展

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版