国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

建立信任 人工智能 框架、應(yīng)用程序和就緒性自我評(píng)估

0
分享至

建立信任 人工智能 框架、應(yīng)用程序和就緒性自我評(píng)估

Building Trustworthy Artificial Intelligence Frameworks, Applications, and Self-Assessment for Readiness

https://documents1.worldbank.org/curated/en/099805309022518222/pdf/IDU-1e9a05ec-ab52-425d-a18a-c9c91ed04a37.pdf




  1. 引言

人工智能(AI)在公共治理中的變革潛力日益受到發(fā)達(dá)經(jīng)濟(jì)體與發(fā)展中國(guó)家的共同重視。各國(guó)政府正積極探索并采納AI技術(shù),以提升公共服務(wù)供給質(zhì)量、優(yōu)化行政效率,并強(qiáng)化數(shù)據(jù)驅(qū)動(dòng)的決策能力。然而,將AI融入公共系統(tǒng)也帶來(lái)了倫理、技術(shù)與制度層面的多重挑戰(zhàn)——從算法偏見(jiàn)、透明度缺失,到數(shù)據(jù)隱私風(fēng)險(xiǎn)與監(jiān)管碎片化等問(wèn)題。在公共部門(mén)語(yǔ)境下,此類挑戰(zhàn)尤為突出,因該領(lǐng)域?qū)?strong>信任、問(wèn)責(zé)與公平具有根本性要求。

本文旨在回應(yīng)一個(gè)核心問(wèn)題:公共機(jī)構(gòu)應(yīng)如何以負(fù)責(zé)任的方式采納AI,同時(shí)保障隱私、促進(jìn)公平并確保問(wèn)責(zé)? 具體而言,本文聚焦于政府機(jī)構(gòu)在可信且負(fù)責(zé)任地實(shí)施AI技術(shù)方面的準(zhǔn)備程度

本文的主要讀者群體包括參與公共部門(mén)AI設(shè)計(jì)、監(jiān)督與實(shí)施的相關(guān)利益方,涵蓋:公共部門(mén)領(lǐng)導(dǎo)者、技術(shù)政策制定者、數(shù)字治理專業(yè)人員,以及致力于制度能力建設(shè)與數(shù)字化轉(zhuǎn)型的發(fā)展合作伙伴。盡管全球范圍內(nèi)關(guān)于可信AI的框架持續(xù)演進(jìn),且倫理原則已得到廣泛討論,許多政府團(tuán)隊(duì)在將這些高層理念轉(zhuǎn)化為實(shí)際操作決策時(shí)仍面臨困難——尤其是在資源受限或制度碎片化的環(huán)境中。

為彌合這一鴻溝,本文兼顧理論奠基實(shí)踐工具支持
第一,系統(tǒng)梳理支撐可信AI治理的關(guān)鍵倫理考量與國(guó)際框架;
第二,介紹可緩解AI部署中新興風(fēng)險(xiǎn)的相關(guān)技術(shù)方案,包括可解釋性模型、隱私增強(qiáng)技術(shù)(PETs)及算法公平性方法;
第三,提出一套面向公共機(jī)構(gòu)的自評(píng)估工具包:涵蓋AI應(yīng)用決策流程圖與數(shù)據(jù)隱私準(zhǔn)備度檢查清單。這些工具旨在幫助公共部門(mén)行動(dòng)者評(píng)估自身準(zhǔn)備狀況、識(shí)別制度短板,并在AI采納前優(yōu)化內(nèi)部協(xié)調(diào)流程。

通過(guò)連接理論與實(shí)踐,本文為全球構(gòu)建合法、合乎倫理、包容且植根于制度現(xiàn)實(shí)的可信AI的持續(xù)努力作出貢獻(xiàn)。

  1. 人工智能在公共治理中的應(yīng)用

人工智能(AI)在提升公共治理方面展現(xiàn)出巨大潛力,包括優(yōu)化政策制定流程、提供更加個(gè)性化的服務(wù)以及推動(dòng)創(chuàng)新。然而,政府對(duì)AI的采納也引發(fā)了圍繞隱私、公平性與問(wèn)責(zé)制等關(guān)鍵倫理問(wèn)題的重要關(guān)切。本節(jié)將探討AI如何在公共部門(mén)中加以應(yīng)用,概述核心倫理考量,并介紹構(gòu)建可信AI系統(tǒng)所需的基礎(chǔ)概念。

2.1 AI在公共服務(wù)領(lǐng)域推動(dòng)創(chuàng)新與效率的潛力

AI致力于開(kāi)發(fā)能夠執(zhí)行通常需人類智能才能完成的任務(wù)(如學(xué)習(xí)、問(wèn)題求解與決策)的計(jì)算機(jī)系統(tǒng)。在AI語(yǔ)境下討論“最優(yōu)政策制定”,指的是利用AI的上述能力,通過(guò)高效、準(zhǔn)確地分析海量數(shù)據(jù),顯著優(yōu)化政策流程。其具體體現(xiàn)為以下方面:

  1. 提升流程效率:AI可實(shí)現(xiàn)任務(wù)自動(dòng)化,快速分析數(shù)據(jù),并識(shí)別人類可能忽略的模式,從而加快決策速度并提升決策質(zhì)量;
  2. 改善服務(wù)供給:AI可實(shí)現(xiàn)服務(wù)個(gè)性化、預(yù)測(cè)未來(lái)需求,并提升服務(wù)的可及性與質(zhì)量。

通過(guò)強(qiáng)化這些核心能力,AI可在多個(gè)領(lǐng)域推動(dòng)高效且有效的流程變革。AI技術(shù)的應(yīng)用場(chǎng)景極為廣泛,涵蓋數(shù)據(jù)分析、模式識(shí)別及基于AI的仿真等實(shí)踐。本節(jié)將通過(guò)具體案例考察其應(yīng)用,并呈現(xiàn)AI技術(shù)實(shí)際落地的實(shí)施藍(lán)圖,同時(shí)探討其潛在的法律影響與挑戰(zhàn)。

2.1.1 政策制定流程的效率提升

AI可通過(guò)分析海量數(shù)據(jù)徹底革新政策制定流程(Deloitte, 2017),使政府更高效地尋求復(fù)雜社會(huì)問(wèn)題的解決方案,并優(yōu)化資源配置(Margetts & Dorobantu, 2019)。相較于傳統(tǒng)以人力為中心的分析方法,AI處理數(shù)據(jù)的速度更快、精度更高,使政策制定者能迅速把握快速變化的社會(huì)經(jīng)濟(jì)指標(biāo),并及時(shí)作出響應(yīng)。此外,AI還可通過(guò)開(kāi)展復(fù)雜的情景模擬與風(fēng)險(xiǎn)評(píng)估,降低決策風(fēng)險(xiǎn)——例如,利用機(jī)器學(xué)習(xí)模型預(yù)測(cè)不同政策干預(yù)方案的長(zhǎng)期社會(huì)影響,從而支持更穩(wěn)健的政策選擇。

通過(guò)開(kāi)展復(fù)雜的情景模擬與預(yù)測(cè)建模,AI可提前分析不同政策選項(xiàng)的潛在結(jié)果。例如,利用自然語(yǔ)言處理(NLP)技術(shù)分析公眾輿論或媒體報(bào)道,有助于把握社會(huì)情緒,并將其納入政策制定過(guò)程。
盡管AI可在一定程度上緩解某些人類偏見(jiàn)(如判斷不一致等問(wèn)題),但它也帶來(lái)了新的風(fēng)險(xiǎn),例如算法偏見(jiàn)與數(shù)據(jù)倫理使用問(wèn)題,這些風(fēng)險(xiǎn)必須予以審慎管理。

2.1.2 更優(yōu)質(zhì)的公共服務(wù)

AI可通過(guò)提供定制化公共服務(wù),實(shí)時(shí)把握并預(yù)測(cè)公民需求(Mehr, 2017)。相關(guān)實(shí)例包括:基于聊天機(jī)器人(chatbot)的市民投訴響應(yīng)系統(tǒng),或通過(guò)預(yù)測(cè)性分析優(yōu)化交通流控——此類應(yīng)用有助于提升公民生活質(zhì)量(OECD, 2019a)。AI在提升公共服務(wù)的個(gè)性化可及性方面發(fā)揮關(guān)鍵作用:借助機(jī)器學(xué)習(xí)(ML)算法分析個(gè)體公民的服務(wù)使用模式,可實(shí)現(xiàn)一系列個(gè)性化信息推送與服務(wù)供給。運(yùn)用語(yǔ)音識(shí)別與自然語(yǔ)言處理(NLP)技術(shù)的虛擬助手服務(wù),可提升殘障人士、老年人等數(shù)字弱勢(shì)群體的服務(wù)可及性。在交通領(lǐng)域,實(shí)時(shí)交通數(shù)據(jù)結(jié)合AI分析可預(yù)測(cè)擁堵?tīng)顩r并推薦替代路線,從而提升出行效率;在醫(yī)療健康領(lǐng)域,基于AI的疾病預(yù)測(cè)與預(yù)防服務(wù)切實(shí)可行,有助于增強(qiáng)公共衛(wèi)生政策的實(shí)效性。此類AI服務(wù)的拓展可提升公眾滿意度,并強(qiáng)化對(duì)政府的信任。然而,個(gè)人數(shù)據(jù)保護(hù)與安全相關(guān)問(wèn)題仍需審慎審視。

2.2 人工智能與政府治理中的倫理考量

隨著AI日益深度嵌入公共部門(mén)運(yùn)作,政府面臨愈加緊迫的使命:應(yīng)對(duì)AI應(yīng)用所伴生的倫理與治理挑戰(zhàn)。盡管AI具有變革性潛力——可提升服務(wù)供給質(zhì)量、政策響應(yīng)能力與運(yùn)營(yíng)效率,同時(shí)也帶來(lái)了復(fù)雜的新型風(fēng)險(xiǎn)(Floridi & Taddeo, 2016),包括數(shù)據(jù)隱私泄露、算法偏見(jiàn)、透明度缺失及問(wèn)責(zé)機(jī)制缺位等。AI系統(tǒng)的誤用或失靈可能導(dǎo)致嚴(yán)重的社會(huì)、經(jīng)濟(jì)與法律后果,因此政府亟需建立相應(yīng)的法規(guī)與政策,以管控并防范此類風(fēng)險(xiǎn)(Jobin, Ienca, & Vayena, 2019)。一套完備的AI治理框架應(yīng)致力于推動(dòng)AI的安全與合乎倫理的使用,同時(shí)在技術(shù)創(chuàng)新與社會(huì)價(jià)值之間保持平衡(G20, 2019)。通過(guò)確立清晰的規(guī)則與標(biāo)準(zhǔn),政府可切實(shí)保障公民權(quán)利與利益,并培育一個(gè)可信賴的AI生態(tài)系統(tǒng)(Fjeld et al., 2020)。

2.3 核心概念與術(shù)語(yǔ)

在AI領(lǐng)域,對(duì)核心概念與術(shù)語(yǔ)達(dá)成共識(shí),是確保其負(fù)責(zé)任開(kāi)發(fā)、應(yīng)用與治理的前提。下述定義全面涵蓋了與可信AI密切相關(guān)的關(guān)鍵概念,強(qiáng)調(diào)在公共與私營(yíng)部門(mén)各利益相關(guān)方之間,亟需協(xié)同推進(jìn)公平性、透明性、問(wèn)責(zé)性、隱私保護(hù)以及跨部門(mén)協(xié)作。

2.3.1 可信人工智能治理的核心概念

  1. 可信人工智能(Trustworthy AI):指滿足公平性、透明性、安全性與問(wèn)責(zé)性等核心要求的AI系統(tǒng),以確保其符合倫理與法律標(biāo)準(zhǔn),從而贏得公眾信任(Coeckelbergh, 2020;Fjeld et al., 2020;G20, 2019)。它還包括具備強(qiáng)健性(robustness)的系統(tǒng)設(shè)計(jì),能夠抵御模型投毒(model poisoning)、提示注入(prompt injection)等網(wǎng)絡(luò)安全威脅。
  2. 人工智能治理(AI governance):指對(duì)AI的研發(fā)與應(yīng)用進(jìn)行監(jiān)督、規(guī)范與協(xié)調(diào)的整體性制度或流程。其涵蓋政策、倫理與技術(shù)標(biāo)準(zhǔn)(G20, 2019;Geyer, Klein & Nabi, 2017),是確保AI創(chuàng)新與社會(huì)目標(biāo)及價(jià)值觀保持一致的關(guān)鍵機(jī)制。
  3. 責(zé)任共擔(dān)(Distributed responsibility):指AI系統(tǒng)所產(chǎn)生的結(jié)果責(zé)任由多方利益相關(guān)者共同承擔(dān),而非僅歸于單一實(shí)體(日本政府,2016),旨在應(yīng)對(duì)復(fù)雜AI系統(tǒng)中問(wèn)責(zé)主體難以界定的挑戰(zhàn)。該理念對(duì)于實(shí)現(xiàn)公共部門(mén)AI部署的透明性與公平性至關(guān)重要。
  4. 倫理標(biāo)準(zhǔn)(Ethical standards):指在AI開(kāi)發(fā)與部署全過(guò)程中維護(hù)人權(quán)、公平性與安全性等價(jià)值的指導(dǎo)原則(Coeckelbergh, 2020;G20, 2019;世界經(jīng)濟(jì)論壇,2020),其有效落實(shí)依賴于政府官員、開(kāi)發(fā)者與公眾的共同理解與遵守。
  5. 問(wèn)責(zé)制(Accountability):指當(dāng)AI相關(guān)錯(cuò)誤或損害發(fā)生時(shí),明確界定責(zé)任歸屬。在涉及開(kāi)發(fā)者、運(yùn)營(yíng)者與用戶等多方參與的復(fù)雜AI生命周期中,問(wèn)責(zé)制尤為關(guān)鍵(Floridi & Taddeo, 2016;日本AI戰(zhàn)略委員會(huì),2017)。它與多方AI系統(tǒng)中的“責(zé)任共擔(dān)”理念緊密關(guān)聯(lián)(日本政府,2016)。
  6. 可解釋性(Explainability):指AI系統(tǒng)能夠?yàn)槠錄Q策或預(yù)測(cè)提供人類可理解的理由,旨在解決深度學(xué)習(xí)等技術(shù)中存在的“黑箱”問(wèn)題??山忉屓斯ぶ悄埽╔AI)使政策決策過(guò)程透明化,令利益相關(guān)者得以審查AI的推理邏輯(Gunning, 2017;Jobin, Ienca & Vayena, 2019;白宮,2019)。
  7. 偏見(jiàn)(Bias):指由數(shù)據(jù)或算法設(shè)計(jì)導(dǎo)致的系統(tǒng)性偏差,可能引發(fā)不公或歧視性結(jié)果,其形式多樣(如數(shù)據(jù)偏見(jiàn)、算法偏見(jiàn)),并可能加劇社會(huì)不平等(歐洲數(shù)據(jù)保護(hù)委員會(huì),2018;O’Neil, 2016)。在公共政策領(lǐng)域,最大限度減少偏見(jiàn)對(duì)于確保服務(wù)與決策的公平性至關(guān)重要。
  8. 自主性(Autonomy):適用于人類與AI兩方面;對(duì)人類而言,指在決策中具備道德推理與自由意志的能力;對(duì)AI而言,則指基于數(shù)據(jù)與算法獨(dú)立執(zhí)行任務(wù)的能力(英國(guó)信息專員辦公室,2020;Sweeney, 2013)。在公共治理中,平衡AI的自主運(yùn)行與人類監(jiān)督十分關(guān)鍵。

方框1. 人類與人工智能的自主性對(duì)比

維護(hù)人類自主性

從哲學(xué)角度而言,自主性對(duì)人類與人工智能的應(yīng)用存在本質(zhì)差異。人類自主性包含真正的自由意志與道德推理能力,這構(gòu)成了道德能動(dòng)性與責(zé)任的基礎(chǔ)(Montag, Nakov, and Ali, 2024)。相比之下,人工智能缺乏意識(shí)與道德意圖,因此無(wú)法擁有真正的道德自主性,也不能被視為獨(dú)立的道德主體。相反,AI系統(tǒng)應(yīng)被明確設(shè)計(jì)為增強(qiáng)而非取代人類判斷與決策能力。近期研究強(qiáng)調(diào)系統(tǒng)設(shè)計(jì)的重要性——無(wú)論是增強(qiáng)還是削弱人類自主性,AI交互模式與文化語(yǔ)境都會(huì)顯著影響用戶在使用AI系統(tǒng)時(shí)是感到掌控還是被迫服從(Montag, Nakov, and Ali, 2024)。例如,向用戶提供真實(shí)替代選項(xiàng)——如允許其選擇與人類代表互動(dòng),而非僅限于與AI交互——可顯著提升信任度、接受度及感知到的自主性。尊重本地規(guī)范、具備交互性與可解釋性的AI可進(jìn)一步強(qiáng)化用戶自主性;而隱晦或?qū)V菩虯I則會(huì)削弱之。因此,保護(hù)人類自主性不僅是一種道德義務(wù),也是一種確??尚臕I的務(wù)實(shí)策略?!叭嗽诨芈贰保╤uman-in-the-loop)方法——允許用戶理解、質(zhì)疑或覆蓋AI輸出——確保了道德責(zé)任仍牢牢掌握在人類手中,使AI系統(tǒng)設(shè)計(jì)與康德式自主原則及當(dāng)代“責(zé)任共擔(dān)”理念相契合(Montag, Nakov, and Ali, 2024)。

定義人工智能自主性與問(wèn)責(zé)制

相較之下,人工智能自主性嚴(yán)格指根據(jù)預(yù)設(shè)算法與數(shù)據(jù)輸入,在無(wú)道德判斷或意識(shí)體驗(yàn)的前提下獨(dú)立執(zhí)行任務(wù)的能力(Bryson, 2020; Floridi, 2014)。信息哲學(xué)將此稱為“功能性自主性”,強(qiáng)調(diào)AI信息處理系統(tǒng)的復(fù)雜性與適應(yīng)性(Bostrom, 2014)。AI可對(duì)環(huán)境輸入做出反應(yīng)并自適應(yīng)調(diào)整,但這些響應(yīng)并不內(nèi)化人類的道德判斷或意圖(Dreyfus, 1992)。因此,人工智能自主性本質(zhì)上是技術(shù)性的,而非道德性的。

隨著AI系統(tǒng)操作自主性的擴(kuò)展,問(wèn)責(zé)制成為關(guān)鍵議題:傳統(tǒng)責(zé)任框架將道德責(zé)任完全賦予具備意圖與道德判斷能力的人類行動(dòng)者(Matthias, 2004)。然而,AI系統(tǒng)通常涉及眾多利益相關(guān)者——如數(shù)據(jù)科學(xué)家、工程師、企業(yè)與用戶——這使問(wèn)責(zé)變得復(fù)雜。為應(yīng)對(duì)AI系統(tǒng)結(jié)果責(zé)任歸屬的復(fù)雜性,新型責(zé)任模型如“分布式責(zé)任”或“共享責(zé)任”應(yīng)運(yùn)而生(Righetti, Madhavan, and Chatila, 2019)。“分布式責(zé)任”意味著責(zé)任由開(kāi)發(fā)者、用戶、運(yùn)營(yíng)者及所有參與系統(tǒng)設(shè)計(jì)與實(shí)施的利益相關(guān)者,根據(jù)其角色與影響力程度共同承擔(dān)(歐洲議會(huì),2017)。該方法承認(rèn)AI開(kāi)發(fā)與運(yùn)行固有的協(xié)作性,確保在應(yīng)對(duì)倫理關(guān)切、安全風(fēng)險(xiǎn)與意外后果時(shí)保持清晰性與公平性。

2.3.2 隱私保護(hù)技術(shù)

  1. 差分隱私(Differential privacy):指通過(guò)對(duì)數(shù)據(jù)添加統(tǒng)計(jì)噪聲,防止識(shí)別個(gè)體數(shù)據(jù)記錄,從而在保障個(gè)人信息安全的前提下,支持?jǐn)?shù)據(jù)分析或模型訓(xùn)練的技術(shù)(Floridi & Cowls, 2019)。它對(duì)于平衡隱私保護(hù)與AI實(shí)用性至關(guān)重要。
  2. 聯(lián)邦學(xué)習(xí)(Federated learning):指一種去中心化的機(jī)器學(xué)習(xí)方法,原始數(shù)據(jù)保留在本地設(shè)備或機(jī)構(gòu)內(nèi),僅共享模型參數(shù)。該技術(shù)可降低隱私泄露風(fēng)險(xiǎn),支持多方協(xié)作式AI開(kāi)發(fā)(歐盟委員會(huì), 2020;UNESCO & COMEST, 2019),現(xiàn)已被廣泛應(yīng)用于醫(yī)療、金融等敏感數(shù)據(jù)處理領(lǐng)域。
  3. 同態(tài)加密(Homomorphic encryption):指一種允許在加密數(shù)據(jù)上直接進(jìn)行計(jì)算(如加法、乘法)而無(wú)需先解密的加密方案,可在確保數(shù)據(jù)機(jī)密性的同時(shí),實(shí)現(xiàn)安全的AI模型訓(xùn)練與推理(歐盟委員會(huì), 2020;Floridi & Cowls, 2019)。該技術(shù)在公共行政與醫(yī)療數(shù)據(jù)處理等敏感場(chǎng)景中具有重要應(yīng)用價(jià)值。
  4. 數(shù)據(jù)最小化原則(Data minimization principle):指僅收集與使用AI運(yùn)行所必需的數(shù)據(jù),避免不必要地采集個(gè)人數(shù)據(jù)(Doshi-Velez & Kim, 2017)。該原則在公共部門(mén)為政策目的使用數(shù)據(jù)時(shí)尤為關(guān)鍵,有助于在保障功能性的同時(shí)維護(hù)隱私權(quán)。
  1. 由大數(shù)據(jù)驅(qū)動(dòng)的決策制定

數(shù)據(jù)分析、模式識(shí)別與模擬技術(shù)能夠增強(qiáng)決策過(guò)程。這些技術(shù)使政策制定者能夠從大規(guī)模、復(fù)雜的數(shù)據(jù)集中提取洞見(jiàn),預(yù)測(cè)未來(lái)結(jié)果,并優(yōu)化政策干預(yù)措施,從而提升其決策的有效性、效率與前瞻性。

3.1 數(shù)據(jù)分析與模式識(shí)別:一種整合方法

在人工智能領(lǐng)域,數(shù)據(jù)分析與模式識(shí)別深度交織,常協(xié)同工作,以從數(shù)據(jù)中提取有價(jià)值的洞見(jiàn)并支持智能決策。這兩個(gè)領(lǐng)域?qū)τ贏I系統(tǒng)如何處理和理解海量信息至關(guān)重要。

數(shù)據(jù)分析是指將原始數(shù)據(jù)集系統(tǒng)性地轉(zhuǎn)化為有用知識(shí)的計(jì)算過(guò)程。在人工智能背景下,數(shù)據(jù)分析指利用AI技術(shù)分析大規(guī)模、復(fù)雜的數(shù)據(jù)集,簡(jiǎn)化流程、識(shí)別趨勢(shì)并挖掘可操作的洞見(jiàn)(Eggers, Schatsky, & Viechnicki, 2017)。它涵蓋從收集、清洗、轉(zhuǎn)換到應(yīng)用模型于原始數(shù)據(jù)的整個(gè)生命周期,最終提取出與決策相關(guān)的有效信息(Eggers, Schatsky, & Viechnicki, 2017)。這包括處理結(jié)構(gòu)化、半結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)的能力(Margetts & Dorobantu, 2019)。根據(jù)目標(biāo)與方法,數(shù)據(jù)分析可大致分為以下幾類(Deloitte, 2017):

  • 描述性分析(Descriptive analytics):回答“發(fā)生了什么?”——聚焦于總結(jié)歷史數(shù)據(jù)以理解基本特征。AI通過(guò)快速處理大量結(jié)構(gòu)化與非結(jié)構(gòu)化數(shù)據(jù),識(shí)別模式、趨勢(shì)與相關(guān)性,強(qiáng)化了這一能力。例如,零售商可部署AI算法分析客戶數(shù)據(jù),揭示購(gòu)買趨勢(shì)與偏好。
  • 診斷性分析(Diagnostic analytics):探究“為什么會(huì)發(fā)生?”——識(shí)別復(fù)雜數(shù)據(jù)集中的根本原因與關(guān)聯(lián)。AI加速了這一過(guò)程,例如,在醫(yī)療保健領(lǐng)域,通過(guò)分析患者數(shù)據(jù)、病史與實(shí)驗(yàn)室結(jié)果,AI能比傳統(tǒng)方法更準(zhǔn)確、更迅速地定位疾病的根本成因。
  • 預(yù)測(cè)性分析(Predictive analytics):預(yù)測(cè)“接下來(lái)可能發(fā)生什么?”——利用歷史數(shù)據(jù)、統(tǒng)計(jì)建模及AI/機(jī)器學(xué)習(xí)(ML)來(lái)預(yù)測(cè)未來(lái)趨勢(shì)與結(jié)果。示例包括預(yù)測(cè)金融市場(chǎng)走勢(shì)或預(yù)估制造設(shè)備的維護(hù)需求。
  • 指導(dǎo)性分析(Prescriptive analytics):確定“我們下一步該做什么?”——基于前期階段的洞見(jiàn),提供可執(zhí)行的建議以優(yōu)化未來(lái)行動(dòng)。AI通過(guò)分析情景發(fā)揮貢獻(xiàn),例如在供應(yīng)鏈管理中,AI分析庫(kù)存水平、需求預(yù)測(cè)與運(yùn)輸條件,以推薦最優(yōu)訂單數(shù)量與交付時(shí)間表。

模式識(shí)別是人工智能與機(jī)器學(xué)習(xí)的一個(gè)基礎(chǔ)分支,關(guān)注機(jī)器識(shí)別、分析與分類數(shù)據(jù)中模式(如規(guī)律、趨勢(shì)、結(jié)構(gòu)等)的能力(Russell & Norvig, 2016)。這涉及使用算法檢測(cè)各類數(shù)據(jù)類型(包括圖像、音頻、文本和數(shù)值數(shù)據(jù))中的模式(Russell & Norvig, 2016)。其目標(biāo)是從數(shù)據(jù)中提取有用信息,理解、分類并解釋數(shù)據(jù),從而支持諸如物體識(shí)別、異常檢測(cè)與預(yù)測(cè)等任務(wù)(Russell & Norvig, 2016)。

模式識(shí)別采用多種方法,包括統(tǒng)計(jì)方法、機(jī)器學(xué)習(xí)(如監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)),以及深度學(xué)習(xí)(如用于圖像模式的卷積神經(jīng)網(wǎng)絡(luò)[ CNNs ]、用于文本序列的Transformer模型)(Russell & Norvig, 2016)。這些技術(shù)是數(shù)據(jù)科學(xué)家在各領(lǐng)域理解和分類數(shù)據(jù)的核心工具(Russell & Norvig, 2016)。

3.1.1 共生關(guān)系:模式識(shí)別如何驅(qū)動(dòng)數(shù)據(jù)分析

數(shù)據(jù)分析與模式識(shí)別緊密關(guān)聯(lián),其中模式識(shí)別是現(xiàn)代數(shù)據(jù)分析的關(guān)鍵引擎。它不僅是一個(gè)相關(guān)領(lǐng)域,更是一種基礎(chǔ)能力,為高級(jí)數(shù)據(jù)分析提供支撐并使之成為可能(Russell & Norvig, 2016)。數(shù)據(jù)科學(xué)家運(yùn)用人工智能驅(qū)動(dòng)的模式識(shí)別技術(shù)來(lái)理解、分類與解釋數(shù)據(jù)——這正是數(shù)據(jù)分析生命周期中的核心活動(dòng)(Russell & Norvig, 2016)。

基于人工智能的模式識(shí)別技術(shù)(如機(jī)器學(xué)習(xí)、深度學(xué)習(xí))使數(shù)據(jù)科學(xué)家能夠高效分析海量、復(fù)雜的數(shù)據(jù)集,識(shí)別出傳統(tǒng)方法難以甚至無(wú)法察覺(jué)的細(xì)微模式、相關(guān)性與趨勢(shì)(OECD, 2019a),從而實(shí)現(xiàn)更深層次的理解與更精準(zhǔn)的數(shù)據(jù)驅(qū)動(dòng)決策(OECD, 2019a)。

在歷史與當(dāng)前數(shù)據(jù)中識(shí)別模式的能力,對(duì)于構(gòu)建預(yù)測(cè)模型(預(yù)測(cè)未來(lái)事件)與指導(dǎo)性模型(推薦行動(dòng)方案)至關(guān)重要——這兩類模型正是高級(jí)數(shù)據(jù)分析的核心產(chǎn)出(Deloitte, 2017)。例如,預(yù)測(cè)設(shè)備維護(hù)需求或預(yù)判消費(fèi)者需求變化,均依賴于對(duì)相關(guān)數(shù)據(jù)模式的有效識(shí)別(Russell & Norvig, 2016)。

許多現(xiàn)代模式識(shí)別技術(shù),尤其是基于深度學(xué)習(xí)的方法(如用于圖像識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)[CNNs]、用于文本序列建模的循環(huán)神經(jīng)網(wǎng)絡(luò)[RNNs]/Transformer模型),專門(mén)被設(shè)計(jì)用于從非結(jié)構(gòu)化數(shù)據(jù)中提取模式,顯著拓展了數(shù)據(jù)分析的適用范圍(Eggers, Schatsky, & Viechnicki, 2017)。數(shù)據(jù)分析為模式識(shí)別提供基礎(chǔ)語(yǔ)境(即經(jīng)過(guò)清洗與處理的數(shù)據(jù))并解釋其發(fā)現(xiàn);而模式識(shí)別所生成的洞見(jiàn)又反哺分析過(guò)程,優(yōu)化模型,從而提升預(yù)測(cè)與解決方案的可靠性。

這種關(guān)系并非靜態(tài),而是一種不斷演化的共生關(guān)系。隨著數(shù)據(jù)在體量(volume)、速度(velocity)與多樣性(variety)——尤其是非結(jié)構(gòu)化數(shù)據(jù)——方面的持續(xù)增長(zhǎng),數(shù)據(jù)分析日益依賴于復(fù)雜的、基于人工智能的模式識(shí)別技術(shù)(如深度學(xué)習(xí))。模式識(shí)別正從一種數(shù)據(jù)分析的輔助工具,轉(zhuǎn)變?yōu)轵?qū)動(dòng)現(xiàn)代大規(guī)模數(shù)據(jù)分析的核心引擎。數(shù)據(jù)復(fù)雜性的提升,也要求模式識(shí)別技術(shù)日趨精密,表明其作用已遠(yuǎn)超“組成部分”,而成為賦能性關(guān)鍵能力。正如Russell與Norvig(2016)所指出,人工智能“快速高效地分析海量數(shù)據(jù)”并識(shí)別“用其他技術(shù)難以或無(wú)法檢測(cè)的模式”的能力,正標(biāo)志著這一轉(zhuǎn)變。

因此,模式識(shí)別領(lǐng)域的進(jìn)步直接推動(dòng)了數(shù)據(jù)分析在廣度與深度上的拓展,尤其在復(fù)雜應(yīng)用領(lǐng)域中表現(xiàn)突出。

然而,隨著數(shù)據(jù)分析與模式識(shí)別日益依賴復(fù)雜的“黑箱”AI模型(如深度學(xué)習(xí)),二者共同面臨一項(xiàng)關(guān)鍵挑戰(zhàn):可解釋性與可理解性的需求。若底層推理過(guò)程不透明,則數(shù)據(jù)分析所得洞見(jiàn)與模式識(shí)別所獲規(guī)律的價(jià)值將大打折扣,削弱信任并阻礙可操作的決策制定。復(fù)雜AI模型的內(nèi)部決策邏輯通常缺乏內(nèi)在透明性(Adadi & Berrada, 2018)?!斑@些系統(tǒng)的有效性受限于機(jī)器當(dāng)前無(wú)法向人類用戶解釋其決策與行動(dòng)的能力”(Gunning, 2017)。這種理解缺失引發(fā)了人們對(duì)“可靠性、公平性、偏見(jiàn)及其他倫理問(wèn)題”的擔(dān)憂(Adadi & Berrada, 2018)。為使數(shù)據(jù)分析真正實(shí)現(xiàn)“知情決策”(Eggers, Schatsky, & Viechnicki, 2017),并使模式識(shí)別產(chǎn)出“有用信息”(G20, 2019),其輸出背后的推理邏輯必須可被理解。因此,在借助復(fù)雜AI推動(dòng)數(shù)據(jù)分析與模式識(shí)別能力提升的同時(shí),必須同步推進(jìn)可解釋人工智能(XAI)的發(fā)展,以維系公眾信任、保障公平性,并支持有效的人類監(jiān)督與干預(yù)。這一訴求已成為推動(dòng)兩大領(lǐng)域協(xié)同演進(jìn)的共同主線。

表1對(duì)比了人工智能中數(shù)據(jù)分析與模式識(shí)別的關(guān)鍵特征。


3.1.2 關(guān)鍵技術(shù)與應(yīng)用

數(shù)據(jù)分析技術(shù)因人工智能(AI)與模式識(shí)別而得到顯著增強(qiáng)。AI 極大地提升了傳統(tǒng)數(shù)據(jù)分析能力,例如自動(dòng)化數(shù)據(jù)填補(bǔ)、合成數(shù)據(jù)生成以及洞察結(jié)果的解釋(White House, 2019)。生成式 AI 通過(guò)對(duì)話式界面革新了數(shù)據(jù)發(fā)現(xiàn)過(guò)程(Mehr, 2017)。模式識(shí)別則深化了特定類型的數(shù)據(jù)分析:

  • 圖像與視頻分析:卷積神經(jīng)網(wǎng)絡(luò)(CNNs)促進(jìn)了醫(yī)學(xué)影像分析與安防應(yīng)用(Eggers, Schatsky, & Viechnicki, 2017)。
  • 自然語(yǔ)言處理(NLP):Transformer 架構(gòu)支持文本分類與情感分析(Fjeld et al., 2020)。
  • 語(yǔ)音識(shí)別:實(shí)現(xiàn)聲紋識(shí)別與虛擬助手功能(Mehr, 2017)。
  • 異常檢測(cè):識(shí)別異常模式,用于欺詐防范與疾病暴發(fā)預(yù)測(cè)(Deloitte, 2017)。
  • 時(shí)間序列分析:預(yù)測(cè)金融市場(chǎng)走勢(shì)與消費(fèi)者行為趨勢(shì)(Gunning, 2017)。

數(shù)據(jù)分析與模式識(shí)別持續(xù)協(xié)同發(fā)展,隨著人工智能的進(jìn)步,其影響范圍預(yù)計(jì)將進(jìn)一步擴(kuò)大。二者協(xié)同推動(dòng)各領(lǐng)域的創(chuàng)新,以下列舉若干應(yīng)用實(shí)例:

  • 醫(yī)療健康:疾病模式識(shí)別有助于指導(dǎo)治療方案制定與實(shí)現(xiàn)疾病的早期檢測(cè)(Deloitte, 2017;Floridi & Cowls, 2019)。
  • 金融領(lǐng)域:交易異常檢測(cè)與市場(chǎng)趨勢(shì)預(yù)測(cè)(Deloitte, 2017;G20, 2019)。
  • 零售行業(yè):需求預(yù)測(cè)、庫(kù)存優(yōu)化及個(gè)性化推薦(Deloitte, 2017;Doshi-Velez & Kim, 2017)。
  • 制造業(yè):基于物聯(lián)網(wǎng)(IoT)傳感器數(shù)據(jù)模式的預(yù)測(cè)性維護(hù)(Deloitte, 2017)。
  • 公共政策制定:借助自然語(yǔ)言處理(NLP)與模式識(shí)別技術(shù)進(jìn)行市場(chǎng)預(yù)測(cè),并優(yōu)化政策設(shè)計(jì)(Information Commissioner’s Office, 2020;Wirtz, Weyerer, & Geyer, 2019)。

3.2. 基于人工智能的模擬
人工智能驅(qū)動(dòng)的模擬與建模被廣泛應(yīng)用,因其能夠提前預(yù)測(cè)與評(píng)估政策實(shí)施效果(OECD,無(wú)日期)。它們?cè)谔嵘哂行?、降低?fù)面效應(yīng)方面發(fā)揮著關(guān)鍵作用。在當(dāng)代,基于人工智能的模擬與模型對(duì)于估計(jì)復(fù)雜系統(tǒng)的未來(lái)狀態(tài)尤為有用。
例如,模擬可預(yù)測(cè)交通政策調(diào)整后交通流的變化,或評(píng)估環(huán)境法規(guī)對(duì)產(chǎn)業(yè)的影響。模擬還支持多種情景的測(cè)試,以甄選最優(yōu)政策方案。強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)算法可用于制定針對(duì)政策實(shí)施后可能出現(xiàn)的各類情境的應(yīng)對(duì)策略。RL 應(yīng)用所產(chǎn)生的結(jié)果有助于降低政策失敗風(fēng)險(xiǎn)、減少負(fù)面影響——這些正是相關(guān)計(jì)算所追求的目標(biāo)。
同時(shí)需謹(jǐn)記:模型的準(zhǔn)確性高度依賴于輸入數(shù)據(jù)與基礎(chǔ)假設(shè),因此必須持續(xù)進(jìn)行驗(yàn)證與更新。

  1. 人工智能應(yīng)用中的倫理挑戰(zhàn)與風(fēng)險(xiǎn)

盡管人工智能為政府治理帶來(lái)的潛在收益巨大,但同等重要的是必須正視其應(yīng)用所伴隨的倫理風(fēng)險(xiǎn)與治理挑戰(zhàn)。隨著人工智能系統(tǒng)越來(lái)越多地影響關(guān)乎公共福祉的決策,人們對(duì)其可解釋性、客觀性幻覺(jué)以及個(gè)人數(shù)據(jù)保護(hù)等問(wèn)題日益關(guān)切。本節(jié)探討人工智能應(yīng)用中的這些挑戰(zhàn)與風(fēng)險(xiǎn),呼吁采取全面措施,以實(shí)現(xiàn)可信賴的人工智能應(yīng)用。

4.1 可解釋性

深度學(xué)習(xí)等復(fù)雜人工智能模型往往具有“黑箱”特性,導(dǎo)致其結(jié)果難以解釋(Lipton, 2018)。這可能阻礙政策決策過(guò)程中的透明性與問(wèn)責(zé)性保障。若政策制定所依賴的人工智能依據(jù)無(wú)法被理解,公眾對(duì)決策結(jié)果的信任可能減弱,進(jìn)而損害政府與公眾之間的溝通與信任構(gòu)建。此外,當(dāng)預(yù)測(cè)或決策出現(xiàn)錯(cuò)誤時(shí),亦難以厘清責(zé)任歸屬。

為應(yīng)對(duì)上述問(wèn)題,亟需開(kāi)發(fā)并采納可解釋人工智能(Explainable AI, XAI)技術(shù)。XAI 旨在以人類可理解的方式呈現(xiàn)人工智能系統(tǒng)的運(yùn)行原理與決策過(guò)程,從而使政策制定者能夠?qū)彶槠渑袛嘁罁?jù),并視需進(jìn)行調(diào)整。然而,目前 XAI 技術(shù)仍處于早期發(fā)展階段,亟需同步推進(jìn)技術(shù)研發(fā)與制度支持。XAI 的更多細(xì)節(jié)將在下一節(jié)展開(kāi)討論。

4.2 人工智能中的“客觀性幻覺(jué)”

人工智能常被視為支持?jǐn)?shù)據(jù)驅(qū)動(dòng)決策、減少特定類型人為錯(cuò)誤的工具。通過(guò)系統(tǒng)性地處理大規(guī)模、多樣化的數(shù)據(jù)集,AI 有潛力緩解人類認(rèn)知局限(例如過(guò)度依賴近期信息或情緒顯著性信息)所帶來(lái)的偏差。

然而,人工智能的應(yīng)用并不能確??陀^性。AI 系統(tǒng)可能以多種方式表現(xiàn)出偏見(jiàn),這些偏見(jiàn)往往與數(shù)據(jù)采集的方法與環(huán)境,以及模型開(kāi)發(fā)過(guò)程中的各類選擇密切相關(guān)。一個(gè)新興的關(guān)切是所謂“AI 廢料”(AI slop)的泛濫——即由 AI 生成的低質(zhì)量、誤導(dǎo)性或無(wú)關(guān)內(nèi)容,可能扭曲信息環(huán)境并削弱公眾信任。

為應(yīng)對(duì)這些風(fēng)險(xiǎn),需在整個(gè) AI 模型開(kāi)發(fā)與應(yīng)用流程中(從數(shù)據(jù)選擇、算法設(shè)計(jì)到系統(tǒng)部署)保持審慎關(guān)注。專欄 2 概述了可能影響 AI 應(yīng)用客觀性與可靠性的常見(jiàn)偏見(jiàn)類型。

專欄 2. 偏見(jiàn)類型

A. 基于計(jì)算的偏見(jiàn)

  1. 數(shù)據(jù)偏見(jiàn)
  • 因人工智能模型所學(xué)習(xí)的數(shù)據(jù)本身固有的偏見(jiàn)而產(chǎn)生的錯(cuò)誤
  • 由于特定群體或特征被過(guò)度代表或代表性不足,導(dǎo)致預(yù)測(cè)結(jié)果失真
  1. 算法偏見(jiàn)
  • 在算法設(shè)計(jì)或選擇過(guò)程中引入偏見(jiàn)而導(dǎo)致的錯(cuò)誤
  • 特定結(jié)果或預(yù)測(cè)發(fā)生扭曲,削弱公平性
  1. 抽樣偏見(jiàn)
  • 數(shù)據(jù)收集時(shí)樣本未能代表整體人群而產(chǎn)生的錯(cuò)誤
  • 結(jié)果難以泛化,降低預(yù)測(cè)準(zhǔn)確性
  1. 選擇偏見(jiàn)
  • 在數(shù)據(jù)或案例選擇過(guò)程中,對(duì)特定元素的高估或低估
  • 分析結(jié)果出現(xiàn)偏差,導(dǎo)致得出錯(cuò)誤結(jié)論
  1. 表征偏見(jiàn)
  • 數(shù)據(jù)集未能恰當(dāng)反映特定群體或特征
  • 模型對(duì)某些群體做出不準(zhǔn)確的預(yù)測(cè)
  1. 遺漏、自選擇與數(shù)據(jù)不平衡偏見(jiàn)
  • 數(shù)據(jù)中缺失重要特征或變量,導(dǎo)致模型預(yù)測(cè)不準(zhǔn)確
  • 由于數(shù)據(jù)不完整,結(jié)果可靠性降低
  • 因參與者自我選擇,研究或調(diào)查中的樣本代表性下降
  • 結(jié)果偏向特定群體的觀點(diǎn)或特征
  • 由于各類別間數(shù)據(jù)量不平衡,模型對(duì)特定類別做出有偏預(yù)測(cè)
  • 對(duì)稀有類別的預(yù)測(cè)準(zhǔn)確性下降
  1. 過(guò)擬合偏見(jiàn)
  • 模型在訓(xùn)練數(shù)據(jù)上過(guò)度專門(mén)化,削弱其對(duì)新數(shù)據(jù)的泛化能力
  • 實(shí)際應(yīng)用中性能下降
  1. 隱私偏見(jiàn)
  • 為保護(hù)個(gè)人信息而限制數(shù)據(jù)收集時(shí),在數(shù)據(jù)集中產(chǎn)生的偏見(jiàn)
  • 由于模型缺少部分信息,預(yù)測(cè)能力降低
  1. 有偏損失函數(shù)
  • 設(shè)計(jì)出傾向于特定結(jié)果的損失函數(shù),導(dǎo)致模型學(xué)習(xí)過(guò)程產(chǎn)生偏倚
  • 損害模型的公平性與準(zhǔn)確性

專欄 2. 偏見(jiàn)類型(續(xù))

B. 社會(huì)性偏見(jiàn)

  1. 社會(huì)文化與社會(huì)經(jīng)濟(jì)偏見(jiàn)
  • 數(shù)據(jù)或算法中反映的社會(huì)或文化刻板印象或偏見(jiàn)
  • 針對(duì)特定群體的歧視性或不公平結(jié)果
  • 人工智能系統(tǒng)中固有的針對(duì)特定性別的偏見(jiàn)或刻板印象
  • 基于性別的歧視性結(jié)果
  • 人工智能系統(tǒng)中反映的針對(duì)特定種族或族裔的偏見(jiàn)
  • 人工智能系統(tǒng)中固有的基于社會(huì)經(jīng)濟(jì)地位的不平等或歧視
  • 基于收入或教育水平的不公平結(jié)果
  1. 年齡與語(yǔ)言偏見(jiàn)
  • 人工智能模型中包含基于年齡群體的歧視或成見(jiàn)
  • 基于年齡的不準(zhǔn)確預(yù)測(cè)或歧視性結(jié)果
  • 對(duì)某些用戶因語(yǔ)言或方言偏見(jiàn)而產(chǎn)生的負(fù)面影響
  • 未能體現(xiàn)語(yǔ)言多樣性,降低準(zhǔn)確性
  1. 地理偏見(jiàn)
  • 數(shù)據(jù)過(guò)度反映特定地區(qū)或地點(diǎn)
  • 未能考慮區(qū)域特征,削弱模型的泛化能力
  1. 刻板印象、從眾與數(shù)據(jù)不平衡偏見(jiàn)
  • 人工智能系統(tǒng)中反映的社會(huì)形成的刻板印象
  • 強(qiáng)化歧視性結(jié)果或預(yù)測(cè)
  • 傾向于遵循數(shù)據(jù)或決策中反映的多數(shù)人觀點(diǎn)或行為
  • 難以做出獨(dú)立判斷,導(dǎo)致有偏結(jié)論
  1. 認(rèn)知偏見(jiàn)
  • 人工智能開(kāi)發(fā)團(tuán)隊(duì)或數(shù)據(jù)科學(xué)家固有的偏見(jiàn)
  1. 確認(rèn)偏見(jiàn)
  • 有選擇地解釋或收集信息/數(shù)據(jù)以證實(shí)現(xiàn)有信念或假設(shè)
  • 難以做出客觀判斷,導(dǎo)致有偏結(jié)論
  1. 自動(dòng)化偏見(jiàn)
  • 人類過(guò)度信任自動(dòng)化系統(tǒng)或人工智能判斷
  • 用戶在未識(shí)別系統(tǒng)錯(cuò)誤或局限性的情況下,盲目遵循錯(cuò)誤決策
  1. 經(jīng)濟(jì)偏見(jiàn)
  • 人工智能公司為最大化利潤(rùn)而主動(dòng)操縱數(shù)據(jù)與算法

4.3 數(shù)據(jù)隱私

人工智能廣泛依賴個(gè)人數(shù)據(jù),由此引發(fā)個(gè)人信息泄露與濫用的擔(dān)憂(European Union, 2016)。該領(lǐng)域亟需法律規(guī)制與倫理考量。AI 系統(tǒng)所收集與處理的數(shù)據(jù)可能包含敏感個(gè)人信息,若處理不當(dāng),可能違反《通用數(shù)據(jù)保護(hù)條例》(GDPR)等法律法規(guī)。去標(biāo)識(shí)化或匿名化措施若實(shí)施不充分,可能導(dǎo)致個(gè)體身份被重新識(shí)別;而數(shù)據(jù)濫用或遭黑客攻擊等風(fēng)險(xiǎn)依然存在。這些問(wèn)題不僅威脅個(gè)體隱私權(quán),亦可能損害社會(huì)信任。

因此,對(duì)基于 AI 的政策決策,必須實(shí)施嚴(yán)格的個(gè)人信息保護(hù)管理與控制機(jī)制。政府與相關(guān)機(jī)構(gòu)應(yīng)建立法律與制度框架,在數(shù)據(jù)利用與隱私保護(hù)之間取得平衡。應(yīng)落實(shí)諸如“數(shù)據(jù)最小化原則”、基于知情同意的數(shù)據(jù)采集、以及個(gè)人信息影響評(píng)估等方法。此外,提升公眾對(duì)個(gè)人信息保護(hù)的認(rèn)知與教育亦至關(guān)重要。

4.4 問(wèn)責(zé)性

隨著人工智能系統(tǒng)日益應(yīng)用于高風(fēng)險(xiǎn)公共領(lǐng)域,問(wèn)責(zé)性已成為可信賴 AI 的基石。然而,由于 AI 系統(tǒng)本身的復(fù)雜性,以及涉及開(kāi)發(fā)者、數(shù)據(jù)提供方、平臺(tái)運(yùn)營(yíng)者、政府機(jī)構(gòu)與終端用戶等多方利益相關(guān)者的生態(tài)環(huán)境,實(shí)現(xiàn)清晰的責(zé)任分配與追溯尤為困難。這些主體可能分別參與系統(tǒng)的研發(fā)、訓(xùn)練、部署與監(jiān)督環(huán)節(jié),一旦產(chǎn)生不良結(jié)果,往往難以界定單一責(zé)任方。

這種復(fù)雜性催生了“分布式責(zé)任”(distributed responsibility)概念——即多個(gè)利益相關(guān)者在其全生命周期中共同塑造 AI 系統(tǒng)的行為(Floridi & Taddeo, 2016;日本政府, 2016;AI 戰(zhàn)略委員會(huì), 2017)。若缺乏明確的治理結(jié)構(gòu),責(zé)任的分散可能導(dǎo)致“問(wèn)責(zé)真空”——即無(wú)人對(duì)損害后果擔(dān)責(zé),從而侵蝕公眾信任與法律確定性。

為應(yīng)對(duì)這一挑戰(zhàn),政府須確保將清晰的問(wèn)責(zé)機(jī)制嵌入 AI 治理框架之中,具體包括:

  • 明確界定各利益相關(guān)者的角色與義務(wù);
  • 制定文檔化與可追溯性標(biāo)準(zhǔn);
  • 設(shè)立具備審計(jì)與評(píng)估 AI 系統(tǒng)能力的監(jiān)督機(jī)構(gòu)。

此外,相關(guān)政策應(yīng)支持救濟(jì)機(jī)制建設(shè),使受 AI 決策影響的個(gè)體有權(quán)要求解釋、修正或?qū)で蠓删葷?jì)。從設(shè)計(jì)之初即嵌入問(wèn)責(zé)機(jī)制,不僅能有效降低風(fēng)險(xiǎn),亦有助于提升 AI 賦能公共服務(wù)的透明度與公信力。

4.5 綜合性倫理

與可信賴人工智能相關(guān)的關(guān)切——包括公平性、可解釋性、隱私保護(hù)與問(wèn)責(zé)性——可在人工智能倫理(AI ethics)這一統(tǒng)一框架下予以系統(tǒng)性回應(yīng)。該概念廣泛涵蓋人工智能技術(shù)研發(fā)與應(yīng)用過(guò)程中產(chǎn)生的各類倫理問(wèn)題,而倫理考量對(duì)于在政策決策中有效利用人工智能至關(guān)重要(Moor, 2006)。

人工智能倫理為技術(shù)的負(fù)責(zé)任使用提供了基本原則:

第一,公平性必須得到保障,以確保人工智能系統(tǒng)不會(huì)對(duì)特定群體或個(gè)體造成不利影響。這包括盡可能減少數(shù)據(jù)偏見(jiàn),并防止算法產(chǎn)生歧視性結(jié)果(Whittlestone et al., 2019)。

第二,應(yīng)實(shí)現(xiàn)透明性與可解釋性,使人工智能的運(yùn)行原理與決策過(guò)程能為人類所理解。通過(guò)清晰呈現(xiàn) AI 判斷的依據(jù),有助于政策制定者與公眾建立信任(Doshi-Velez & Kim, 2017)。

第三,須確保隱私與數(shù)據(jù)保護(hù),防止個(gè)人信息被不當(dāng)收集或?yàn)E用。這意味著在數(shù)據(jù)采集、處理、存儲(chǔ)及銷毀的全過(guò)程中,均須貫徹嚴(yán)格的安全保障與倫理標(biāo)準(zhǔn)(Taddeo & Floridi, 2018)。

第四,應(yīng)落實(shí)人工智能系統(tǒng)的問(wèn)責(zé)性,在發(fā)生錯(cuò)誤或產(chǎn)生副作用時(shí)明確責(zé)任主體,確保能及時(shí)采取恰當(dāng)?shù)捻憫?yīng)與糾正措施(Danks & London, 2017)。

實(shí)現(xiàn)負(fù)責(zé)任的人工智能應(yīng)用,需審慎權(quán)衡各項(xiàng)倫理原則之間的張力。此類權(quán)衡之所以存在,是因?yàn)閷?duì)某一原則的過(guò)度優(yōu)化可能削弱另一原則的實(shí)現(xiàn),因而需要精細(xì)的平衡。常見(jiàn)的權(quán)衡關(guān)系包括公平性、透明性、隱私與問(wèn)責(zé)性之間的相互制約。表 2 展示了若干原則組合及其典型權(quán)衡關(guān)系(Sanderson, Douglas, & Lu, 2024)。


上述倫理原則也受到國(guó)際社會(huì)的高度重視。經(jīng)濟(jì)合作與發(fā)展組織(OECD)在其《人工智能建議書(shū)》中提出了以人類為中心的價(jià)值觀、公平性、透明性與安全性等倫理原則(OECD, 2019b);歐盟(EU)則通過(guò)《人工智能法案》(AI Act)為高風(fēng)險(xiǎn)人工智能系統(tǒng)設(shè)定了嚴(yán)格的倫理標(biāo)準(zhǔn)與監(jiān)管要求(European Commission, 2021)。

因此,將人工智能應(yīng)用于治理的主體必須回應(yīng)這些國(guó)際趨勢(shì),并在國(guó)內(nèi)人工智能政策中構(gòu)建以倫理為核心的法律與制度安排。

基于倫理原則運(yùn)用人工智能,對(duì)于提升公眾信任、實(shí)現(xiàn)可持續(xù)技術(shù)發(fā)展至關(guān)重要。為此,治理領(lǐng)域的人工智能使用者應(yīng)制定倫理 AI 指南,并建立涵蓋開(kāi)發(fā)者、政策制定者與公民的協(xié)同治理結(jié)構(gòu)(Floridi & Cowls, 2019)。同時(shí),應(yīng)通過(guò)教育與公眾意識(shí)提升活動(dòng),加強(qiáng)對(duì)倫理議題的理解,并推動(dòng)全社會(huì)形成可信賴人工智能應(yīng)用的文化氛圍(Mittelstadt, 2019)。

  1. 應(yīng)對(duì)人工智能挑戰(zhàn)的技術(shù)解決方案

盡管倫理問(wèn)題對(duì)人工智能的可信賴應(yīng)用構(gòu)成挑戰(zhàn),一系列技術(shù)解決方案已逐步涌現(xiàn),有助于緩解相關(guān)風(fēng)險(xiǎn)。本節(jié)探討如何利用人工智能設(shè)計(jì)與技術(shù)方面的創(chuàng)新,提升透明度、減少偏見(jiàn)并加強(qiáng)數(shù)據(jù)保護(hù)。盡管這些創(chuàng)新無(wú)法完全消除所有風(fēng)險(xiǎn),但它們?yōu)闃?gòu)建更可信賴的人工智能系統(tǒng)提供了有力工具。

5.1 可解釋性的技術(shù)路徑

可解釋人工智能(Explainable AI, XAI)指一系列旨在使機(jī)器學(xué)習(xí)(ML)模型決策過(guò)程對(duì)人類而言更加透明、可理解的技術(shù)與方法。這對(duì)于幫助用戶把握模型輸出背后的推理邏輯至關(guān)重要,尤其是在培育對(duì)人工智能系統(tǒng)的信任方面(Adadi & Berrada, 2018)。全球范圍內(nèi)對(duì)可解釋性問(wèn)題的應(yīng)對(duì)是多維度的,既包括新方法論的研發(fā),也涵蓋在各領(lǐng)域引入可解釋性框架的實(shí)踐。

5.1.1 基于模型設(shè)計(jì)的可解釋性

這類方法側(cè)重于設(shè)計(jì)本身具有內(nèi)在透明性、或其架構(gòu)便于解釋的模型:

  • 線性模型(線性回歸與邏輯回歸):此類較簡(jiǎn)單模型的決策過(guò)程易于追溯與理解,常用于透明性比預(yù)測(cè)性能更重要的場(chǎng)景。
  • 決策樹(shù):通過(guò)一系列“是/否”問(wèn)題分解決策路徑,便于清晰追蹤推理流程。
  • 基于規(guī)則的模型:采用預(yù)定義規(guī)則進(jìn)行推理,其決策過(guò)程顯式且透明。
  • 透明神經(jīng)網(wǎng)絡(luò):神經(jīng)網(wǎng)絡(luò)架構(gòu)的最新進(jìn)展致力于構(gòu)建可解釋的神經(jīng)網(wǎng)絡(luò),例如通過(guò)降低復(fù)雜度、對(duì)網(wǎng)絡(luò)層與參數(shù)施加約束等方式實(shí)現(xiàn)(Gilpin et al., 2018)。
  • 因果推斷模型:此類模型顯式編碼變量間的因果關(guān)系,通過(guò)清晰展現(xiàn)輸出如何由輸入決定,使模型具備直觀性與透明性。
  • 局部可解釋、模型無(wú)關(guān)的解釋方法(LIME):LIME 通過(guò)對(duì)輸入數(shù)據(jù)進(jìn)行擾動(dòng),為特定實(shí)例生成黑箱模型預(yù)測(cè)的可解釋近似,識(shí)別對(duì)決策起關(guān)鍵作用的特征(Bellamy et al., 2019)。
  • SHapley 加性解釋(SHAP):基于合作博弈論,為每個(gè)特征分配一個(gè)“重要性值”,反映其對(duì)模型預(yù)測(cè)的貢獻(xiàn)度;該方法適用于各類復(fù)雜模型(Lundberg & Lee, 2017)。
  • 代理模型(Surrogate models):采用決策樹(shù)或線性模型等更簡(jiǎn)單、可解釋的模型,對(duì)復(fù)雜模型的預(yù)測(cè)結(jié)果進(jìn)行近似擬合,從而揭示后者如何做出決策(Molnar, 2020)。
  • 反事實(shí)解釋(Counterfactual explanations):描述特定輸入在何種條件下會(huì)產(chǎn)生不同預(yù)測(cè)結(jié)果,從而提供可操作的洞見(jiàn)(Wachter, Mittelstadt, & Floridi, 2017)。
  • 部分依賴圖(Partial Dependence Plots, PDPs):可視化工具,展示當(dāng)其他特征保持不變時(shí),僅改變一個(gè)或兩個(gè)特征時(shí)模型預(yù)測(cè)的變化趨勢(shì),從而清晰呈現(xiàn)特征影響力(Friedman, 2001)。

5.1.2 針對(duì)特定模型的解釋方法

此類技術(shù)專為解釋某些復(fù)雜模型(尤其是神經(jīng)網(wǎng)絡(luò))而設(shè)計(jì),廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)與自然語(yǔ)言處理任務(wù):

  • 顯著圖(Saliency maps):常用于圖像分類任務(wù),通過(guò)高亮顯示輸入圖像中對(duì)模型決策起關(guān)鍵作用的像素或區(qū)域,直觀呈現(xiàn)模型關(guān)注點(diǎn)(Simonyan, Vedaldi, & Zisserman, 2013)。
  • 注意力機(jī)制(Attention mechanisms):在自然語(yǔ)言處理的 Transformer 模型中尤為突出,可高亮顯示模型在預(yù)測(cè)時(shí)所倚重的輸入部分(如特定詞語(yǔ)或短語(yǔ)),從而明晰其內(nèi)部推理邏輯(Vaswani et al., 2017)。

5.2 應(yīng)對(duì)人工智能偏見(jiàn)與“客觀性幻覺(jué)”的工具與技術(shù)

應(yīng)對(duì)人工智能偏見(jiàn)需將技術(shù)進(jìn)步與倫理、監(jiān)管框架協(xié)同推進(jìn)。

5.2.1 偏見(jiàn)檢測(cè)與公平性審計(jì)

  • 偏見(jiàn)度量與評(píng)估工具:采用差異影響分析(disparate impact analysis)、統(tǒng)計(jì)均等性(statistical parity)、均衡幾率(equalized odds)等指標(biāo)評(píng)估模型中的偏見(jiàn)。這些工具可量化不同人口群體間模型結(jié)果的差異程度。
  • 人工智能公平性工具包:如 IBM 的 AI Fairness 360(Bellamy et al., 2019)、Google 的 What-If Tool、Microsoft 的 Fairlearn(RBC Borealis, 2022)等開(kāi)源工具,提供自動(dòng)化偏見(jiàn)檢測(cè)與緩解技術(shù)。
  • 自動(dòng)化公平性審計(jì):部署由人工智能驅(qū)動(dòng)的審計(jì)系統(tǒng),在人工智能全生命周期中持續(xù)評(píng)估模型公平性。

5.2.2 數(shù)據(jù)預(yù)處理技術(shù)

  • 重采樣與重加權(quán)(Resampling and reweighting):通過(guò)過(guò)采樣代表性不足的群體或?qū)颖臼┘訖?quán)重調(diào)整,平衡訓(xùn)練數(shù)據(jù)分布,從而提升模型在不同群體上的公平表現(xiàn)(Hardt, Price, & Srebro, 2016)。
  • 合成數(shù)據(jù)生成:利用生成對(duì)抗網(wǎng)絡(luò)(GANs)等生成模型創(chuàng)建具有代表性的合成數(shù)據(jù),填補(bǔ)有偏數(shù)據(jù)集中的缺口,增強(qiáng)數(shù)據(jù)多樣性與公平性。
  • 偏見(jiàn)感知的特征工程(Bias-aware feature engineering):識(shí)別并調(diào)整那些可能導(dǎo)致有偏決策的特征,使模型聚焦于真正相關(guān)的屬性,減少非預(yù)期偏見(jiàn)。
  • 隱私保護(hù)的數(shù)據(jù)增強(qiáng)技術(shù):如差分隱私(differential privacy)與聯(lián)邦學(xué)習(xí)(federated learning),可在保障敏感信息的前提下提升數(shù)據(jù)多樣性,協(xié)同促進(jìn)公平性與隱私保護(hù)(Hardt, Price, & Srebro, 2016)。

5.2.3 提升公平性的算法調(diào)整

  • 公平性約束優(yōu)化(Fairness-constrained optimization):在機(jī)器學(xué)習(xí)模型的目標(biāo)函數(shù)中引入公平性約束,確保模型在不同人口群體間實(shí)現(xiàn)均衡性能(Arya et al., 2019)。
  • 對(duì)抗性去偏(Adversarial debiasing):通過(guò)對(duì)抗訓(xùn)練促使模型學(xué)習(xí)無(wú)偏表征,有效削弱歧視性模式。
  • 用于偏見(jiàn)識(shí)別的可解釋人工智能(XAI for bias identification):采用 SHAP、LIME 等可解釋機(jī)器學(xué)習(xí)方法,有助于理解并修正模型的偏見(jiàn)行為。
  • 自適應(yīng)學(xué)習(xí)模型(Adaptive learning models):引入強(qiáng)化學(xué)習(xí)等方法,在部署過(guò)程中動(dòng)態(tài)檢測(cè)并調(diào)整偏見(jiàn),實(shí)現(xiàn)公平性的持續(xù)提升(Arya et al., 2019)。

5.2.4 事后偏見(jiàn)緩解

  • 輸出校準(zhǔn)與調(diào)整(Output calibration and adjustment):在模型訓(xùn)練完成后施加校正措施,例如平衡不同人口群體間的錯(cuò)誤率,有助于修正有偏的結(jié)果(Hardt, Price, & Srebro, 2016)。
  • 偏見(jiàn)校正神經(jīng)網(wǎng)絡(luò)(Bias-correcting neural networks):開(kāi)發(fā)具備自我監(jiān)控與決策邊界動(dòng)態(tài)調(diào)整能力的模型,可促進(jìn)預(yù)測(cè)結(jié)果持續(xù)保持公平性(Bellamy et al., 2019)。
  • 人在回路系統(tǒng)(Human-in-the-loop systems):將人類監(jiān)督納入人工智能決策流程,可識(shí)別并修正自動(dòng)化系統(tǒng)可能忽視的偏見(jiàn)。

5.3 隱私增強(qiáng)技術(shù)(Privacy-Enhancing Technologies, PETs)

數(shù)據(jù)去標(biāo)識(shí)化、匿名化、加密及差分隱私等技術(shù),是保障人工智能系統(tǒng)中個(gè)人數(shù)據(jù)安全的基礎(chǔ)性工具。它們可在最小化隱私侵犯風(fēng)險(xiǎn)的前提下,支持個(gè)人數(shù)據(jù)的有效利用(El Emam & Arbuckle, 2013)。

  • 數(shù)據(jù)去標(biāo)識(shí)化(Data deidentification):通過(guò)移除或轉(zhuǎn)換可識(shí)別個(gè)人身份的信息,保護(hù)個(gè)體隱私(European Union, 2016;Stallings, 2017)。該方法在降低隱私侵權(quán)風(fēng)險(xiǎn)的同時(shí),仍保留數(shù)據(jù)分析與機(jī)器學(xué)習(xí)所需的必要信息。匿名化(Anonymization)則指徹底移除個(gè)人標(biāo)識(shí)符,使個(gè)體無(wú)法被再識(shí)別;因此,其提供的保護(hù)水平僅滿足個(gè)人數(shù)據(jù)保護(hù)法規(guī)的基本要求(International Organization for Standardization, 2011)。
  • 基礎(chǔ)加密(Basic encryption):將原始數(shù)據(jù)轉(zhuǎn)換為不可讀格式,確保數(shù)據(jù)在傳輸或存儲(chǔ)過(guò)程中即使被截獲,仍處于受保護(hù)狀態(tài)(Tavani, 2007)。
  • 同態(tài)加密(Homomorphic encryption):支持直接對(duì)加密數(shù)據(jù)進(jìn)行計(jì)算而無(wú)需解密,從而在保障機(jī)密性的同時(shí),促進(jìn)人工智能模型的訓(xùn)練與推理(Gentry, 2009)。數(shù)據(jù)所有者可在本地執(zhí)行加密操作,而服務(wù)器僅負(fù)責(zé)協(xié)調(diào)訓(xùn)練流程;解密密鑰嚴(yán)格保留在數(shù)據(jù)所有方手中,顯著降低數(shù)據(jù)暴露風(fēng)險(xiǎn)。
  • 安全多方計(jì)算(Secure Multiparty Computation, MPC):允許多方在不向彼此透露各自輸入的前提下,協(xié)同計(jì)算某一函數(shù)(Solove, 2006;Tavani, 2007)。其關(guān)鍵應(yīng)用場(chǎng)景包括:
    • 跨機(jī)構(gòu)協(xié)作:多家醫(yī)院可聯(lián)合訓(xùn)練疾病檢測(cè)模型;
    • 銀行與金融領(lǐng)域:開(kāi)展聯(lián)合欺詐分析,而無(wú)需披露具體交易細(xì)節(jié);
    • 實(shí)施優(yōu)勢(shì):近期通過(guò)預(yù)計(jì)算、批處理操作與硬件加速等優(yōu)化手段,顯著提升了MPC的運(yùn)行性能。
  • 差分隱私(Differential privacy):通過(guò)添加統(tǒng)計(jì)噪聲,隱藏個(gè)體數(shù)據(jù)貢獻(xiàn),同時(shí)保持整體數(shù)據(jù)效用(Abadi et al., 2016)。其特點(diǎn)包括:
    • 由服務(wù)器集中添加噪聲,或由客戶端本地添加;
    • 采用“矩會(huì)計(jì)法”(moments accountant)追蹤隱私預(yù)算消耗;
    • 通過(guò)梯度裁剪(gradient clipping)與隨機(jī)擾動(dòng)增強(qiáng)保護(hù)效果。
  • 聯(lián)邦學(xué)習(xí)(Federated learning):允許在本地設(shè)備上進(jìn)行模型訓(xùn)練,僅將模型更新(而非原始數(shù)據(jù))上傳至中央服務(wù)器(Rawls, 1971)。這種分布式范式極大降低了敏感信息暴露風(fēng)險(xiǎn),在隱私保護(hù)與數(shù)據(jù)利用之間取得良好平衡(National Artificial Intelligence Initiative Office, 2021;Rawls, 1971)。聯(lián)邦學(xué)習(xí)在醫(yī)療健康、金融與智慧城市等敏感數(shù)據(jù)密集領(lǐng)域潛力巨大(Li et al., 2020)。例如,多家醫(yī)院可在不集中收集患者數(shù)據(jù)的前提下協(xié)同開(kāi)發(fā)AI模型,從而提升診斷準(zhǔn)確性并優(yōu)化醫(yī)療服務(wù)(McMahan et al., 2017);該方法還可減輕通信網(wǎng)絡(luò)負(fù)載、節(jié)約數(shù)據(jù)傳輸成本(Yang et al., 2019)。各參與方僅使用本地設(shè)備或服務(wù)器上的數(shù)據(jù)訓(xùn)練模型,并僅將所得模型參數(shù)上傳至中央服務(wù)器進(jìn)行聚合(UNHCR, 2018)。由此,原始個(gè)人數(shù)據(jù)始終安全留存于各終端設(shè)備,極大降低了數(shù)據(jù)泄露或隱私侵權(quán)風(fēng)險(xiǎn)(Mantelero, 2018)。| 核心隱私特性:原始數(shù)據(jù)永不離開(kāi)用戶設(shè)備;僅傳輸模型參數(shù),且更新內(nèi)容僅為聚合目的而臨時(shí)存儲(chǔ)。| 訓(xùn)練流程:包括隨機(jī)客戶端選擇、模型參數(shù)廣播、客戶端本地計(jì)算、以及服務(wù)器端的安全參數(shù)聚合。| 增強(qiáng)型保護(hù):融合多項(xiàng)互補(bǔ)技術(shù):
    • 添加經(jīng)校準(zhǔn)噪聲的差分隱私;
    • 基于密碼學(xué)協(xié)議的安全聚合;
  • 依托可信執(zhí)行環(huán)境(Trusted Execution Environments, TEEs)的硬件級(jí)隔離。| 縱深隱私防護(hù)(Privacy in depth):整合多層次防護(hù)機(jī)制——包括本地?cái)?shù)據(jù)駐留、差分隱私、安全聚合與TEE,這種多層防護(hù)策略對(duì)于醫(yī)療、金融等高敏感領(lǐng)域維系高標(biāo)準(zhǔn)隱私保障至關(guān)重要。

專欄 3. 韓國(guó)案例:韓國(guó)如何在保障隱私保護(hù)的前提下,依托可信賴人工智能應(yīng)對(duì)新冠疫情

作為大韓民國(guó)領(lǐng)先的科學(xué)技術(shù)研究機(jī)構(gòu)之一,韓國(guó)科學(xué)技術(shù)院(KIST)在新冠疫情期間承擔(dān)了疫情傳播趨勢(shì)預(yù)測(cè)與應(yīng)對(duì)策略制定的重要任務(wù)(KIST, 2020)。KIST 整合大數(shù)據(jù)分析與人工智能建模,追蹤感染路徑并優(yōu)化隔離措施:通過(guò)結(jié)合全國(guó)感染病例數(shù)據(jù)與通信數(shù)據(jù),評(píng)估各地區(qū)風(fēng)險(xiǎn)等級(jí),從而高效調(diào)配隔離資源;利用基于人工智能的預(yù)測(cè)模型模擬未來(lái)感染趨勢(shì),為韓國(guó)政府動(dòng)態(tài)調(diào)整社交距離政策提供科學(xué)依據(jù)。此外,KIST 還借助人工智能技術(shù)研發(fā)診斷試劑盒、推進(jìn)治療研究,顯著提升了疫情防控實(shí)效,并推動(dòng)了醫(yī)療領(lǐng)域的技術(shù)創(chuàng)新。

為確保數(shù)據(jù)使用的負(fù)責(zé)任性并加強(qiáng)個(gè)人信息管理,KIST 在實(shí)現(xiàn)科研目標(biāo)的同時(shí),采取了一系列隱私保護(hù)措施,嚴(yán)格遵循以下核心原則與方法:

  • 個(gè)人數(shù)據(jù)的收集與使用:KIST 堅(jiān)持“最小必要”原則,僅收集實(shí)現(xiàn)研究目標(biāo)所必需的個(gè)人數(shù)據(jù);在可行情況下,一律實(shí)施數(shù)據(jù)匿名化處理,以防隱私泄露;明確界定數(shù)據(jù)使用目的,避免過(guò)度或無(wú)關(guān)數(shù)據(jù)采集。
  • 數(shù)據(jù)保護(hù)措施:綜合采用技術(shù)、管理與物理層面的多重防護(hù)手段,包括數(shù)據(jù)加密、訪問(wèn)控制、安全意識(shí)培訓(xùn)等,最大限度降低數(shù)據(jù)泄露與濫用風(fēng)險(xiǎn)。
  • 數(shù)據(jù)主體權(quán)利保障:確保數(shù)據(jù)主體享有訪問(wèn)權(quán)、更正權(quán)、刪除權(quán)及限制處理權(quán),并建立相應(yīng)程序以便利上述權(quán)利的行使。
  • 數(shù)據(jù)保護(hù)影響評(píng)估(Data Protection Impact Assessment):在項(xiàng)目規(guī)劃階段即開(kāi)展評(píng)估,識(shí)別潛在隱私風(fēng)險(xiǎn),并落實(shí)相應(yīng)緩解措施。

為平衡科研目標(biāo)與隱私保護(hù),KIST 綜合運(yùn)用技術(shù)性與程序性保障機(jī)制,包括數(shù)據(jù)去標(biāo)識(shí)化、匿名化以及嚴(yán)格的數(shù)據(jù)訪問(wèn)控制。具體而言:

  • 采用匿名化數(shù)據(jù)集,防止個(gè)體身份被重新識(shí)別,顯著降低隱私泄露風(fēng)險(xiǎn);
  • 對(duì)與研究目標(biāo)無(wú)關(guān)的數(shù)據(jù)實(shí)施訪問(wèn)限制,權(quán)限授予嚴(yán)格遵循“需知即可”(need-to-know)原則。

通過(guò)這一實(shí)踐過(guò)程積累的專業(yè)經(jīng)驗(yàn),不僅推動(dòng)了隱私增強(qiáng)技術(shù)的優(yōu)化與完善,也為韓國(guó)更廣泛的人工智能治理戰(zhàn)略制定提供了重要參考與支撐。

  1. 人工智能治理

隨著人工智能技術(shù)日益深度嵌入公共與私人領(lǐng)域的決策過(guò)程,構(gòu)建健全的治理框架已成為全球關(guān)注焦點(diǎn)。確保人工智能的安全、合乎倫理且高效運(yùn)用,不僅需要技術(shù)層面的解決方案,更需全面的法規(guī)制定與制度性回應(yīng)。本節(jié)考察全球?qū)用嬖诖_立共同原則與規(guī)范方面的努力,以及各國(guó)因地制宜的治理實(shí)踐。

6.1 全球治理框架

伴隨人工智能研發(fā)的迅猛進(jìn)展,國(guó)際組織與各國(guó)政府紛紛制定相關(guān)法規(guī)與政策(OECD, 2019b;Torrey & Goertzel, 2016),旨在推動(dòng)人工智能的安全與合乎倫理的使用,并最終助力人類有效管控其潛在風(fēng)險(xiǎn)。眾多政府在結(jié)合本國(guó)具體國(guó)情制定治理框架的同時(shí),亦積極開(kāi)展國(guó)際合作,以推動(dòng)形成基于共識(shí)的人工智能治理原則與標(biāo)準(zhǔn)。

6.1.1 聯(lián)合國(guó)

聯(lián)合國(guó)秘書(shū)長(zhǎng)設(shè)立了“人工智能高級(jí)別咨詢機(jī)構(gòu)”(High-level Advisory Body on Artificial Intelligence),以推動(dòng)形成具有全球包容性的治理建議。該機(jī)構(gòu)由來(lái)自全球各地的人工智能專家組成,于2024年9月完成并向聯(lián)合國(guó)大會(huì)提交題為《為人類治理人工智能》(Governing AI for Humanity)的報(bào)告,并同步通過(guò)關(guān)于可信賴人工智能的聯(lián)合國(guó)大會(huì)決議(United Nations, 2024)。該報(bào)告構(gòu)建了一個(gè)涵蓋人工智能研發(fā)與應(yīng)用全過(guò)程的綜合性治理框架,強(qiáng)調(diào)人工智能技術(shù)必須與人權(quán)、透明性及問(wèn)責(zé)制相一致;倡導(dǎo)通過(guò)國(guó)際合作,建立全球統(tǒng)一的人工智能治理規(guī)范與標(biāo)準(zhǔn),以統(tǒng)籌應(yīng)對(duì)機(jī)遇與風(fēng)險(xiǎn)。聯(lián)合國(guó)的治理路徑聚焦于構(gòu)建普惠、合乎倫理的人工智能體系,確保技術(shù)造福全人類,同時(shí)依托強(qiáng)有力的監(jiān)管與政策舉措,防范潛在危害。

6.1.2 世界銀行

2024年,世界銀行發(fā)布了《人工智能治理的全球趨勢(shì)》(Global Trends in AI Governance)報(bào)告,旨在探究人工智能治理領(lǐng)域的新動(dòng)態(tài),并為政策制定者以合乎倫理、透明且可問(wèn)責(zé)的方式開(kāi)發(fā)與部署人工智能提供指導(dǎo)。該報(bào)告討論了各國(guó)可根據(jù)自身需求加以采納的四類治理工具,并結(jié)合實(shí)例分析其優(yōu)劣(世界銀行集團(tuán),2024):

  1. 行業(yè)自律(Industry self-governance):如谷歌(Google)與微軟(Microsoft)等企業(yè)自行制定并采納自愿性商業(yè)倫理標(biāo)準(zhǔn)。此類做法雖可影響行業(yè)實(shí)踐,但缺乏強(qiáng)制執(zhí)行力,且存在“倫理漂綠”(ethics-washing)——即以倫理承諾粉飾實(shí)質(zhì)行為——的風(fēng)險(xiǎn)。
  2. 軟法(Soft law):指不具法律約束力的原則性聲明與技術(shù)標(biāo)準(zhǔn)。其優(yōu)勢(shì)在于靈活性強(qiáng),但往往未能清晰界定權(quán)利與責(zé)任。
  3. 監(jiān)管沙盒(Regulatory sandboxes):通過(guò)構(gòu)建受控環(huán)境,允許對(duì)創(chuàng)新型監(jiān)管方案進(jìn)行測(cè)試。然而,其運(yùn)行與管理通常需要大量資源投入,成本高昂。
  4. 硬法(Hard law):指具有法律約束力的框架,例如《歐盟人工智能法案》(EU Artificial Intelligence Act)或各國(guó)立法。此類框架可提供一致性與法律確定性,但需結(jié)合本地實(shí)際情境進(jìn)行適配,充分考量現(xiàn)有治理能力與資源條件。

此外,世界銀行還制定了《人工智能風(fēng)險(xiǎn)管理框架》(Artificial Intelligence Risk Management Framework),旨在系統(tǒng)性管控人工智能相關(guān)風(fēng)險(xiǎn),并推動(dòng)本組織內(nèi)部負(fù)責(zé)任人工智能實(shí)踐的落地實(shí)施。

6.1.3 經(jīng)濟(jì)合作與發(fā)展組織(OECD)

2019年,OECD發(fā)布了首個(gè)政府間人工智能標(biāo)準(zhǔn)——《OECD人工智能原則》(OECD AI Principles)。該原則旨在通過(guò)推動(dòng)可信賴人工智能的負(fù)責(zé)任治理,在鼓勵(lì)創(chuàng)新的同時(shí)增進(jìn)公眾信任,并確保對(duì)人權(quán)與民主價(jià)值觀的尊重。2024年更新后的《人工智能原則》由五項(xiàng)基于價(jià)值觀的原則五項(xiàng)具體政策建議共同構(gòu)成,為各國(guó)提供兼具實(shí)踐性與適應(yīng)性的指導(dǎo)(OECD, 2024)(見(jiàn)表3)。


6.2 各國(guó)政府

表4對(duì)所選國(guó)家/地區(qū)的政府人工智能監(jiān)管框架進(jìn)行了比較性概述。各國(guó)政府均制定了相應(yīng)戰(zhàn)略,以應(yīng)對(duì)人工智能帶來(lái)的機(jī)遇與風(fēng)險(xiǎn),體現(xiàn)出其在促進(jìn)創(chuàng)新的同時(shí),對(duì)倫理原則、公共安全與人權(quán)保障的重視與優(yōu)先考量。


此外,各國(guó)政府還采取了法律與技術(shù)手段以規(guī)范個(gè)人數(shù)據(jù)保護(hù),尤其聚焦于數(shù)據(jù)去標(biāo)識(shí)化、匿名化、加密及隱私增強(qiáng)技術(shù)(PETs)的應(yīng)用。表5所列各國(guó)均已構(gòu)建相應(yīng)框架,在數(shù)據(jù)利用與隱私保護(hù)之間尋求平衡,從而確保人工智能系統(tǒng)既能推動(dòng)創(chuàng)新發(fā)展,又能贏得公眾信任。


  1. 人工智能與社會(huì)

人工智能技術(shù)的廣泛應(yīng)用,不僅正在重塑政府與企業(yè)的運(yùn)作方式,也深刻影響著個(gè)體參與社會(huì)的方式。盡管人工智能為提升公共服務(wù)響應(yīng)能力、改善生活質(zhì)量帶來(lái)了巨大機(jī)遇,但同時(shí)也引發(fā)了諸多社會(huì)關(guān)切。核心問(wèn)題包括:數(shù)字鴻溝、自動(dòng)化可能導(dǎo)致的就業(yè)崗位流失,以及弱勢(shì)群體被邊緣化的風(fēng)險(xiǎn)。本節(jié)探討人工智能普及帶來(lái)的社會(huì)影響,并分析如何確保其收益公平惠及全體人口各階層。

7.1 數(shù)字鴻溝與就業(yè)崗位流失

盡管人工智能為社會(huì)進(jìn)步提供了巨大潛力,但也存在加劇既有不平等的顯著風(fēng)險(xiǎn)。數(shù)字鴻溝作為長(zhǎng)期存在的挑戰(zhàn),可能因人工智能而進(jìn)一步加深——因?yàn)槟芊瘾@益于AI,高度依賴于技術(shù)可及性與數(shù)字素養(yǎng)水平。就業(yè)崗位流失是另一緊迫問(wèn)題:由人工智能驅(qū)動(dòng)的自動(dòng)化可能使某些職業(yè)趨于過(guò)時(shí)(聯(lián)邦貿(mào)易委員會(huì),2012)。

為緩解上述風(fēng)險(xiǎn),政策制定者必須將數(shù)字包容性舉措置于優(yōu)先地位,包括:擴(kuò)大經(jīng)濟(jì)、高質(zhì)量互聯(lián)網(wǎng)的覆蓋范圍;推行數(shù)字素養(yǎng)教育項(xiàng)目;確保人工智能技術(shù)在設(shè)計(jì)階段即充分考慮無(wú)障礙與可及性。此外,健全的社會(huì)保障體系與再培訓(xùn)計(jì)劃,可幫助勞動(dòng)者適應(yīng)不斷變化的就業(yè)市場(chǎng),掌握在人工智能時(shí)代立足所需的新技能。

政府及公共政策設(shè)計(jì)者應(yīng)積極推行數(shù)字包容政策,以確保所有公民均能平等受益于人工智能技術(shù)(日本政府,2015);強(qiáng)化社會(huì)保障網(wǎng)絡(luò)、提供職業(yè)技能再培訓(xùn),可有效緩解勞動(dòng)者在職業(yè)轉(zhuǎn)型過(guò)程中的焦慮感(日本公正交易委員會(huì),2016)。

7.2 通過(guò)人工智能提升公共服務(wù)響應(yīng)能力

人工智能為增強(qiáng)公共服務(wù)的響應(yīng)性與個(gè)性化提供了有力工具。通過(guò)分析海量數(shù)據(jù),政府可更深入洞察公民的實(shí)際需求與偏好:AI驅(qū)動(dòng)的智能聊天機(jī)器人可提供全天候服務(wù)支持;預(yù)測(cè)性分析則有助于預(yù)判并應(yīng)對(duì)新興社會(huì)挑戰(zhàn)(Mehr, 2017;UNESCO, 2022)。

然而,至關(guān)重要的是,必須確保由人工智能驅(qū)動(dòng)的公共服務(wù)具備合乎倫理、透明且可問(wèn)責(zé)的特質(zhì)。政府需制定清晰的人工智能應(yīng)用準(zhǔn)則,包括數(shù)據(jù)隱私保護(hù)措施與算法偏見(jiàn)緩解機(jī)制。此外,必須讓公眾實(shí)質(zhì)性參與人工智能系統(tǒng)的設(shè)計(jì)與部署過(guò)程,以確保其需求與關(guān)切得到充分回應(yīng)。

7.3 支持弱勢(shì)群體的政策舉措

人工智能政策的設(shè)計(jì)必須惠及全社會(huì)所有成員,包括脆弱與邊緣化群體。這要求政策制定者深入理解這些群體所面臨的具體挑戰(zhàn),以及人工智能對(duì)其生活的潛在影響(OECD, 2018):

  • 殘障人士可從AI賦能的輔助技術(shù)中獲益,但必須確保此類技術(shù)真正具備無(wú)障礙性與包容性;
  • 老年人可借助人工智能維持獨(dú)立生活能力與生活質(zhì)量,但可能需要額外支持以應(yīng)對(duì)數(shù)字世界的復(fù)雜性;
  • 低收入群體可能在就業(yè)流失與經(jīng)濟(jì)不平等方面承受不成比例的沖擊,因而亟需為其提供適應(yīng)人工智能時(shí)代所需的技能與機(jī)會(huì)(日本國(guó)家警察廳,2019)。

通過(guò)采取以人為本的人工智能治理路徑,政策制定者方能充分釋放其潛能,助力構(gòu)建一個(gè)更加公平、繁榮的未來(lái)社會(huì)。

  1. 人工智能應(yīng)用的自我評(píng)估

為支持可信賴人工智能的采納與應(yīng)用,政府和組織評(píng)估自身的準(zhǔn)備程度與實(shí)施績(jī)效至關(guān)重要。本節(jié)提供自我評(píng)估工具,可作為實(shí)用基準(zhǔn),用于追蹤進(jìn)展、識(shí)別差距并相應(yīng)調(diào)整策略。

8.1 背景

隨著人工智能技術(shù)持續(xù)演進(jìn),跨部門(mén)的政府與組織正日益探索其在提升公共治理與服務(wù)交付方面的潛力。部分機(jī)構(gòu)可能已做好快速采用AI的準(zhǔn)備,而另一些機(jī)構(gòu)則需先彌補(bǔ)基礎(chǔ)性差距方可推進(jìn)。影響這些決策的關(guān)鍵因素包括:技術(shù)專長(zhǎng)的可獲得性、數(shù)據(jù)管理基礎(chǔ)設(shè)施的完備性,以及對(duì)新興技術(shù)相關(guān)法律與倫理框架的遵循程度。

人工智能應(yīng)用的自我評(píng)估提供了一種結(jié)構(gòu)化方法,用以評(píng)估準(zhǔn)備情況,幫助識(shí)別可成長(zhǎng)與改進(jìn)的領(lǐng)域。通過(guò)聚焦于數(shù)據(jù)隱私、安全與技術(shù)基礎(chǔ)設(shè)施等關(guān)鍵方面,組織能夠更清晰地理解自身當(dāng)前能力與存在的短板。這一過(guò)程有助于做出知情決策,并確保人工智能的采納是負(fù)責(zé)任、高效且符合相關(guān)政策與國(guó)際標(biāo)準(zhǔn)的。

鑒于各地區(qū)(特別是發(fā)展中國(guó)家)在準(zhǔn)備程度上存在差異,自我評(píng)估是一種寶貴工具,可引導(dǎo)人工智能的審慎、高效采納。它賦能組織評(píng)估自身獨(dú)特需求,并據(jù)此量身定制人工智能戰(zhàn)略,促進(jìn)知情決策,并確保與更廣泛的目標(biāo)和優(yōu)先事項(xiàng)保持一致。政府——尤其是發(fā)展中國(guó)家——可借助清單與工具包,獨(dú)立評(píng)估人工智能系統(tǒng)的適用性與準(zhǔn)備就緒程度。此類工具使關(guān)鍵利益相關(guān)者與組織能夠主動(dòng)審查人工智能技術(shù)的倫理、法律與技術(shù)層面,識(shí)別潛在風(fēng)險(xiǎn),并制定成功實(shí)施的戰(zhàn)略(OECD, 2019b;Sheller et al., 2020)。使用清單預(yù)期帶來(lái)的益處包括:

  • 前瞻性風(fēng)險(xiǎn)管理:在引入人工智能前識(shí)別潛在風(fēng)險(xiǎn)與問(wèn)題,以便提前響應(yīng)(Bonawitz et al., 2019)。
  • 資源高效利用:識(shí)別準(zhǔn)備度較低的領(lǐng)域,從而有效分配資源并設(shè)定優(yōu)先級(jí)(Bughin et al., 2017)。
  • 保障公眾信任:確保透明度與系統(tǒng)性評(píng)估,有助于建立公眾信任并提升人工智能政策的可接受度(European Commission, 2020)。
  • 增強(qiáng)國(guó)際競(jìng)爭(zhēng)力:通過(guò)與國(guó)際標(biāo)準(zhǔn)和最佳實(shí)踐接軌,提升在全球市場(chǎng)的競(jìng)爭(zhēng)力(G20, 2019)。

8.2 人工智能準(zhǔn)備度清單

人工智能系統(tǒng)本質(zhì)上依賴數(shù)據(jù)驅(qū)動(dòng)。從數(shù)據(jù)采集、處理到模型訓(xùn)練與部署的整個(gè)生命周期中,數(shù)據(jù)的質(zhì)量、完整性及倫理處理方式至關(guān)重要。“沒(méi)有數(shù)據(jù),人工智能便無(wú)法存在;沒(méi)有受監(jiān)管的數(shù)據(jù),受監(jiān)管的人工智能也無(wú)法存在”(Collibra, 2024)凸顯了數(shù)據(jù)的根本性作用。低質(zhì)量數(shù)據(jù)會(huì)阻礙人工智能部署;即便最先進(jìn)算法,若底層數(shù)據(jù)不佳,也會(huì)產(chǎn)生有缺陷的結(jié)果(Ataman, 2025)。合乎倫理的人工智能開(kāi)發(fā)從根本上依賴于負(fù)責(zé)任的數(shù)據(jù)實(shí)踐。偏見(jiàn)、公平性、問(wèn)責(zé)制與透明度等問(wèn)題,與數(shù)據(jù)管理方式深度交織(Berryhill et al., 2019)。數(shù)據(jù)隱私與治理是實(shí)現(xiàn)更廣泛人工智能倫理原則的賦能要素:

  • 公平與非歧視:用于訓(xùn)練人工智能模型的有偏數(shù)據(jù)可能導(dǎo)致歧視性結(jié)果。倫理性的數(shù)據(jù)收集、細(xì)致的預(yù)處理及偏見(jiàn)審計(jì)——所有數(shù)據(jù)治理方面——對(duì)于緩解人工智能偏見(jiàn)、促進(jìn)公平至關(guān)重要。專注于數(shù)據(jù)質(zhì)量和偏見(jiàn)評(píng)估的清單項(xiàng)目直接支持此目標(biāo)。
  • 透明度與可解釋性:理解用于訓(xùn)練人工智能模型的數(shù)據(jù)(其來(lái)源、特征、局限性)是解釋模型行為的前提條件(IBM, 2025)。清晰的數(shù)據(jù)治理政策有助于提升整體系統(tǒng)透明度(Collibra, 2024)。關(guān)于數(shù)據(jù)文檔與溯源性的清單項(xiàng)目在此至關(guān)重要。
  • 問(wèn)責(zé)制:健全的數(shù)據(jù)治理確立了數(shù)據(jù)處理的明確責(zé)任,這對(duì)人工智能系統(tǒng)的問(wèn)責(zé)制至關(guān)重要(Collibra, 2024)。若人工智能系統(tǒng)產(chǎn)生不良后果,追溯數(shù)據(jù)血緣與處理步驟(通過(guò)良好治理確保)對(duì)于確定責(zé)任方至關(guān)重要。關(guān)于數(shù)據(jù)所有權(quán)與訪問(wèn)控制的清單項(xiàng)目支持問(wèn)責(zé)制。
  • 安全性與穩(wěn)健性:保護(hù)數(shù)據(jù)免受未授權(quán)訪問(wèn)、篡改或?yàn)E用,是人工智能系統(tǒng)安全與穩(wěn)健性的基礎(chǔ)。關(guān)于安全數(shù)據(jù)存儲(chǔ)與訪問(wèn)控制的清單項(xiàng)目與此直接相關(guān)。為便利該流程,我們提供兩份清單(圖1與表6)。二者均旨在建立實(shí)現(xiàn)全面人工智能倫理所必需的數(shù)據(jù)處理關(guān)鍵標(biāo)準(zhǔn):第一份側(cè)重于數(shù)據(jù)采集與處理,第二份側(cè)重于針對(duì)人工智能應(yīng)用的具體數(shù)據(jù)隱私考量。

盡管人工智能倫理具有多面性,但清單聚焦于數(shù)據(jù)隱私與治理并非局限,而是一種戰(zhàn)略選擇。合乎倫理的數(shù)據(jù)管理是實(shí)現(xiàn)更廣泛人工智能倫理原則(如公平性、問(wèn)責(zé)制與透明度)的首要基礎(chǔ)步驟。數(shù)據(jù)倫理不僅是眾多倫理關(guān)切之一,而是支撐所有其他人工智能倫理原則的基礎(chǔ)性要素。若無(wú)強(qiáng)有力的實(shí)踐(如隱私保護(hù)、安全、質(zhì)量保證與偏見(jiàn)緩解),人工智能系統(tǒng)的整體可信度與倫理穩(wěn)定性將受到損害。

此外,這種以數(shù)據(jù)為中心的方法與倫理數(shù)據(jù)處理(例如:同意、最小化、安全與偏見(jiàn)檢查)(National Assembly Research Service, 2021)與主要國(guó)際及全球公認(rèn)標(biāo)準(zhǔn)相一致,這些標(biāo)準(zhǔn)旨在解決合乎倫理人工智能的基本前提;《歐盟人工智能法案》、《經(jīng)合組織人工智能原則》及《聯(lián)合國(guó)教科文組織關(guān)于人工智能倫理的建議》均將數(shù)據(jù)治理與數(shù)據(jù)保護(hù)視為可信賴人工智能的核心要求。

這些工具可整合進(jìn)一個(gè)面向發(fā)展中國(guó)家的綜合性人工智能應(yīng)用評(píng)估工具包,包含以下功能:

  • 自動(dòng)化評(píng)估系統(tǒng):一個(gè)在線平臺(tái),輸入每項(xiàng)內(nèi)容的答案后自動(dòng)計(jì)算出準(zhǔn)備度得分。
  • 反饋與建議:根據(jù)評(píng)估結(jié)果提供缺陷反饋并提出改進(jìn)建議。
  • 資源與材料:提供與每一項(xiàng)內(nèi)容相關(guān)的教育材料、指南與最佳實(shí)踐,以支持能力建設(shè)。
  • 社區(qū)與協(xié)作網(wǎng)絡(luò):包含促進(jìn)經(jīng)驗(yàn)分享與與其他國(guó)家或組織協(xié)作的社區(qū)功能。

圖1展示了一份分步式清單,旨在幫助利益相關(guān)者評(píng)估將人工智能技術(shù)應(yīng)用于數(shù)據(jù)采集與處理的適宜性。每一步均以二元問(wèn)題(是/否)形式呈現(xiàn),回答將決定下一步的相關(guān)環(huán)節(jié),從而實(shí)現(xiàn)定制化與情境敏感型評(píng)估。為支持直觀導(dǎo)航,該清單使用顏色編碼區(qū)分流程的不同階段:


  • 青色框:關(guān)鍵數(shù)據(jù)處理決策(例如:同意與法律依據(jù))
  • 藍(lán)色框:數(shù)據(jù)采集與可用性
  • 黃色框:數(shù)據(jù)利用階段——再利用、共享、處置
  • 棕色框:假名化與安全措施

該流程圖有助于識(shí)別在數(shù)據(jù)環(huán)境中部署人工智能技術(shù)前必須滿足的法律、倫理與操作條件。

8.2.1 人工智能數(shù)據(jù)采集與處理的決策流程

該流程始于審視所涉數(shù)據(jù)是否包含需用戶同意的信息,或是否屬于其他合法處理依據(jù)的范疇。若涉及個(gè)人信息,流程圖將進(jìn)一步區(qū)分一般數(shù)據(jù)與敏感數(shù)據(jù)類型,并相應(yīng)觸發(fā)標(biāo)準(zhǔn)同意告知程序,或要求單獨(dú)、明確的同意聲明。

一旦確立了合法基礎(chǔ)或取得有效同意,用戶需核實(shí)擬議的人工智能用途是否仍與原始數(shù)據(jù)采集目的保持一致。若目的已發(fā)生變更,清單將引導(dǎo)用戶:或?yàn)槎问褂么_立合法依據(jù),或采用假名化技術(shù)以降低風(fēng)險(xiǎn)。

當(dāng)采用假名化措施時(shí),清單引入了額外保障要求:

  • 數(shù)據(jù)必須通過(guò)經(jīng)授權(quán)的第三方機(jī)構(gòu)進(jìn)行處理;
  • 并須接受正式的安全評(píng)估,以核實(shí)已部署充分的保護(hù)措施。

若上述條件未滿足,則判定該人工智能應(yīng)用不合規(guī),流程即行中止,以防不當(dāng)使用。

對(duì)于仍處于原始目的范圍內(nèi)的數(shù)據(jù),清單繼而評(píng)估其是否可被再利用或與他人共享。若允許,用戶將被引導(dǎo)核實(shí)安全處置的相關(guān)條件;對(duì)于尚無(wú)法立即處置的情形,則須確認(rèn)是否存在法律或制度層面的數(shù)據(jù)留存要求。

僅當(dāng)所有必要的法律、倫理與技術(shù)保障均已落實(shí),該流程方視為完成。這一結(jié)構(gòu)化流程確保人工智能技術(shù)的部署負(fù)責(zé)任且符合既定的治理標(biāo)準(zhǔn)。

8.3 人工智能數(shù)據(jù)隱私核查清單

為補(bǔ)充上述決策流程,表6提供了一份詳盡的核查清單,用于評(píng)估人工智能應(yīng)用場(chǎng)景下的數(shù)據(jù)隱私準(zhǔn)備情況。每項(xiàng)條目均源自數(shù)據(jù)保護(hù)核心原則,涵蓋合法采集與同意、數(shù)據(jù)留存、再利用及假名化等關(guān)鍵考量。


該清單按五大類組織:

  1. 直接從數(shù)據(jù)主體處采集數(shù)據(jù)
  2. 從第三方或公開(kāi)來(lái)源采集數(shù)據(jù)
  3. 個(gè)人信息的使用與提供
  4. 數(shù)據(jù)留存與處置
  5. 假名化信息的處理

每項(xiàng)問(wèn)題均采用保守的二元(是/否)格式作答,以反映數(shù)據(jù)隱私要求的嚴(yán)格性與不可妥協(xié)性。在諸如同意獲取、法律依據(jù)或數(shù)據(jù)處置等關(guān)鍵領(lǐng)域,部分落實(shí)即視為未達(dá)合規(guī)門(mén)檻。“否”的回答并非對(duì)失敗的判定,而是提示需采取后續(xù)行動(dòng)以滿足最低標(biāo)準(zhǔn)。

當(dāng)前清單的設(shè)計(jì)強(qiáng)調(diào)清晰性、易用性與法律可辯護(hù)性——尤其適用于處于早期階段或資源受限的環(huán)境??隙ɑ卮穑ā笆恰保?shù)量越多,表明與隱私原則的一致性越強(qiáng),負(fù)責(zé)任部署人工智能的準(zhǔn)備度也越高。該格式為實(shí)施者與政策制定者提供了實(shí)用工具,可用于識(shí)別差距、追蹤進(jìn)展,并優(yōu)先采取行動(dòng),以構(gòu)建符合隱私規(guī)范、可信賴的人工智能系統(tǒng)。

8.4 使用清單時(shí)的注意事項(xiàng)

人工智能準(zhǔn)備度與數(shù)據(jù)隱私清單為希望評(píng)估自身人工智能采納準(zhǔn)備情況的組織提供了有益工具。通過(guò)系統(tǒng)性地評(píng)估數(shù)據(jù)基礎(chǔ)設(shè)施、倫理準(zhǔn)則、安全考量等關(guān)鍵領(lǐng)域,這些清單提供了一種結(jié)構(gòu)化方法,以支持更明智的決策制定。它們有助于組織認(rèn)清自身優(yōu)勢(shì),識(shí)別需重點(diǎn)關(guān)注的薄弱環(huán)節(jié),從而推動(dòng)更具針對(duì)性與實(shí)效性的人工智能實(shí)施規(guī)劃。

然而,盡管清單提供了關(guān)鍵指導(dǎo),應(yīng)將其視為起點(diǎn)而非終極解決方案。人工智能的采納具有高度復(fù)雜性與情境依賴性,不同組織面臨的需求各異。清單雖可幫助凸顯核心考量因素,但各組織可能面臨獨(dú)特的挑戰(zhàn)或監(jiān)管要求,需在清單所涵蓋內(nèi)容之外采取定制化應(yīng)對(duì)措施。因此,清單應(yīng)與其他工具及專家評(píng)估結(jié)合使用,以確保實(shí)現(xiàn)全面且細(xì)致入微的治理路徑。

還需注意的是,這些清單倡導(dǎo)一種迭代式的反思與改進(jìn)過(guò)程。隨著技術(shù)與監(jiān)管環(huán)境持續(xù)演進(jìn),此類工具可協(xié)助組織定期回溯關(guān)鍵議題,并追蹤漸進(jìn)式進(jìn)展。盡管其本身并非完備的治理框架,但可作為識(shí)別差距、激發(fā)內(nèi)部對(duì)話的切入點(diǎn)。若能定期使用,并與更廣泛的規(guī)劃工作協(xié)同推進(jìn),這些清單將有助于實(shí)現(xiàn)更明智、更負(fù)責(zé)任且更具情境敏感性的人工智能采納。

  1. 啟示與展望

人工智能在公共部門(mén)日益廣泛的應(yīng)用,要求治理重點(diǎn)從理想化的原則宣示轉(zhuǎn)向切實(shí)可行的實(shí)踐行動(dòng)。盡管全球性框架與倫理標(biāo)準(zhǔn)提供了寶貴指引,但將其轉(zhuǎn)化為契合具體情境、可操作的實(shí)踐措施,對(duì)許多政府而言仍是重大挑戰(zhàn)。本報(bào)告正是針對(duì)這一缺口,系統(tǒng)闡述了可信賴人工智能的核心維度,并提出了切實(shí)可行、門(mén)檻較低的實(shí)用工具:一份人工智能準(zhǔn)備度決策流程圖與一份數(shù)據(jù)隱私核查清單。這些工具旨在協(xié)助各國(guó)政府與發(fā)展行動(dòng)方在部署人工智能之前,通過(guò)結(jié)構(gòu)化反思法律、倫理與組織層面的先決條件,評(píng)估其基礎(chǔ)性保障措施是否到位。

尤為重要的是,這些工具并非旨在作為指令性清單或僵化的審計(jì)標(biāo)準(zhǔn),而是作為適應(yīng)性輔助手段,以支持組織內(nèi)部的自主決策。在此定位下,它們有助于推動(dòng)公共部門(mén)機(jī)構(gòu)在采納與應(yīng)用可信賴人工智能過(guò)程中,做出更為審慎、有據(jù)可依的決策。通過(guò)將復(fù)雜的法律與倫理考量轉(zhuǎn)化為一組結(jié)構(gòu)清晰的二元提示問(wèn)題,這些工具鼓勵(lì)在調(diào)整仍具可行性且成本較低的早期階段即展開(kāi)討論。若能審慎運(yùn)用,并與更廣泛的治理流程協(xié)同配合,它們可幫助厘清各方職責(zé)、揭示潛在風(fēng)險(xiǎn),并加強(qiáng)法律、技術(shù)與政策職能部門(mén)之間的協(xié)作。

可信賴人工智能的治理不應(yīng)被視為一次性的合規(guī)任務(wù),而必須被理解為一種持續(xù)的反思、協(xié)調(diào)與適應(yīng)過(guò)程。隨著人工智能系統(tǒng)日益深度融入公共機(jī)構(gòu),推進(jìn)其負(fù)責(zé)任應(yīng)用不僅需要技術(shù)性保障措施,更需持之以恒的制度性投入。展望未來(lái),或需進(jìn)一步完善并本土化本報(bào)告所提出的工具,強(qiáng)化內(nèi)部能力建設(shè),并促進(jìn)跨政府、跨部門(mén)的知識(shí)共享。盡管本報(bào)告所作貢獻(xiàn)范圍有限,但其目標(biāo)在于切實(shí)支持各方持續(xù)努力,使人工智能的采納真正契合公共部門(mén)所秉持的問(wèn)責(zé)、包容與透明等核心價(jià)值。

原文: https://documents1.worldbank.org/curated/en/099805309022518222/pdf/IDU-1e9a05ec-ab52-425d-a18a-c9c91ed04a37.pdf

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
天津小伙心疼29歲表嫂被出軌離婚 接其到蘇州同居引爭(zhēng)議

天津小伙心疼29歲表嫂被出軌離婚 接其到蘇州同居引爭(zhēng)議

阿SIR觀察
2026-01-27 10:38:05
高詩(shī)巖單節(jié)15分!山東男籃逆轉(zhuǎn)黑馬,克里斯低迷,兩大功臣發(fā)威

高詩(shī)巖單節(jié)15分!山東男籃逆轉(zhuǎn)黑馬,克里斯低迷,兩大功臣發(fā)威

牛眼看球
2026-01-27 21:45:55
徐文海、程用文、雷文潔已任湖北省人大常委會(huì)黨組成員

徐文海、程用文、雷文潔已任湖北省人大常委會(huì)黨組成員

澎湃新聞
2026-01-27 13:57:11
江蘇一餐飲老板李金良去世,僅37歲,新店才幾個(gè)月,妻子心都碎了

江蘇一餐飲老板李金良去世,僅37歲,新店才幾個(gè)月,妻子心都碎了

深析古今
2026-01-27 09:48:29
“流氓有文化更可怕”,退休老干部頻繁聯(lián)系女幼師,聊天記錄曝光

“流氓有文化更可怕”,退休老干部頻繁聯(lián)系女幼師,聊天記錄曝光

妍妍教育日記
2026-01-27 19:58:28
央視坐實(shí)!成本2元售價(jià)19800元!不少人受騙,趕緊別用了

央視坐實(shí)!成本2元售價(jià)19800元!不少人受騙,趕緊別用了

白色得季節(jié)
2026-01-27 21:30:49
要打就打痛!中國(guó)手段已升級(jí),日本:中方不批準(zhǔn)駐重慶總領(lǐng)事任命

要打就打痛!中國(guó)手段已升級(jí),日本:中方不批準(zhǔn)駐重慶總領(lǐng)事任命

滄海旅行家
2026-01-27 17:17:15
凱恩將續(xù)約拜仁,創(chuàng)隊(duì)史頂薪紀(jì)錄

凱恩將續(xù)約拜仁,創(chuàng)隊(duì)史頂薪紀(jì)錄

星耀國(guó)際足壇
2026-01-27 21:18:40
你知道咱媽為何要拍《太平年》嗎?知道這是拍給誰(shuí)看的嗎?

你知道咱媽為何要拍《太平年》嗎?知道這是拍給誰(shuí)看的嗎?

李健政觀察
2026-01-27 09:50:28
我們贏了!中國(guó)成功研制全球首款二維芯片,ASML慌了:更可怕的還在后頭

我們贏了!中國(guó)成功研制全球首款二維芯片,ASML慌了:更可怕的還在后頭

芯火相承
2026-01-26 21:29:42
牢A爆火后留學(xué)圈炸了!陪讀媽媽、女留學(xué)生成狩獵目標(biāo),家長(zhǎng)必看

牢A爆火后留學(xué)圈炸了!陪讀媽媽、女留學(xué)生成狩獵目標(biāo),家長(zhǎng)必看

烏娛子醬
2026-01-27 16:50:05
云南“毒紅薯”后續(xù):10億產(chǎn)業(yè)崩盤(pán),無(wú)辜農(nóng)戶欲哭無(wú)淚

云南“毒紅薯”后續(xù):10億產(chǎn)業(yè)崩盤(pán),無(wú)辜農(nóng)戶欲哭無(wú)淚

過(guò)了法考的新聞人
2026-01-27 17:19:11
突擊檢查全國(guó)武器庫(kù)!一定要嚴(yán)防被掉包,甲午戰(zhàn)爭(zhēng)悲劇絕不能重演

突擊檢查全國(guó)武器庫(kù)!一定要嚴(yán)防被掉包,甲午戰(zhàn)爭(zhēng)悲劇絕不能重演

愛(ài)吃醋的貓咪
2026-01-27 20:31:00
紫牛頭條|大連一業(yè)主斷水400天起訴鄰居被駁回,鄰里糾紛與管道謎團(tuán)陷僵局

紫牛頭條|大連一業(yè)主斷水400天起訴鄰居被駁回,鄰里糾紛與管道謎團(tuán)陷僵局

揚(yáng)子晚報(bào)
2026-01-27 21:52:52
性行為缺失會(huì)促癌?華中大最新:性行為缺失會(huì)削弱抗癌免疫力,保持性行為則有利于抗癌

性行為缺失會(huì)促癌?華中大最新:性行為缺失會(huì)削弱抗癌免疫力,保持性行為則有利于抗癌

醫(yī)諾維
2026-01-26 17:02:36
首都機(jī)場(chǎng)“大老虎”:下班飛澳門(mén),早上坐專機(jī)上班,一晚輸600萬(wàn)

首都機(jī)場(chǎng)“大老虎”:下班飛澳門(mén),早上坐專機(jī)上班,一晚輸600萬(wàn)

牛牛叨史
2026-01-27 23:54:21
在盒馬app買鮮百合被誤送成水仙球,北京祖孫二人誤食中毒后進(jìn)醫(yī)院,盒馬回應(yīng)

在盒馬app買鮮百合被誤送成水仙球,北京祖孫二人誤食中毒后進(jìn)醫(yī)院,盒馬回應(yīng)

瀟湘晨報(bào)
2026-01-27 18:01:05
小區(qū)內(nèi)裝卸鋼化玻璃,不到一小時(shí)連發(fā)兩起事故,有傷者送醫(yī)后身亡;家屬:用工方負(fù)責(zé)人已被逮捕

小區(qū)內(nèi)裝卸鋼化玻璃,不到一小時(shí)連發(fā)兩起事故,有傷者送醫(yī)后身亡;家屬:用工方負(fù)責(zé)人已被逮捕

大風(fēng)新聞
2026-01-27 17:10:11
爬山遺失80克金吊墜男子:把對(duì)講機(jī)掛在了金吊墜的鏈子上,快登頂才發(fā)現(xiàn)吊墜丟了,目前還沒(méi)找到

爬山遺失80克金吊墜男子:把對(duì)講機(jī)掛在了金吊墜的鏈子上,快登頂才發(fā)現(xiàn)吊墜丟了,目前還沒(méi)找到

魯中晨報(bào)
2026-01-27 16:23:14
沉默24小時(shí)后,卡尼終于發(fā)聲,與中國(guó)協(xié)議作廢,美財(cái)長(zhǎng)得寸進(jìn)尺

沉默24小時(shí)后,卡尼終于發(fā)聲,與中國(guó)協(xié)議作廢,美財(cái)長(zhǎng)得寸進(jìn)尺

天仙無(wú)味小仙女
2026-01-28 00:41:45
2026-01-28 04:16:49
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1182文章數(shù) 18關(guān)注度
往期回顧 全部

科技要聞

馬化騰3年年會(huì)講話透露了哪些關(guān)鍵信息

頭條要聞

美報(bào)告稱中國(guó)是其19世紀(jì)以來(lái)面對(duì)過(guò)的最強(qiáng)大國(guó)家

頭條要聞

美報(bào)告稱中國(guó)是其19世紀(jì)以來(lái)面對(duì)過(guò)的最強(qiáng)大國(guó)家

體育要聞

冒充職業(yè)球員,比賽規(guī)則還和對(duì)手現(xiàn)學(xué)?

娛樂(lè)要聞

張雨綺風(fēng)波持續(xù)發(fā)酵,曝多個(gè)商務(wù)被取消

財(cái)經(jīng)要聞

多地對(duì)壟斷行業(yè)"近親繁殖"出手了

汽車要聞

標(biāo)配華為乾崑ADS 4/鴻蒙座艙5 華境S體驗(yàn)車下線

態(tài)度原創(chuàng)

藝術(shù)
家居
數(shù)碼
公開(kāi)課
軍事航空

藝術(shù)要聞

震撼!19世紀(jì)油畫(huà)巨匠的作品美得不可思議!

家居要聞

現(xiàn)代古典 中性又顯韻味

數(shù)碼要聞

這事你怎么看 索尼與TCL簽署意向備忘錄 網(wǎng)友:Sony變Tony了

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美海軍"林肯"號(hào)航母打擊群抵達(dá)中東地區(qū)

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版