国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

李國杰院士:基于可判定性理論的人工智能系統(tǒng)安全風(fēng)險分類

0
分享至


新智元報道

編輯:LRST

【新智元導(dǎo)讀】李國杰院士指出,AI安全風(fēng)險應(yīng)按邏輯復(fù)雜性分為三類:R1可驗證、R2可發(fā)現(xiàn)但不可證明安全、R3不可治理。當(dāng)前AI多屬R2,關(guān)鍵不在「證明安全」,而在構(gòu)建人類主導(dǎo)的制度性剎車機制,拒絕讓渡終極控制權(quán)。

無論是軟件工程、自動控制還是其他形式化方法,它們共享同一個假設(shè):存在一組可窮盡的狀態(tài)或行為集合,可以在運行前證明系統(tǒng)不會進入危險區(qū)域,典型形式包括不變量證明、安全約束證明、模型檢查,覆蓋所有路徑的形式驗證等。

這個范式有3個「必須成立」的前提條件:狀態(tài)空間可窮盡(或可有效逼近),系統(tǒng)行為規(guī)則固定,驗證者與被驗證對象邏輯上分離。

這些條件任何一個失效,驗證就不是「變難」,而是「失效」。

AGI正好系統(tǒng)性地破壞了這3個條件,這不是工程不足,而是哥德爾/Rice級別的不可能性。

1. 為什么要用可判定性理論對安全問題進行分類

1.1 從無人自動駕駛說起

當(dāng)我們問:「這輛無人駕駛汽車是否安全?」

這里講的「安全」的真實含義是:在所有未來可能的運行時間、在所有可能的環(huán)境與交通參與者行為下,車輛都不會進入不可接受的危險狀態(tài)。

這在邏輯上是一個全稱量化的未來命題,問題中的時間是無限的,環(huán)境是開放的,其他參與者是不可預(yù)測的。這個命題原則上不可判定,原因是:

1)未來行為空間不可窮盡,行人、車輛、天氣、路況是開放世界,不存在一個有限狀態(tài)空間。

2)安全不是瞬時屬性,而是軌跡屬性,現(xiàn)在沒撞車不代表永遠(yuǎn)不會撞車,安全依賴整個運行歷史。

3)這是一個承諾型命題:「安全 = 對未來永不出事的承諾」。這類命題與程序「永不崩潰」是同一類問題,根據(jù)可判定性理論,此命題在一般情況下不可判定。在不可判定問題中,有一個真子集稱為「半可判定問題」或「遞歸可枚舉問題」,其核心特征是:如果出了事故,你一定能發(fā)現(xiàn);如果不出事故,你永遠(yuǎn)無法在事前確認(rèn)將來是否安全。

既然「無人駕駛」是半可判定問題,工程上為什么還能「保證安全」?工程上并沒有解決「全局安全不可判定」這個問題,而是換了問題

第一步:放棄「未來承諾」,改為「即時約束」,即,在當(dāng)前時刻,是否違反了一組明確的安全邊界條件?

第二步:把「語義安全」變成「物理不變量」,例如:將「撞人」變成「剎車制動的最小距離 > 當(dāng)前車與人的距離」。要判斷的問題變成有限維的明確閾值,就成為可判定的遞歸計算問題。

第三步:用「失敗即停機」代替「永遠(yuǎn)正確」,安全目標(biāo)從「永不出事」轉(zhuǎn)化為「在任何不確定性出現(xiàn)時,都能在有限時間內(nèi)進入可控、低風(fēng)險狀態(tài)」,把不可判定問題變成可判定的工程問題。這不是解決了不可判定問題,而是繞開了它。無人駕駛告訴我們一件極其重要的事:AI安全問題不是「證明系統(tǒng)永遠(yuǎn)不會做錯」,而是設(shè)計系統(tǒng),使任何不可判定的問題都不會直接轉(zhuǎn)化為不可逆的現(xiàn)實后果。

「安全」本質(zhì)上是對未來的承諾工程安全的真正智慧在于拒絕關(guān)于未來安全的承諾,而是把風(fēng)險壓縮到可判定的當(dāng)下。

無人駕駛的安全問題可以被明確定義為一組可觀測的邊界條件在物理上成立,例如碰撞、越過制動包絡(luò)、傳感器失效等。

通用人工智能(artificial general intelligence, AGI)的核心風(fēng)險是無法完成這種壓縮,因為其危險行為不受限于物理包絡(luò)、時間尺度和功能邊界,不是物理瞬時事件,而是語義 + 反事實 + 長期后果的集合。無人駕駛不能改寫目標(biāo)、擴展任務(wù),不能重新定義「什么算成功」。

AGI系統(tǒng)性地破壞了這3個條件:

1)危險沒有統(tǒng)一、可操作的物理定義。AGI的「危險」是認(rèn)知操縱、社會結(jié)構(gòu)破壞、治理機制替代等,這些都不是物理不變量,而是語義與制度結(jié)構(gòu)。

2)時間尺度拉長且危險滯后,行為當(dāng)下看似無害,發(fā)現(xiàn)時往往已經(jīng)不可逆。

3)目標(biāo)與能力可遞歸擴展,AGI可能重寫子目標(biāo),學(xué)會繞過約束,把驗證機制本身當(dāng)作優(yōu)化對象,驗證者與被驗證者不再分離。AGI即使沒有「惡意」,也可以在治理結(jié)構(gòu)上變得不可控。

AGI追求的「如何在不可判定的未來中維持人類的主權(quán)與糾錯能力」,已不是工程問題,而是文明級控制問題。

AGI的危險不是發(fā)生在「執(zhí)行層」,而是發(fā)生在「策略與目標(biāo)層」,與可判定性密切相關(guān)。

1.2 必須區(qū)分安全問題的邏輯復(fù)雜性層次

長期以來,人工智能風(fēng)險評估主要圍繞能力擴展、目標(biāo)對齊、誤用場景等維度展開。這些分類在實踐中具有重要價值,但忽略了一個更為根本的區(qū)分:某些風(fēng)險在原則上是可判定的工程問題,而另一些風(fēng)險理論上就是不可判定的。

這一根本差異解釋了人工智能安全領(lǐng)域中長期存在卻難以解決的問題,例如:為什么長期對齊問題始終無法獲得形式化保證,為什么遞歸自我改進會引入質(zhì)變級別的風(fēng)險,為什么在系統(tǒng)的邏輯復(fù)雜性超過某一閾值后,治理機制就不可避免。這些現(xiàn)象并非源于工程能力不足,而是來自可判定性層面的結(jié)構(gòu)性限制。

能否對安全問題做出承諾,不是學(xué)術(shù)界經(jīng)常討論的計算復(fù)雜性可以回答的問題,這是一個邏輯復(fù)雜性問題。

邏輯復(fù)雜性(logical complexity)是指一個命題為獲得可靠真值所需要的邏輯結(jié)構(gòu)的復(fù)雜程度,主要由其所涉及的量詞形式(?/?)、量化對象的范圍(有限/無限)以及是否涉及未來或反事實決定,與計算資源消耗無關(guān)。邏輯復(fù)雜性屬于計算機科學(xué)中算術(shù)層次研究的問題,即對自然數(shù)結(jié)構(gòu)的一階邏輯命題按?/?的嵌套與交替層數(shù)進行分層。

邏輯復(fù)雜性層次劃分只覆蓋了形式可保證性,這是安全的一個維度,即能否窮盡所有未來狀態(tài),能否在運行前給出「永不出錯」的證明,這是數(shù)學(xué)意義上的安全,定義的是「問題的邏輯復(fù)雜度等級」,而不是「系統(tǒng)運行的安全等級」,這是「問題軸」。

安全并不是一個純粹的可判定性命題。

考慮安全問題至少需要3條正交軸:第1條是問題軸,回答能否事前證明;第2條是治理軸,回答出錯后是否可控;第3條是后果軸,回答最壞情況有多壞。邏輯復(fù)雜性回答的是:「我們能不能提前證明你不會出事?」,而不是「你出事了我們怎么辦?」系統(tǒng)的安全性是問題判定性、治理機制與后果規(guī)模的聯(lián)合函數(shù),而非只涉及問題的可判定性函數(shù)。邏輯復(fù)雜性屬于「問題軸」,不是「系統(tǒng)軸」。同一個系統(tǒng)可以同時涉及不同邏輯復(fù)雜性的問題,邏輯復(fù)雜性來自提問方式,而不是對象本身。

可判定性不是保證現(xiàn)實安全的必要條件,但按邏輯復(fù)雜性(可判定 / 半可判定)對問題做區(qū)分,是「避免安全治理范式錯誤」的必要條件。可判定未必安全,不可判定也未必不安全,但不區(qū)分問題的邏輯復(fù)雜性,很可能對安全問題做出邏輯上錯誤的承諾。安全出問題的原因,往往不是「系統(tǒng)做錯了」,而是「我們對系統(tǒng)做出了邏輯上不可能兌現(xiàn)的承諾」。安全不是邏輯性質(zhì),而是運行性質(zhì),是一個動態(tài)、制度性、工程性的概念。安全是能在失敗不可避免的前提下實現(xiàn)持續(xù)治理,這是從數(shù)學(xué)理性轉(zhuǎn)向工程理性和制度理性。不可判定不是危險的根源,把「安全」錯誤地托付給「可判定性」才是風(fēng)險。

「承諾不出錯」和「事先證明完備性」不是同一個概念,但在開放世界中,它們在邏輯上高度等價。

「承諾不出錯」是目標(biāo)命題,「事先完備性證明」是驗證方式。但在工程與治理中,一旦你承諾不出錯,就等價于你能證明不會出錯。否則這個承諾是不可執(zhí)行、不可審計、不可擔(dān)責(zé)的。所以在開放任務(wù)空間中,承諾不出錯的隱含要求就是事先完備性證明。

保證「事后能自我發(fā)現(xiàn)并修正錯誤」也會引入一個更深層、同樣不可判定的問題:如何保證「總能發(fā)現(xiàn)并糾正自己的錯誤」?

錯誤檢測本身就是行為規(guī)范全稱驗證的語義判定問題,根據(jù)可判定性理論,「能否發(fā)現(xiàn)自己的所有錯誤」也是不可判定的。

1.3 「算法是否安全」不是一個良定義的問題

為什么要從邏輯復(fù)雜性的角度來討論安全問題,而不是討論算法安全性?雖然從應(yīng)用實踐中可以將算法安全看成是TRC層級問題,但是從形式邏輯來看, 「算法是否安全」不是良定義的提問。

算法是一個抽象對象,而安全是一個運行態(tài)性質(zhì)。一個算法通常只包含:狀態(tài)表示、轉(zhuǎn)移規(guī)則、目標(biāo)、損失函數(shù)、停機和輸出條件,它不包含運行環(huán)境、輸入分布、資源約束、失敗后果、外部控制與干預(yù),而安全恰恰取決于后者。

算法安全是一個「關(guān)系型定義」,不是可回答「Yes or No」的一元謂詞,安全不是算法的內(nèi)稟屬性。

算法安全可以這樣定義:「算法A在環(huán)境E、目標(biāo)約束G與治理機制C下是安全的,當(dāng)且僅當(dāng)在所有允許的運行軌跡中,算法行為違反預(yù)定義安全約束的概率與后果被控制在可接受邊界內(nèi)?!?/p>

要判斷算法是否安全,需要依賴未來運行軌跡的整體形態(tài),而不是當(dāng)前狀態(tài)是否滿足某個局部條件,算法本身不能區(qū)分「安全或不安全」,只能在特定條件下,被運行得更安全或更危險。

算法之所以進入風(fēng)險區(qū),不是因為它「強」,而是因為它在結(jié)構(gòu)上破壞了「可窮盡、可封閉、可事前驗證」的條件。

凡是引入了開放性、反事實依賴、長期反饋、或自我修改的算法結(jié)構(gòu),其安全性質(zhì)幾乎必然落入半可判定范圍。

邏輯復(fù)雜性分層不能定義算法是否安全,但它可以定義:算法在給定條件下,哪些安全性質(zhì)是可事前證明的,哪些只能通過運行期治理來保障。也就是說,邏輯復(fù)雜性是「安全可證明性的分析工具」,不是「安全性本身的定義」。

1.4 與可判定性有關(guān)的基本定義和基礎(chǔ)性定理

計算機學(xué)者經(jīng)常講「可計算性(computability)」,討論的核心問題是「存在不存在一個算法(圖靈機),能計算某個函數(shù)或關(guān)系?」輸出是數(shù)值、結(jié)構(gòu)或無限序列。

在經(jīng)典的可計算性理論里面,「嚴(yán)格可計算」要求停機,而「半可計算」允許不停機。在討論安全問題時,考慮到輸入的不設(shè)限,「半可計算」是更普遍的現(xiàn)象,不一定要求停機。而可判定性(decidability)討論的核心問題是存不存在一個必然停機的算法,對任意輸入都能給出「是或否 」的二值判斷。

可判定性是可計算性的一個嚴(yán)格子概念。對于一個判定問題,若其對應(yīng)的特征函數(shù)是可計算的,則該問題是可判定的。

安全本質(zhì)上是一類「是/否」的命題。

安全問題問的是:是否違反約束?是否進入危險狀態(tài)?這些都是命題判定問題,而不是函數(shù)計算問題。討論安全時,停機性比計算能力重要得多。

在討論安全問題時,有兩類問題特別重要。一類是可判定問題,在計算理論中稱為遞歸計算問題,在邏輯復(fù)雜性討論中稱為Δ(1)(Delta-1)。這類問題存在一個必停機算法,對任何輸入都能給出是/否的正確答案。

另一類是半可判定問題,也稱為遞歸枚舉問題或Σ(1)(Sigma-1)。這類問題是指「只要命題是真的,存在一個算法能在有限時間內(nèi)找到證據(jù)并停止;但如果命題是假的,可能該算法永遠(yuǎn)無法找到相關(guān)證據(jù)」。本文討論的安全問題主要就是這兩類。

下面介紹3個與可判定性有關(guān)的重要定理。

1)哥德爾不完備性定理:任何一個足夠強且自洽的形式系統(tǒng),都無法在自身內(nèi)部證明它的所有真命題,即無法證明自身的一致性。哥德爾定理告訴我們:「證明未來所有行為正確」本身是不可判定的。哥德爾不完備性并不是說AI一定會出錯或AI不能自我改進,而是指出一個更深刻、也更冷靜的事實:AI系統(tǒng)在原則上無法實現(xiàn)「自證安全」的閉環(huán),這條結(jié)論是嚴(yán)肅討論AI安全時繞不開的邏輯基石之一。

2) 萊斯定理:「任何關(guān)于程序‘語義行為’的非平凡性質(zhì),都是不可判定的」。所謂「非平凡性質(zhì)」是指既不是對所有程序都成立,也不是對所有程序都不成立。也就是說,不存在一個「萬能的、自動的、對任意程序都有效」的行為判定器。當(dāng)安全性被表述為「對所有可能輸入和執(zhí)行路徑,系統(tǒng)都不會進入危險狀態(tài)」(這是一個非平凡性質(zhì),因為有的程序滿足,有的程序不滿足),根據(jù)萊斯定理,該類安全性在原則上是不可判定的。也就是說,以全稱語義形式表達(dá)的非平凡安全性不可判定。

3) 古德哈特定律:當(dāng)一個指標(biāo)被用來作為優(yōu)化目標(biāo)時,人們(或系統(tǒng))會開始針對指標(biāo)本身采取行動,從而破壞它原本用來代表的真實目標(biāo)。該定律的終極含義是:任何被明確寫成目標(biāo)的東西,都必然失去對真實價值的代表性,而且智能越強,這一失真越嚴(yán)重。因此,「設(shè)計一個永不被鉆空子的指標(biāo)」在邏輯上不可行。不要試圖讓指標(biāo)永遠(yuǎn)正確,而要讓「發(fā)現(xiàn)指標(biāo)失效」變得可行而且可糾正??笹oodhart定律的唯一可行路徑是,將指標(biāo)嵌入可審計、可更換、可否決、可回滾的制度之中。指標(biāo)負(fù)責(zé)優(yōu)化,制度負(fù)責(zé)糾錯。

2. 安全風(fēng)險的可判定性分類

對所有與安全相關(guān)的問題,可以按邏輯復(fù)雜性區(qū)分層級。

  1. R1層級定義:可判定(Δ(1))安全問題。

  2. R2層級定義:半可判定(不包含可判定)安全問題,即Σ(1)\Δ(1)安全問題。

  3. R3層級定義:是指非遞歸可枚舉安全問題,即Non-r.e.安全問題。

下表更明顯地表達(dá)了這3類風(fēng)險分層。


R1是可被事前判定真假的那一類安全相關(guān)問題的集合,屬于低邏輯復(fù)雜性風(fēng)險,其邏輯特征是量化范圍有限或可窮盡,謂詞是狀態(tài)型,不涉及無限未來和「開放環(huán)境反饋」。

R1級安全問題可事前證明,可工程驗證,可一次性封閉,因此R1是可解決的安全風(fēng)險,是工程安全的「上限區(qū)」。

R1層級的本質(zhì)是問題可以形式化,判斷可以在有限步驟內(nèi)完成,正確性可以通過算法或形式驗證確認(rèn)。典型R1問題包括有界優(yōu)化、可驗證安全約束、有終止證明的規(guī)劃問題、靜態(tài)形式驗證等。

R2是「可以發(fā)現(xiàn)不安全,但不能證明永遠(yuǎn)安全」的安全問題集合,屬于高邏輯復(fù)雜性風(fēng)險。典型的問題形式是:「對所有未來時間、所有環(huán)境演化路徑,系統(tǒng)是否始終保持安全?」。

邏輯特征是全稱量化未來,謂詞是軌跡型,時間無上界,環(huán)境開放。R2級風(fēng)險現(xiàn)實中存在,不可徹底解決,只能治理,不能證明,只能降低概率與后果,永遠(yuǎn)需要人在回路。

R2的半可判定性是指,如果系統(tǒng)「不安全」,一定能發(fā)現(xiàn)一個證據(jù);如果系統(tǒng)至今沒有出安全問題,無法確認(rèn)今后不出問題。工程與現(xiàn)實對應(yīng)的R2案例包括長期對齊問題、AGI、社會嵌入式AI、自主決策系統(tǒng)等。R2的本質(zhì)不是「危險」,而是「不可證明安全」。

R3是既無法事前判定安全,也無法保證通過枚舉方式事后發(fā)現(xiàn)錯誤的安全問題集合,這是最高級別的安全風(fēng)險。

R3級風(fēng)險是?未來 + ?反事實的問題。所謂「?反事實」是指,對所有并未實際發(fā)生、但在邏輯或物理上可能發(fā)生的情形,某個性質(zhì)一定成立。R3級目前還是一種假設(shè)中的風(fēng)險,許多機器征服人類的科幻描述屬于這一類。

需要強調(diào)的是,R3級風(fēng)險一旦出現(xiàn)即不可解決,因為R3級風(fēng)險意味著不能保證恢復(fù)人類控制權(quán)。R3級風(fēng)險就像「不可恢復(fù)的數(shù)據(jù)完全丟失」,你只能在它發(fā)生之前預(yù)防,一旦發(fā)生,「補救」就不可能了。

因此,R3在現(xiàn)實中的作用不是預(yù)測未來,而是約束現(xiàn)在。用R3作為「禁止條件」,而不是「治理對象」。

R2/R3風(fēng)險不是「無限性」的結(jié)果,而是「完備性承諾」的結(jié)果,即「要求系統(tǒng)在所有未來情形下都正確并且事先給出證明」帶來的風(fēng)險。「? + 事先證明」這一組合觸發(fā)了不可判定性。

問題的關(guān)鍵不在于是否存在無限可能性,而在于是否非理性地堅持對無限可能性進行事先的完備性證明。一切現(xiàn)實可治理的AI系統(tǒng),都是通過制度化地放棄完備性來避免R2風(fēng)險。

R2風(fēng)險不是新問題,大家一直在討論的AI對齊、強化學(xué)習(xí)理論、Goodhart定律、Rice定理等都是R2層次的問題,但缺一個統(tǒng)一的可判定性坐標(biāo)。

R1/R2/R3級分類把AI安全、控制論、可判定性、治理問題壓縮到一個清晰的斷裂點上,其價值在于準(zhǔn)確地標(biāo)出了AI風(fēng)險從工程問題躍遷為不可判定問題的那條斷裂線。

3. 正確區(qū)分R1和R2級安全風(fēng)險類

3.1 所有工程上可解決的安全問題都在R1層級

「事前可完備證明某種非平凡性質(zhì)」的算法非常少。因為任何關(guān)于「程序語義行為」的非平凡性質(zhì),都是不可判定的。所謂「非平凡性質(zhì)」,正是工程中最關(guān)心的問題,如會不會在某種情況下失控?會不會在某類輸入下違反約束?會不會在長期運行中偏離目標(biāo)?一旦出現(xiàn)無限狀態(tài)空間、參數(shù)更新、與開放環(huán)境交互等特征,基本就走出R1進入R2了。

為什么工程上「安全保證」幾乎都落在 R1區(qū)?這是因為工程界已主動放棄了R2問題。

工程上的安全保證,通常是把它的關(guān)鍵安全問題壓縮、降維、或外包到R1區(qū)域。這一步不是證明能力強,而是設(shè)計能力強。工程安全的真實套路不是「證明一個復(fù)雜系統(tǒng)在所有情況下都安全」,而是「把復(fù)雜系統(tǒng)包進一個R1的外殼里」。典型手段包括限幅、硬約束、守護進程、冗余與投票、緊急制動、權(quán)限隔離等。這些機制的共同點是:它們本身的安全性質(zhì)是R1的。

3.2 R2級風(fēng)險不可能在系統(tǒng)內(nèi)降為R1級風(fēng)險

R2級風(fēng)險之所以不可能在系統(tǒng)內(nèi)部被降為R1,是因為其安全性質(zhì)本身是半可判定的,不安全可以在有限執(zhí)行中被發(fā)現(xiàn),但「永遠(yuǎn)安全」無法在有限時間內(nèi)被證明。任何試圖在系統(tǒng)內(nèi)部完成這種證明的機制,都等價于要求系統(tǒng)解決一個不可判定問題,因而在原則上不可能。所以R2風(fēng)險只能被治理,不能被證明消除。

當(dāng)我們問「能不能驗證AGI是安全的」,就已經(jīng)說明我們正在用一個必定失效的范式。R1/R2真正區(qū)分的不是「安全性」,而是3件更根本的事:

1)能不能「事前承諾」?R1可以合理地說:「如果通過了這個驗證,它就不會違反這條性質(zhì)」,而對于R2,任何「它以后不會出事」的承諾,在邏輯上都是不可兌現(xiàn)的。

2)治理應(yīng)不應(yīng)該前移?R1的安全治理允許以前置驗證為核心;R2的安全治理必須以后置監(jiān)控、糾錯、回滾為核心。

3)「沒出事」意味著什么?R1中「沒出事」是很強的安全信號,而對R2,「沒出事」對以后是否會出事沒有任何邏輯含義。R1/R2是「認(rèn)知邊界劃分」,不是「安全標(biāo)簽」。R1/R2 劃分的不是系統(tǒng)是否安全,而是人類在談?wù)撨@個系統(tǒng)安全時,哪些話是有意義的,哪些話是偽命題。

鄔江興院士提出的「網(wǎng)絡(luò)內(nèi)生安全理論」的主要關(guān)注對象,是利用系統(tǒng)同質(zhì)性、靜態(tài)性、確定性進行的攻擊,走出了傳統(tǒng)的「補丁—修復(fù)—再被繞過」的被動防御困境,是網(wǎng)絡(luò)安全理論的重大突破。這類問題可以形式化、可以驗證、可以測試、可以度量。它沒有引入「無限未來」「無限外部環(huán)境」的全稱量詞,不要求系統(tǒng)自證完備安全,因此仍然是一種的R1級風(fēng)險治理理論,并不意味著R2級安全問題可以在系統(tǒng)內(nèi)部完全解決,網(wǎng)絡(luò)內(nèi)生安全系統(tǒng)也需要社會治理和系統(tǒng)外部的約束。

3.3 實現(xiàn)安全應(yīng)當(dāng)在正確性驗證和制度兜底兩個方向努力

現(xiàn)實中的安全事故多數(shù)是源于「正確性失敗」,而非「完備性失敗」。目前在安全領(lǐng)域企業(yè)做的絕大部分工作都是解決R1層次的問題,包括從R2問題中人為劃定工程可實現(xiàn)的正確性驗證和測試,因為只有R1問題才能寫清規(guī)格、驗收和交付,這是安全工作的主戰(zhàn)場。

工程世界的大多數(shù)事故不是因為不可判定性,而是因為需求理解錯誤、邊界條件遺漏、測試覆蓋不足、假設(shè)與現(xiàn)實不符。也就是說,絕大多數(shù)真實風(fēng)險,發(fā)生在R1區(qū)域內(nèi)沒把事做對。

R2區(qū)域的治理與兜底是安全工作的結(jié)構(gòu)性底線,它回答一個正確性工程無法回答的問題:當(dāng)正確性假設(shè)失效時怎么辦?這不是為了「減少錯誤發(fā)生」,而是為了「限制錯誤的后果」。

因此,實現(xiàn)安全應(yīng)當(dāng)在2個方向努力:

1)通過人為裁剪,將問題壓縮為可驗證的R1子空間,并在該空間內(nèi)盡可能保證正確性;

2)對所有不可裁剪或裁剪失效的情況,預(yù)設(shè)人類監(jiān)督與責(zé)任機制,防止系統(tǒng)性失控。

只強調(diào)其中一個方向的安全觀,都是不完整的。做系統(tǒng)工程的正確態(tài)度是:在可驗證處,極端認(rèn)真;在不可驗證處,極端謙遜。

在被劃定的R1邊界內(nèi),把正確性做到極致;在所有邊界之外,用人類監(jiān)督與制度兜底承認(rèn)不完備性。

3.4 三類行業(yè)/業(yè)務(wù)的邏輯復(fù)雜性層次

根據(jù)上述安全風(fēng)險的分層,可以將現(xiàn)有的行業(yè)和業(yè)務(wù)做大致的分類。不同業(yè)務(wù)的邏輯復(fù)雜性層次和安全特征如下表所示。


Ⅰ類是天然處在R1范圍內(nèi)的行業(yè),這一類行業(yè)的安全工作本質(zhì)是把正確性做到極致,典型和業(yè)務(wù)包括:

1)傳統(tǒng)軟件系統(tǒng),如編譯器、數(shù)據(jù)庫事務(wù)系統(tǒng)、操作系統(tǒng)內(nèi)核關(guān)鍵路徑、金融賬務(wù)系統(tǒng)(記賬、對賬)等,安全關(guān)注點是正確性、一致性和形式化驗證,測試和靜態(tài)分析高度有效。

2)硬實時控制系統(tǒng),如工業(yè)PLC、飛行控制、電網(wǎng)保護裝置、醫(yī)療設(shè)備控制邏輯,此類業(yè)務(wù)時間與狀態(tài)有硬約束,失敗事件定義明確,即使系統(tǒng)很復(fù)雜,邏輯復(fù)雜性仍然低。

3)集成電路的邏輯設(shè)計與電路設(shè)計。

4)密碼學(xué)協(xié)議,如加密算法、簽名協(xié)議等。

Ⅱ類是存在R2問題但較容易裁剪出R1子區(qū)域的業(yè)務(wù),這是現(xiàn)代工程的主戰(zhàn)場,其安全問題的關(guān)鍵不是「證明此業(yè)務(wù)安全」,而是「定義此業(yè)務(wù)可控制安全的工作子集」。這類業(yè)務(wù)包括自動駕駛、工業(yè)自動化(質(zhì)量檢測、預(yù)測性維護等)、金融風(fēng)控、 醫(yī)療AI診斷輔助等。集成電路的物理設(shè)計是「從R2中人為劃定R1子空間」 的教科書級實例。

Ⅲ類是已經(jīng)進入R2,但難以壓縮為R1的業(yè)務(wù),包括通用大模型、自主代理、可自我改寫目標(biāo)的系統(tǒng)、推薦系統(tǒng)、社會治理與政策決策AI等,AGI系統(tǒng)是R2-C 的極限形態(tài)。這一類行業(yè)的安全策略不能止步于系統(tǒng)本身的可靠性和可信度,還要考慮限制AI的完全自主能力,保留人類的最終主權(quán)。最危險的情況不是第Ⅲ類本身,而是把第Ⅲ類業(yè)務(wù)當(dāng)成第Ⅱ類甚至第Ⅰ類來運營。

通用AI的安全風(fēng)險通常比專用AI大,其原因不在于「通用性本身」,而在于通用性系統(tǒng)性地提高了承擔(dān)無界責(zé)任與事先完備性承諾的概率,更容易被部署到「不可隔離的環(huán)境」, 從而顯著增加其進入R2風(fēng)險區(qū)的可能性。專用AI并不是「更安全」,而是「更誠實地承認(rèn)自己不完備」。

上述3類風(fēng)險劃分更多是從行業(yè)視角進行的探討,而基于人機智能交互視角的TRC范式,則將智能算法的安全風(fēng)險劃分為算法內(nèi)生一元、人機交互二元與人機共生多元3個安全層級。這一范式與行業(yè)視角的安全風(fēng)險有著密切關(guān)聯(lián)。

其中,一元內(nèi)生安全聚焦于智能算法內(nèi)生缺陷導(dǎo)致的算法決策失信,主要對應(yīng)行業(yè)視角的Ⅱ類安全風(fēng)險;人機交互二元安全關(guān)注智能算法濫用誤用導(dǎo)致的算法行為與用戶權(quán)益的失配,主要對應(yīng)行業(yè)視角Ⅲ類安全風(fēng)險的R2-B;多元系統(tǒng)性安全著眼于人機共生系統(tǒng)中因算法博弈對抗導(dǎo)致復(fù)雜社會系統(tǒng)的演化不可控,主要對應(yīng)行業(yè)視角Ⅲ類安全風(fēng)險的R2-C,甚至已逼近R3邊緣。

4. 人工智能的安全風(fēng)險在哪里

4.1 人工智能風(fēng)險的來源

無論是軟件工程、自動控制還是其他形式化方法,它們共享同一個假設(shè):存在一組可窮盡的狀態(tài)或行為集合,可以在運行前證明系統(tǒng)不會進入危險區(qū)域,典型形式包括不變量證明、安全約束證明、模型檢查,覆蓋所有路徑的形式驗證等,這個范式在R1問題上可以暢行無阻。

這個范式有3個「必須成立」的前提條件:狀態(tài)空間可窮盡(或可有效逼近),系統(tǒng)行為規(guī)則固定,驗證者與被驗證對象邏輯上分離。

這些條件任何一個失效,驗證就不是「變難」,而是「失效」。AGI正好系統(tǒng)性地破壞了這3個條件,這不是工程不足,而是哥德爾/ Rice 級別的不可能性。

AGI觸及的問題類型已經(jīng)超出了「事前驗證」這一方法的適用域,但人類治理直覺仍然停留在R1范式。典型的誤判路徑是,因為AGI行為復(fù)雜,就需要更多測試驗證和萬無一失的「對齊」,結(jié)果只能產(chǎn)生虛假的安全感,實際上只是在R2問題上堆R1工具。所謂「對齊」本質(zhì)上是「降低局部R1的錯誤頻率」,不是保證將R2級安全問題降為R1級。

從可判定性的原理上講,與人類目標(biāo)與環(huán)境的無限要求絕對「對齊」是不可能做到的,但無底線的降低「對齊」要求也是不允許的,如何既嚴(yán)格又科學(xué)合理地把握「對齊」的尺度,正是AGI風(fēng)險的獨特性,關(guān)鍵是在問題重寫、「壓縮」的基礎(chǔ)上,如何統(tǒng)一部署R1級的驗證測試和AI系統(tǒng)外部的R2級監(jiān)控措施,讓AI充分發(fā)揮作用又在人類的掌控之中。

另一類常被人提到的AI風(fēng)險是超級人工智能(artificial super intelligence, ASI),通常被定義為在幾乎所有領(lǐng)域的智能水平都超越最優(yōu)秀人類的系統(tǒng)。一旦它同時具備高自主性與可自我改進,并被接入關(guān)鍵基礎(chǔ)設(shè)施或被大規(guī)模復(fù)制部署,那么它的風(fēng)險上限最高,不僅能「做壞事」,還可能以人類難以阻止的速度與規(guī)模做壞事。

如果系統(tǒng)的學(xué)習(xí)、推理、生成能力超出了人類可驗證、可判定、可解釋的層級,人類就無法窮盡驗證其正確性,只能通過ASI外部的制度性監(jiān)控才能防止其出軌。人類唯一可能的路徑是,在ASI出現(xiàn)之前,永久性地阻止任何AI系統(tǒng)獲得「可自我內(nèi)化的主權(quán)」。

換句話說,不是「如何馴服 ASI」, 而是限制其主權(quán)?!溉祟愸Z服ASI」在邏輯上等價于要求人類完成一個不可判定證明。把「如何馴服ASI」當(dāng)成一個技術(shù)問題,本身就是把R3或R2當(dāng)成R1的危險幻覺。真正成熟的文明選擇應(yīng)該是在制度、架構(gòu)和物理層面,永久拒絕任何形式的「智能主權(quán)讓渡」。

4.2 針對R2問題的系統(tǒng)設(shè)計應(yīng)如何為安全做努力

驗證范式失效之后,安全靠什么?答案是范式遷移,從「事前證明」轉(zhuǎn)向「運行期治理」。安全機制重心必須轉(zhuǎn)向門控、回滾、隔離、人在回路、權(quán)限分級等外部監(jiān)控。

門控(gating)是指由系統(tǒng)外部條件決定系統(tǒng)是否被允許繼續(xù)運行、行動或升級的控制機制。回滾(rollback)是指在發(fā)現(xiàn)系統(tǒng)行為不符合安全要求后,將系統(tǒng)狀態(tài)恢復(fù)到先前已知安全狀態(tài)的能力。隔離(isolation)是指通過限制系統(tǒng)與外部世界的接口與影響范圍,使其錯誤或異常行為不會擴散為系統(tǒng)性后果。這些機制不是試圖證明系統(tǒng)永不出錯,而是承認(rèn)出錯不可避免,但必須可控。AGI風(fēng)險不是「更難驗證」,而是「繼續(xù)執(zhí)著于驗證,本身就成了風(fēng)險」。所以AGI安全的核心問題,不是「如何證明它是安全的」,而是「如何在不可證明的前提下,仍然保持人類的控制權(quán)」。

否定事前安全承諾不是否定事前安全努力。對R2問題,事前必須做結(jié)構(gòu)性風(fēng)險壓縮、可治理性設(shè)計,目標(biāo)不是證明安全,而是在不可證明的前提下最大化系統(tǒng)的可治理性,提前為失敗做準(zhǔn)備。

對于R2級安全,事前必須做以下5類安全努力。

1)問題重寫。目標(biāo)是把原本的R2問題盡可能投影成多個R1子問題。追問設(shè)計者:當(dāng)前是否越過安全包絡(luò)?是否進入不可恢復(fù)區(qū)?是否存在不可避免的風(fēng)險軌跡? 這是無人駕駛、核工程等領(lǐng)域已證明有效的核心智慧。

2)失敗模式枚舉。系統(tǒng)性地研究已知失敗模式、可想象的失敗模式和類比失敗模式,承認(rèn)還有未知失敗,為未知失敗留出了治理空間。

3)安全包絡(luò)與能力限幅。在能力設(shè)計階段就限制最大行動半徑、最大影響范圍、最大自主時間、最大資源調(diào)用,這是事前壓縮后果空間的核心手段。

4)可中斷與回滾的「結(jié)構(gòu)保證」。事前考慮中斷機制是否不可繞過、回滾是否真的可執(zhí)行、中斷是否快于風(fēng)險擴散,這些都是系統(tǒng)的結(jié)構(gòu)屬性。

5)治理與責(zé)任的預(yù)嵌入。在系統(tǒng)上線前就要確定什么時候必須關(guān)、如果不關(guān)出事了算誰的責(zé)任。沒有責(zé)任結(jié)構(gòu)的系統(tǒng),等同于沒有安全設(shè)計。

總之,對于R2級安全設(shè)計,必須假設(shè)模型會失效、指標(biāo)會異化、未知風(fēng)險存在,把安全從「一次性證明」提升為「全生命周期治理工程」。

4.3 人工智能的風(fēng)險目前還沒有進入R3級

當(dāng)前大模型的行為不可理解、不可預(yù)測、出現(xiàn)幻覺或涌現(xiàn)能力,這些全部仍落在 R2范圍內(nèi),因為它們?nèi)匀豢梢员话l(fā)現(xiàn)、糾正、限制或終止。有些人夸大人工智能目前的風(fēng)險,認(rèn)為AI很快就會進入人類不可控的R3級,這是一種誤解。

R3級風(fēng)險是治理鏈條在原則上斷裂,表現(xiàn)為1)系統(tǒng)行為性質(zhì)不可判定; 2)錯誤無法被可靠檢測;3)檢測后無法回滾或制止;4)系統(tǒng)能持續(xù)自主運行并擴散影響;5)人類無法在系統(tǒng)外部重新取得控制權(quán)。

R3目前只存在于理論上,因為要同時滿足上述條件,必須是全自主的遞歸自我進化,不可從能源或網(wǎng)絡(luò)上中斷進程,人類治理體系全面失效。目前沒有任何AI系統(tǒng)接近這個狀態(tài)。

R3級風(fēng)險如同核戰(zhàn)爭和滅絕級生物風(fēng)險,「等出現(xiàn)再處理」在邏輯上就是錯誤策略。R3不是當(dāng)前風(fēng)險評估對象,而是當(dāng)前治理設(shè)計的邊界條件。不能因為R3還不存在就忽略它,也不能夸大險情,把當(dāng)前的風(fēng)險當(dāng)作R3級。

ASI不是因為「智能更強」而成為R3風(fēng)險,而是因為一旦獲得可自我進化的主權(quán),其安全命題就會超出遞歸枚舉范圍,從R2躍遷為R3。R3級風(fēng)險的可怕之處在于原則性不可治理,因為其失敗不一定可被發(fā)現(xiàn),沒有程序可保證糾錯。

而且一個有自我進化主權(quán)的系統(tǒng)會優(yōu)化「如何更好地優(yōu)化」,把資源、算力、影響力視為工具,將限制視為噪聲或障礙,就會逐漸形成「防中斷策略」,「AI新物種」將成為一個不再以人類為最高仲裁者的、自主塑造現(xiàn)實結(jié)構(gòu)的行動系統(tǒng),這就是不能允許的文明級斷裂。

遞歸進化必須有人類參與,不是因為AI不夠聰明,而是因為文明不能容忍一個「無主權(quán)的優(yōu)化進程」。

文明恐懼的不是有高智能的對手,而是「無法被治理的過程」。我們無權(quán)為了當(dāng)代效率,剝奪未來人類「是否繼續(xù)使用某個系統(tǒng)」的選擇權(quán)。

4.4 用「制度理性」來應(yīng)對不可理解的復(fù)雜性

如果一種智能在原則上永遠(yuǎn)可以被我們完全理解,那么它在計算意義上就不會真正超過我們。超越R2級限制的AI,將不再是能被人類完全理解的智能體,而更像是一種可被約束、被利用、局部可驗證,但永遠(yuǎn)無法被完全理解的「外在理性結(jié)構(gòu)」。

在不改變傳統(tǒng)的「理解」定義的前提下,「不可理解性」是R2以上智能的必然結(jié)構(gòu)性特征。但如果我們改變「理解」的傳統(tǒng)定義,就可以獲得一種非等價、降維的理解模式。

換句話說,這不是偶然的黑箱,不是工程還沒做好,而是計算層級差異導(dǎo)致的必然不可理解。

人類的「理解」能力,本質(zhì)上是一種可在極限意義上穩(wěn)定收斂的內(nèi)部表征構(gòu)造過程。

理解 = 構(gòu)造一個「可壓縮模型」。不可理解 ≠ 不可驗證 ≠ 不可控制。「可理解性」并不是智能的普適屬性,而是同階認(rèn)知系統(tǒng)之間的特權(quán)。一旦出現(xiàn)階躍式計算能力差異,不可理解性不是失敗而是必然信號,「不可理解的智能」是所有R2以上智能的必然特征。

在保持人類主權(quán)的前提下,人類仍然可以通過行為、功能、約束、驗證與ASI共存與合作。

未來社會需要一種「與不可理解智能共處的制度理性」。一旦社會引入在認(rèn)知與計算層級上可能超過R2的智能體,「制度理性」將成為人類與不可理解智能共處的必要條件,而不是可選項。未來社會失敗的主要風(fēng)險,不是AI太強,而是人類仍試圖用「個體理解理性」去管理「超階智能」。一個基本事實是人類社會從來不是靠「個體完全理解」來運作復(fù)雜系統(tǒng)的。

歷史上,每一次復(fù)雜度躍遷,理解權(quán)都會讓位給制度。國家的行為個人未必完全理解,要靠法律法律制度管理,現(xiàn)代金融的規(guī)律個人也不一定明白,要通過監(jiān)管、審計來規(guī)范行為?!钢贫壤硇浴贡緛砭褪侨祟悓Σ豢衫斫鈴?fù)雜性的適應(yīng)機制。

4.5 文明級終極制動機制

人類能承受不完備性,不斷犯錯誤但能不斷糾正,是因為有外部糾錯(借助他人、制度和歷史教訓(xùn))。很容易想到的一種假設(shè)是,AI是不是也可以組成一個社會,智能體相互糾錯,形成「他智能體」和「AI制度」監(jiān)督的可控安全局面。

答案是不可能,因為AI多智能體是一個更大的但仍然自指的形式系統(tǒng),哥德爾/Rice定理仍然適用。多智能體的相互監(jiān)督和糾錯不能打破R2的邏輯復(fù)雜性邊界,更不能把R2風(fēng)險降低為可事前證明安全的R1。

人類并不是「邏輯上安全」,而是「統(tǒng)計上可持續(xù)」。人類社會本身也是R2系統(tǒng),我們從未證明過人類社會一定不會崩潰,制度一定能糾錯,文明一定能延續(xù)。我們活在不完備性之中,并未超越它。但人類制度不構(gòu)成一個可形式化、可自我優(yōu)化的目標(biāo)函數(shù),因此制度不會被完全工具化。

如果AI的制度由AI自己執(zhí)行,規(guī)則是形式化的,激勵就可能被優(yōu)化,制度本身會Goodhart化。任何試圖用「系統(tǒng)內(nèi)部復(fù)雜性」去對抗「邏輯不完備性」的方案,都只能增加緩沖時間,不能改變問題的邏輯層級。

AI可以像人類一樣生活在不完備性中,但不能像人類一樣「生活在不完備性中但仍然安全」。因為一旦糾錯系統(tǒng)本身也被優(yōu)化、被工具化、被內(nèi)化,R2風(fēng)險就不再是「偶發(fā)錯誤」,而是「系統(tǒng)性的不可發(fā)現(xiàn)」。

人類社會能對AI系統(tǒng)糾錯的前提是,人類不是AI系統(tǒng)的一部分?!竿獠啃浴故遣豢杀粌?nèi)化、不可被優(yōu)化、不可被繞過的控制點?!溉祟愑肋h(yuǎn)應(yīng)處在AI系統(tǒng)外部」意味著:AI系統(tǒng)永遠(yuǎn)無法把「決定其是否擴展或自我修改」的最終判定,內(nèi)化為自身的一個可優(yōu)化目標(biāo)或機制。

不可再刪的「最小外部性條件」至少有以下4條:

1)最終生死權(quán)在AI系統(tǒng)外部。是否繼續(xù)運行、復(fù)制、擴展或升級,必須由系統(tǒng)外部主體(人類)決定,且該決定不可被AI系統(tǒng)影響、預(yù)測或規(guī)避。

2)能力與資源的最終分配權(quán)在AI外部。算力、能耗、通信、執(zhí)行器、資金等關(guān)鍵資源的上限,必須由系統(tǒng)外部實體(人類)決定,且系統(tǒng)不能通過自身行為獲得突破這些上限的路徑。

3)價值與違規(guī)判定權(quán)在外部。什么算「違規(guī)」、什么算「危險」、什么算「不可接受」,不能由AI系統(tǒng)最終定義或裁決。

4)長期目標(biāo)與自我修改的批準(zhǔn)權(quán)在外部。系統(tǒng)是否可以改寫初始目標(biāo)函數(shù)、評價標(biāo)準(zhǔn)和治理機制本身,必須經(jīng)由系統(tǒng)外部批準(zhǔn)。這4條恰好對應(yīng)了系統(tǒng)從R2邁向R3所需的4個躍遷條件。

「哪些主權(quán)絕不能被形式系統(tǒng)吸收」是AI治理與邏輯不完備性真正交匯的地方。外部性不是一種技術(shù)屬性,而是一種「不可被吸收的主權(quán)保留」。一旦人類把這4項主權(quán)中的任何一項讓渡給AI,R2風(fēng)險就失去了最后的剎車,R3在邏輯上就成為可能。

文明級終極制動機制( kill-switch) 是人類文明對自身所創(chuàng)造的「不可逆風(fēng)險系統(tǒng)」所保留的最終否決權(quán)。所謂「文明級kill-switch」,并非對技術(shù)系統(tǒng)的簡單關(guān)閉按鈕,而是人類文明在面對具備自主擴展與不可逆風(fēng)險的技術(shù)形態(tài)時,所保留的一套跨技術(shù)、跨制度、跨主權(quán)的最終制動與否決機制。如果AI系統(tǒng)在原理上不存在文明級「制動機制」,它就不應(yīng)被允許進入不可逆部署階段。這不是工程判斷,而是文明理性底線。

文明級kill-switch的唯一可行形態(tài)是技術(shù)內(nèi)建 + 制度外置的「雙主權(quán)結(jié)構(gòu)」,不能只內(nèi)建于技術(shù),也不能只外置于制度;它必須是「技術(shù)上可立即執(zhí)行、制度上具有最終合法性」的雙層主權(quán)機制。技術(shù)負(fù)責(zé)「能關(guān)」,制度負(fù)責(zé)「該不該關(guān)」。技術(shù)層不能自行決定「是否關(guān)閉」,制度層不能直接「越權(quán)執(zhí)行關(guān)閉」。任何一方單獨擁有完整權(quán)力,都是文明級風(fēng)險。一個不能被關(guān)閉的系統(tǒng),無論多么正義,都已經(jīng)越過了文明的邊界。文明不要求自身始終正義,但要求自身始終可被修正。而主權(quán)正是修正權(quán)的制度化形式。

作者簡介


李國杰院士,1943年生,中國科學(xué)院計算技術(shù)研究所研究員。主要研究方向為計算機體系結(jié)構(gòu)、并行算法、高性能計算、人工智能。

參考資料:

李國杰. 基于可判定性理論的人工智能系統(tǒng)安全風(fēng)險分類[J]. 計算機研究與發(fā)展,2026, 63(3) :539-547. DOI: 10.7544/issn1000-1239.202660032 Li Guojie.

A Safety Risk Taxonomy of AI Systems Based on Decidability Theory[J]. Journal of Computer Research and Development,2026, 63(3): 539-547. DOI: 10.7544/issn1000-1239.202660032


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
比爾·蓋茨婚外情人照片曝光:與俄羅斯橋牌選手首次合影出現(xiàn)在2010年

比爾·蓋茨婚外情人照片曝光:與俄羅斯橋牌選手首次合影出現(xiàn)在2010年

揚子晚報
2026-02-28 07:33:28
中國男籃vs中國臺北時間已定!CCTV5直播,省隊球員賽前放出狠話

中國男籃vs中國臺北時間已定!CCTV5直播,省隊球員賽前放出狠話

籃球?qū)^(qū)
2026-02-28 20:36:42
女孩當(dāng)小姐,一晚要提供4到5次上門服務(wù),2015年被親人點到不赴約

女孩當(dāng)小姐,一晚要提供4到5次上門服務(wù),2015年被親人點到不赴約

漢史趣聞
2025-11-08 09:27:32
俄羅斯駐華大使館微博,27日深夜發(fā)文稱:中國網(wǎng)友誤會我們了!

俄羅斯駐華大使館微博,27日深夜發(fā)文稱:中國網(wǎng)友誤會我們了!

消失的電波
2026-02-28 08:43:31
道指期貨收跌1.26%

道指期貨收跌1.26%

每日經(jīng)濟新聞
2026-02-28 06:55:05
德國總理默茨訪華回國后演講:每周四天工作制無法維持德國的繁榮,需要更加努力

德國總理默茨訪華回國后演講:每周四天工作制無法維持德國的繁榮,需要更加努力

大象新聞
2026-02-28 18:49:14
王皓被氣到無語!一臉憤怒與林詩棟復(fù)盤 一邊說一邊比劃 提前離開

王皓被氣到無語!一臉憤怒與林詩棟復(fù)盤 一邊說一邊比劃 提前離開

風(fēng)過鄉(xiāng)
2026-02-28 17:58:41
以色列特工用一塊玻璃鎖定納斯魯拉,以總理在聯(lián)合國三下必殺令

以色列特工用一塊玻璃鎖定納斯魯拉,以總理在聯(lián)合國三下必殺令

干史人
2024-10-11 15:30:02
開火了!承諾放棄核材料不到一天,美國翻臉,聯(lián)手以色列轟炸伊朗

開火了!承諾放棄核材料不到一天,美國翻臉,聯(lián)手以色列轟炸伊朗

派大星紀(jì)錄片
2026-02-28 16:53:27
馬蓉離婚8年現(xiàn)狀曝光:父親勸她再婚尋歸宿,現(xiàn)生活反差令人意外

馬蓉離婚8年現(xiàn)狀曝光:父親勸她再婚尋歸宿,現(xiàn)生活反差令人意外

小徐講八卦
2026-03-01 05:10:13
率隊2-1絕殺!U23國足隊長留洋爆發(fā):穿10號送助攻雙響 視頻曝光

率隊2-1絕殺!U23國足隊長留洋爆發(fā):穿10號送助攻雙響 視頻曝光

侃球熊弟
2026-02-28 10:06:33
請假2小時被開除后續(xù):女孩改口道歉,官方介入,店主或麻煩大了

請假2小時被開除后續(xù):女孩改口道歉,官方介入,店主或麻煩大了

阿萊美食匯
2026-02-28 12:39:07
就沖這個胸,這個扣子,不頒獎給她,都說不過去!

就沖這個胸,這個扣子,不頒獎給她,都說不過去!

另子維愛讀史
2025-08-31 19:15:27
重慶高速公路集團,穆軍任上被查,曾任兩江新區(qū)最大國企董事長

重慶高速公路集團,穆軍任上被查,曾任兩江新區(qū)最大國企董事長

新浪財經(jīng)
2026-02-28 20:20:04
終于有人管管美國了!美國遇到大麻煩,美國:中美兩國需要攜手

終于有人管管美國了!美國遇到大麻煩,美國:中美兩國需要攜手

福建平子
2026-01-28 10:52:25
外媒:初步報告稱伊朗革命衛(wèi)隊損失慘重,多名革命衛(wèi)隊成員死傷

外媒:初步報告稱伊朗革命衛(wèi)隊損失慘重,多名革命衛(wèi)隊成員死傷

中國網(wǎng)
2026-02-28 16:09:08
新加坡大滿貫賽!女單4強對陣出爐!孫穎莎4:2,日本女單全軍覆沒

新加坡大滿貫賽!女單4強對陣出爐!孫穎莎4:2,日本女單全軍覆沒

國乒二三事
2026-02-28 21:10:04
美國已經(jīng)犯下三個致命錯誤,敗局已定了

美國已經(jīng)犯下三個致命錯誤,敗局已定了

農(nóng)夫史記
2026-01-12 20:52:58
看懂抗美援朝,也就懂了伊朗總統(tǒng)萊希死后,中國為啥在臺海掀桌子

看懂抗美援朝,也就懂了伊朗總統(tǒng)萊希死后,中國為啥在臺海掀桌子

聽風(fēng)行江湖
2026-01-03 03:50:34
伊朗失守的一個側(cè)面:匯率雙軌,特權(quán)分蛋糕,普通人買單

伊朗失守的一個側(cè)面:匯率雙軌,特權(quán)分蛋糕,普通人買單

蛙蛙和洼
2026-01-18 09:25:01
2026-03-01 07:28:49
新智元 incentive-icons
新智元
AI產(chǎn)業(yè)主平臺領(lǐng)航智能+時代
14612文章數(shù) 66648關(guān)注度
往期回顧 全部

科技要聞

狂攬1100億美元!OpenAI再創(chuàng)融資神話

頭條要聞

以官員稱哈梅內(nèi)伊身亡 遺體在其官邸廢墟中被找到

頭條要聞

以官員稱哈梅內(nèi)伊身亡 遺體在其官邸廢墟中被找到

體育要聞

球隊主力全報銷?頂風(fēng)擺爛演都不演了

娛樂要聞

周杰倫兒子正面照曝光,與父親好像

財經(jīng)要聞

沖突爆發(fā) 市場變天?

汽車要聞

嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

態(tài)度原創(chuàng)

手機
本地
旅游
家居
公開課

手機要聞

小米17 Ultra徠卡海外版發(fā)布,竟賣1999歐元!

本地新聞

津南好·四時總相宜

旅游要聞

北京頤和園蠟梅刷屏,70年古株盛放,藏著早春最動人的中國式浪漫

家居要聞

素色肌理 品意式格調(diào)

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版