国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

智譜GLM-5技術(shù)全公開!完全適配華為等國產(chǎn)芯片,美國網(wǎng)友酸了

0
分享至

  • 金磊 發(fā)自 凹非寺
    量子位 | 公眾號 QbitAI

GLM-5是怎么煉成的?

現(xiàn)在,它背后的論文終于完全公開了。



論文的名字也很直接:告別Vibe Coding,邁入智能體工程(Agentic Engineering)。

也正如我們之前實測的那般,它可以自己連續(xù)跑代碼超過24小時、700次工具調(diào)用、800次上下文切換,從零直接手搓一個Game Boy Advance(GBA)模擬器。

一言蔽之,GLM-5把開源AI拽進(jìn)了長任務(wù)時代。

外國網(wǎng)友直呼“GLM-5是最好的開源模型”:



并且還認(rèn)為“極大拉小了和Claude Opus 4.6之間的距離”



除此之外,資本市場的表現(xiàn)也是可以從側(cè)面印證一家大模型公司的實力。

畢竟春節(jié)期間,智譜股價飆升的程度,毋庸置疑,大家有目共睹。

現(xiàn)如今,這份長達(dá)40頁的論文,徹底揭開了它背后的一切技術(shù)秘密。亮點如下:

  • 架構(gòu)方面:在上一代經(jīng)過驗證的ARC(智能體、推理與編程)能力和MoE之上,引入DeepSeek同款稀疏注意力(DSA);成本大幅打下來了的同時,長上下文能力卻一點沒丟。
  • 后訓(xùn)練方面:全新構(gòu)建的異步強(qiáng)化學(xué)習(xí)基礎(chǔ)設(shè)施,把生成和訓(xùn)練解耦,加上獨創(chuàng)的異步智能體RL算法,讓效率大幅提升。
  • 芯片適配方面:GLM-5完成了與華為昇騰、摩爾線程、海光、寒武紀(jì)、昆侖芯、沐曦以及燧原等國產(chǎn)芯片的全棧適配

這也讓不少網(wǎng)友在看完論文之后直呼:

  • 在成本效率方面,美國的AI趕不上中國。



接下來,就讓我們一起深入扒一扒這篇讓外國網(wǎng)友羨慕的技術(shù)論文。

GLM-5的三大關(guān)鍵技術(shù)

在深入技術(shù)之前,我們需要先理解GLM-5在技術(shù)發(fā)展當(dāng)下所面臨的難題,即大模型需要真正開始干復(fù)雜的難活兒了

因為在GLM-4.5時代,智譜已經(jīng)證明了將ARC能力融合進(jìn)單一MoE架構(gòu)是完全可行的。

但當(dāng)模型真正投入到復(fù)雜的軟件工程、長周期多輪對話的真實業(yè)務(wù)中時,算力成本和真實環(huán)境適應(yīng)性成為了老大難的問題。




GLM-5 的整體訓(xùn)練流程

GLM-5要解決的就是這些瓶頸。因此,它在核心技術(shù)方面祭出了三把板斧。

第一板斧:引入DeepSeek同款稀疏注意力機(jī)制

在Transformer架構(gòu)中,傳統(tǒng)的密集注意力計算復(fù)雜度是隨著上下文長度呈平方級(O(N2))增長的。

當(dāng)上下文窗口擴(kuò)展至200K甚至更長時,計算成本將變得極其昂貴,這成為限制智能體處理復(fù)雜任務(wù)的主要瓶頸。

GLM-5的解法是引入DSA這個動態(tài)稀疏注意力機(jī)制,它的核心理念是用動態(tài)的細(xì)粒度選擇機(jī)制替換傳統(tǒng)的密集注意力。與固定的滑動窗口模式不同,DSA 會“審視”內(nèi)容,動態(tài)決定哪些Token是重要的。

然而,直接訓(xùn)練一個基于DSA的超大模型無異于走鋼絲,很容易因為稀疏化帶來的信息丟失而導(dǎo)致梯度爆炸或模型崩塌。

因此,GLM-5團(tuán)隊采取了一種極其巧妙的繼續(xù)預(yù)訓(xùn)練策略,主要包含兩個步驟:

  1. 稠密預(yù)熱(Dense Warm-up):模型并非一上來就搞稀疏。在預(yù)訓(xùn)練的初始階段,模型依然使用相對稠密的注意力機(jī)制(類似于MLA的變體),讓模型先看全所有的信息,建立起全局的、穩(wěn)固的語義表征能力。這就好比一個人在學(xué)習(xí)速讀之前,必須先扎扎實實地精讀。
  2. 平滑過渡與稀疏訓(xùn)練(Sparse Training):當(dāng)模型具備了良好的基礎(chǔ)后,開始逐步提高稀疏度。DSA的核心邏輯是:在計算當(dāng)前Token的注意力時,不再關(guān)注歷史上的所有Token,而是通過一個動態(tài)的路由機(jī)制(Routing Mechanism),只挑選出與之最相關(guān)的Top-K個Token進(jìn)行計算。




MLA與DSA訓(xùn)練的SFT損失曲線對比

根據(jù)技術(shù)報告披露的數(shù)據(jù),這一板斧砍下去,效果是立竿見影的:

  • KV Cache開銷驟降75%:這意味著同樣的顯卡,現(xiàn)在可以支撐4倍以上的并發(fā)請求,或者處理長達(dá)4倍的上下文。
  • 推理速度提升3倍:注意力計算的FLOPS被大幅削減,首字響應(yīng)時間(TTFT)和每秒生成Token數(shù)(TPS)都達(dá)到了行業(yè)頂尖水平。
  • 長文本能力幾乎無損:這是最令人不可思議的一點。在著名的大海撈針以及諸如RULER等長文本復(fù)雜推理評測中,引入DSA的GLM-5與全稠密模型相比,性能下降微乎其微(小于0.5%)。

第二板斧:異步多任務(wù)強(qiáng)化學(xué)習(xí)

如果說DSA解決的是推理成本問題,那么GLM-5的第二板斧,解決的就是訓(xùn)練效率問題,尤其是決定模型最終智商的后訓(xùn)練階段。

當(dāng)前業(yè)界主流的強(qiáng)化學(xué)習(xí)對齊算法依然是PPO(近端策略優(yōu)化)。

標(biāo)準(zhǔn)的PPO是一個高度同步的過程,涉及到四個模型,即Actor生成模型、Reference參考模型、Critic評論家模型、Reward獎勵模型在多臺GPU上的協(xié)同。

這種“走一步,停一下”的同步機(jī)制,導(dǎo)致整個集群的GPU利用率經(jīng)常徘徊在20%-30%左右,大部分算力都浪費在等待網(wǎng)絡(luò)通信和進(jìn)程同步上了。

為了打破這個瓶頸,智譜基于4.5時代的Slime框架,為GLM-5從底層重寫了一套異步強(qiáng)化學(xué)習(xí)基礎(chǔ)設(shè)施(Asynchronous RL Infrastructure)

它的核心設(shè)計是將訓(xùn)練引擎和推理引擎解耦到不同的GPU設(shè)備上。推理引擎持續(xù)生成軌跡,一旦生成數(shù)量達(dá)到預(yù)定閾值,這批數(shù)據(jù)就被發(fā)送到訓(xùn)練引擎更新模型。為減少策略滯后并保持訓(xùn)練的近似同策略性,推理引擎的模型權(quán)重會定期與訓(xùn)練側(cè)同步。

這種完全異步的訓(xùn)練范式,通過減少Agent rollout期間的“氣泡”時間,顯著提升了GPU利用率和訓(xùn)練效率。

但要支撐這種異步架構(gòu),還有幾個關(guān)鍵技術(shù)難題需要解決:

第一,Token-in-Token-out(TITO)代替Text-in-Text-out。

在RL rollout設(shè)置中,TITO意味著訓(xùn)練流程直接消費推理引擎生成的精確tokenization和解碼token流來構(gòu)建學(xué)習(xí)軌跡。相比之下,Text-in-Text-out將rollout引擎視為返回最終文本的黑箱,訓(xùn)練器需要重新tokenization重建軌跡。

這個看似微小的選擇實際上影響巨大:重新tokenization可能在token邊界、空白處理、截斷或特殊token放置上引入細(xì)微不匹配,從而影響對單個token采樣概率的估計。GLM-5實現(xiàn)了一個TITO網(wǎng)關(guān),攔截rollout任務(wù)的所有生成請求并記錄每個軌跡的tokenID和元數(shù)據(jù),將繁瑣的tokenID處理從下游Agent rollout邏輯中隔離出來。

第二,直接雙側(cè)重要性采樣解決離策略偏差。

在異步設(shè)置中,rollout引擎可能在單個軌跡生成過程中經(jīng)歷多次更新,這使得追蹤歷史訓(xùn)練側(cè)模型的精確行為概率在計算上不可行——維護(hù)多個歷史模型權(quán)重顯然不現(xiàn)實。

研究團(tuán)隊采用簡化方案:將rollout期間生成的對數(shù)概率作為直接行為代理,通過計算重要性采樣比rt(θ) = πθ/πrollout,丟棄傳統(tǒng)的πθ_old,消除單獨舊策略推理的計算開銷。同時采用雙側(cè)校準(zhǔn)token級掩碼策略,將信任域限制在[1-ε_l, 1+ε_h],對落在此區(qū)間之外的token完全屏蔽梯度計算。

第三,DP感知路由加速長上下文推理。

在多輪Agent工作負(fù)載中,來自相同rollout的順序請求共享相同前綴。研究團(tuán)隊提出通過一致性哈希將每個rollout ID映射到固定數(shù)據(jù)并行(DP)rank,并結(jié)合哈??臻g上的輕量級動態(tài)負(fù)載重新平衡。這避免了冗余的預(yù)填充計算,無需跨DP rank的KV同步,隨著rollout長度增加,預(yù)填充成本仍與增量token成正比。

這套異步RL基礎(chǔ)設(shè)施支撐了GLM-5在多領(lǐng)域的混合RL訓(xùn)練:數(shù)學(xué)、科學(xué)、代碼和工具集成推理(TIR)。數(shù)據(jù)來源包括開源數(shù)據(jù)集、與外部標(biāo)注供應(yīng)商共同構(gòu)建的STEM問題、Codeforces及TACO等代表性數(shù)據(jù)集。訓(xùn)練中為各領(lǐng)域分配專屬裁判模型或評估系統(tǒng)生成二元結(jié)果獎勵,四個領(lǐng)域的整體混合大致保持平衡。

第三板斧:投喂真實世界數(shù)據(jù)

傳統(tǒng)SFT數(shù)據(jù)往往依賴標(biāo)準(zhǔn)答案,但真實世界是復(fù)雜多變的。

為了讓模型具備真正的工程能力,GLM-5的第三板斧,就是構(gòu)建大量可驗證的真實世界環(huán)境數(shù)據(jù)

整個SFT語料庫涵蓋三大類別:通用對話、推理、編程與Agent。

值得注意的是,GLM-5在SFT階段將最大上下文長度擴(kuò)展至202752個token,并支持三種不同的思考特征:

  • 交錯思考:模型在每次響應(yīng)和工具調(diào)用前進(jìn)行思考,提升指令遵循和生成質(zhì)量;
  • 保留思考:在Coding Agent場景中,模型自動在多輪對話中保留所有思考塊,復(fù)用已有推理而非重新推導(dǎo),減少信息丟失和不一致性;
  • 輪級思考:支持在會話中對每輪推理進(jìn)行精細(xì)控制,輕量級請求可禁用思考降低延遲,復(fù)雜任務(wù)可啟用思考提升精度和穩(wěn)定性。



為了支持Agent RL,研究團(tuán)隊還構(gòu)建了大規(guī)模的、可驗證的可執(zhí)行環(huán)境:

  • 軟件工程環(huán)境:基于真實世界的Issue-PR對,采用RepoLaunch框架自動分析倉庫安裝和依賴設(shè)置,構(gòu)建可執(zhí)行環(huán)境并生成測試命令。最終跨數(shù)千個倉庫、涵蓋9種編程語言(Python、Java、Go、C、C++、JavaScript、TypeScript、PHP、Ruby),構(gòu)建了超過10000個可驗證環(huán)境。
  • 終端環(huán)境:采用三階段Agent數(shù)據(jù)合成流程——任務(wù)草稿生成、具體任務(wù)實現(xiàn)、迭代任務(wù)優(yōu)化。從種子任務(wù)出發(fā),利用LLM生成可驗證的終端任務(wù)草稿,由構(gòu)建Agent在Harbor格式中實例化為具體任務(wù)(結(jié)構(gòu)化任務(wù)描述、Docker化執(zhí)行環(huán)境、測試腳本),再由精煉Agent迭代優(yōu)化。整體流程產(chǎn)出數(shù)千個多樣化終端環(huán)境,Docker構(gòu)建精度超過90%。
  • 搜索任務(wù):構(gòu)建Web知識圖譜,以低至中頻實體為種子節(jié)點擴(kuò)展多跳鄰域,將每個子圖轉(zhuǎn)化為隱式編碼多實體關(guān)系鏈的問題。再經(jīng)過三階段過濾(刪除無工具推理模型能答對的、過濾早期Agent能幾步解決的、雙向驗證拒絕非唯一答案或不一致證據(jù)的),最終獲得高質(zhì)量、高難度的多跳問答對。



  • PPT生成:采用多層級獎勵機(jī)制——第1級關(guān)注靜態(tài)標(biāo)記屬性(定位、間距、顏色、字體等),第2級評估運行時渲染屬性(元素寬高、邊界框等),第3級引入視覺感知特征(異??瞻啄J降龋W罱K生成的頁面中嚴(yán)格符合16:9寬高比的比例從40%提升至92%,頁面溢出顯著減少。



大模型的測試也更難了

技術(shù)的進(jìn)步最終需要經(jīng)受評測的檢驗。

GLM-5的論文不僅展示了其在傳統(tǒng)榜單上的成績,更揭示了一個趨勢:大模型的測試正在變得更難、更貼近真實。

在Humanity’s Last Exam(HLE)、SWE-bench Verified、BrowseComp等關(guān)鍵榜單上,數(shù)據(jù)顯示,GLM-5在SWE-bench Verified上得分77.8%,在開源模型中達(dá)到SOTA,優(yōu)于Gemini 3 Pro,并與Claude Opus 4.5相當(dāng)。

在HLE(含工具)測試中,GLM-5得分50.4,優(yōu)于Claude Opus 4.5和Gemini 3 Pro。



在Artificial Analysis Intelligence Index v4.0中,GLM-5得到50分,成為新的開源SOTA模型,這是開放權(quán)重模型首次在該指數(shù)中達(dá)到50分。

然而,智譜團(tuán)隊認(rèn)為,傳統(tǒng)的SWE-bench已經(jīng)不夠看了。

因為它是一個靜態(tài)、公開且發(fā)布超過2年的測試集,模型可能存在記憶效應(yīng)。

為此,GLM-5團(tuán)隊推出了CC-Bench-V2,一個完全自動化的、模擬真實軟件開發(fā)的評測集,涵蓋前端、后端和長程任務(wù)。

在前端評估中,團(tuán)隊引入了Agent-as-a-Judge技術(shù),通過GUI Agent模擬用戶交互,驗證生成項目的功能正確性。



結(jié)果顯示,GLM-5的構(gòu)建成功率(BSR)達(dá)到98.0%,在檢查項成功率(CSR)上與Claude Opus 4.5具備競爭力。



在后端評估中,GLM-5在真實開源項目上的Pass@1達(dá)到25.8%,與Claude Opus 4.5相當(dāng),顯著領(lǐng)先于GLM-4.7。

更值得一提的是長程任務(wù)評估。CC-Bench-V2通過挖掘已合并的Pull Request構(gòu)建多步鏈?zhǔn)饺蝿?wù),評估模型在增量開發(fā)中的上下文跟蹤與規(guī)劃能力。

雖然GLM-5在此項上較GLM-4.7有顯著提升,但與Claude Opus 4.5仍有差距。團(tuán)隊坦言,這是因為鏈?zhǔn)饺蝿?wù)中錯誤會累積放大,縮小這一差距需要在長上下文一致性和長程自糾錯方面繼續(xù)突破。

這一系列評測結(jié)果釋放了兩個明確信號:

  • 第一,GLM-5 是開源界的第一個“全站工程師”,讓 AI 能自主執(zhí)行超長、超復(fù)雜的任務(wù);
  • 第二,通過單體MoE架構(gòu)統(tǒng)一Agent、推理與代碼能力的可行性得到了驗證,同時證明了RL在復(fù)雜代碼生成中的巨大潛力。這對閉源模型而言,無疑是一種巨大的沖擊。

One More Thing

在論文的最后,團(tuán)隊透露了一個有趣的彩蛋——Pony Alpha實驗

在論文公開前,GLM-5曾以Pony Alpha為代號,匿名發(fā)布在OpenRouter平臺上。隱去品牌信息后,模型憑借卓越的性能在社區(qū)引發(fā)轟動。

初步統(tǒng)計顯示,25%的用戶推測它是Claude Sonnet 5,20%認(rèn)為是Grok的新版本,僅有部分用戶猜中了GLM-5。



這次匿名測試打破了先入為主的地緣偏見,讓社區(qū)的認(rèn)可回歸到了“好用與否”這一最純粹的技術(shù)本質(zhì)。

最終確認(rèn)Pony Alpha真身即是GLM-5,這對團(tuán)隊是一次巨大的鼓舞,也有力回?fù)袅碎L期以來外界對中國本土模型技術(shù)水準(zhǔn)的質(zhì)疑。

不僅如此,這次GLM-5論文公布之后,在海外已經(jīng)有不少人當(dāng)教程來學(xué)習(xí)了。



若是你也對此感興趣,論文放下面了,一起學(xué)習(xí)一下吧~

GLM-5論文地址:
https://arxiv.org/abs/2602.15763

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
上海公交車司機(jī)鄔煒,你被“曝光”了!網(wǎng)友:工作不是誰做都一樣,真的好暖

上海公交車司機(jī)鄔煒,你被“曝光”了!網(wǎng)友:工作不是誰做都一樣,真的好暖

上觀新聞
2026-02-25 18:14:27
歐冠16強(qiáng)身價排行:皇馬第1 阿森納領(lǐng)跑奪冠賠率

歐冠16強(qiáng)身價排行:皇馬第1 阿森納領(lǐng)跑奪冠賠率

愛奇藝體育
2026-02-26 10:54:38
性能之王!新機(jī)官宣:3月17日,正式發(fā)布上市!

性能之王!新機(jī)官宣:3月17日,正式發(fā)布上市!

科技堡壘
2026-02-25 13:21:31
哀悼!王守仁逝世

哀悼!王守仁逝世

中國基金報
2026-02-25 19:46:17
康熙臨終前,給胤禎一杯毒酒考驗他,胤禎的舉動,讓康熙心頭一震

康熙臨終前,給胤禎一杯毒酒考驗他,胤禎的舉動,讓康熙心頭一震

千秋文化
2026-02-08 19:38:41
真正生理性的喜歡,根本藏不??!不是接吻和擁抱,而是……

真正生理性的喜歡,根本藏不??!不是接吻和擁抱,而是……

青蘋果sht
2026-02-22 06:58:00
女演員“強(qiáng)行扮嫩”的風(fēng)又刮到了央視劇里,擠眉弄眼扎雙馬尾真尬

女演員“強(qiáng)行扮嫩”的風(fēng)又刮到了央視劇里,擠眉弄眼扎雙馬尾真尬

楠楠自語
2026-02-26 04:41:58
馬筱梅前夫鄭揚融底細(xì)曝光!家境優(yōu)渥卻留不住她,原因太現(xiàn)實!

馬筱梅前夫鄭揚融底細(xì)曝光!家境優(yōu)渥卻留不住她,原因太現(xiàn)實!

科學(xué)發(fā)掘
2026-02-25 15:01:45
庫明加離隊第一戰(zhàn)就炸裂,勇士自媒體深夜發(fā)出靈魂拷問

庫明加離隊第一戰(zhàn)就炸裂,勇士自媒體深夜發(fā)出靈魂拷問

大眼瞄世界
2026-02-25 23:44:32
不可錯過!2月26日早上08:03比賽!中央5套CCTV5、CCTV5+直播表

不可錯過!2月26日早上08:03比賽!中央5套CCTV5、CCTV5+直播表

皮皮觀天下
2026-02-26 07:33:23
除夕前一天,李書福的好搭檔病逝,享年61歲

除夕前一天,李書福的好搭檔病逝,享年61歲

龔進(jìn)輝
2026-02-25 15:07:57
快扔掉!戴一天,輻射量相當(dāng)于拍117次胸片

快扔掉!戴一天,輻射量相當(dāng)于拍117次胸片

上海約飯局
2025-10-31 15:32:01
丁程鑫一個人直播過生日太冷清,時代少年團(tuán)單飛傳聞再起?成員間開始悄然割席?

丁程鑫一個人直播過生日太冷清,時代少年團(tuán)單飛傳聞再起?成員間開始悄然割席?

東方不敗然多多
2026-02-26 09:52:13
女演員長相對選角有多重要,看看《鏢人》陳麗君與李云霄就知道了

女演員長相對選角有多重要,看看《鏢人》陳麗君與李云霄就知道了

露珠聊影視
2026-02-22 23:03:30
痛心!江西南昌一家五口返程遇車禍 姐姐當(dāng)場身亡,姐夫帶三娃幸存

痛心!江西南昌一家五口返程遇車禍 姐姐當(dāng)場身亡,姐夫帶三娃幸存

冒泡泡的魚兒
2026-02-26 00:28:22
21世紀(jì)十大最佳間諜電影:它們完美詮釋了“如今已不再拍這種電影”這句格言

21世紀(jì)十大最佳間諜電影:它們完美詮釋了“如今已不再拍這種電影”這句格言

鄉(xiāng)野小珥
2026-02-24 08:52:53
醫(yī)生直言:若每天只吃兩頓飯,不出半年,或有這幾種變化!

醫(yī)生直言:若每天只吃兩頓飯,不出半年,或有這幾種變化!

展望云霄
2026-02-03 19:52:59
陳百強(qiáng)自殺真相曝光!王晶揭穿32年豪門謊言:他根本不是為情所困

陳百強(qiáng)自殺真相曝光!王晶揭穿32年豪門謊言:他根本不是為情所困

小徐講八卦
2026-02-25 15:49:57
從大S最后的歲月中可以看出,大S可能已經(jīng)相當(dāng)不滿意光頭了

從大S最后的歲月中可以看出,大S可能已經(jīng)相當(dāng)不滿意光頭了

情感大頭說說
2026-02-26 00:01:37
54歲楊鈺瑩近況曝光:定居深圳,每天打理菜園子,生活平淡

54歲楊鈺瑩近況曝光:定居深圳,每天打理菜園子,生活平淡

小徐講八卦
2025-11-17 07:29:28
2026-02-26 11:15:00
量子位 incentive-icons
量子位
追蹤人工智能動態(tài)
12203文章數(shù) 176394關(guān)注度
往期回顧 全部

科技要聞

單季營收681億凈利429億!英偉達(dá)再次炸裂

頭條要聞

"花壇白骨案"2名兇手因4萬元殺人埋尸 受害人兒子發(fā)聲

頭條要聞

"花壇白骨案"2名兇手因4萬元殺人埋尸 受害人兒子發(fā)聲

體育要聞

從排球少女到冰壺女神,她在米蘭冬奧練出6塊腹肌

娛樂要聞

尼格買提撒貝寧滑雪被偶遇 17年老友情

財經(jīng)要聞

短劇市場風(fēng)云突變!有人投百萬賠得精光

汽車要聞

雷克薩斯ES雙色特別版上市 售30.79萬元起

態(tài)度原創(chuàng)

教育
數(shù)碼
親子
時尚
軍事航空

教育要聞

留學(xué)澳洲,住哪兒更安全?這份全澳榜單給了答案!

數(shù)碼要聞

華碩驍龍X2-E94-100版Zenbook A16筆記本定價近34萬日元

親子要聞

筱梅沉浸當(dāng)母親喜悅!分享小寶睜眼吃奶照!箖箖看弟弟一舉動被贊

倫敦時裝周|2026秋冬流行趨勢早知道

軍事要聞

美政府給新伊核協(xié)議設(shè)限內(nèi)容遭披露

無障礙瀏覽 進(jìn)入關(guān)懷版