国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

2025 年大模型盤點:DeepSeek 時刻、Llama 失寵、刷榜泛濫...

0
分享至


測試集發(fā)布之后,它就無效了

首先,感謝 minghao 老司機,閱篇無數(shù),精準(zhǔn)推薦

本文基于老司機推薦的年終盤點《The State Of LLMs 2025: Progress, Problems, and Predictions》


https://magazine.sebastianraschka.com/p/state-of-llms-2025

這篇文章的原始作者叫 Raschka,長期在 Substack 輸出技術(shù)內(nèi)容。他的書被翻譯成 9種 語言,被多所大學(xué)用作教材

以下這些,是他對 2025 年大模型領(lǐng)域的觀察和判斷,在這里我做了一些重寫&刪改

推理模型、RLVR 與 GRPO 之年

2025 年 1 月,DeepSeek R1 發(fā)布,帶來兩個簡單但重要的發(fā)現(xiàn):

  • ? 模型先說思路再給答案,準(zhǔn)確率更高

  • ? 這種習(xí)慣,可以用強化學(xué)習(xí)養(yǎng)成

短回答 vs. 包含中間推理步驟的長回答 DeepSeek 時刻

R1 引發(fā)關(guān)注,原因有三

其一
R1 以開源權(quán)重發(fā)布,性能與當(dāng)時最好的閉源模型相當(dāng)

其二
R1 論文讓投資者和媒體重新審視 2024 年 12 月的 DeepSeek V3 論文

結(jié)論被修正:訓(xùn)練頂級模型的成本可能接近 $500萬,而非 $5000萬$5億


DeepSeek V3 論文中的訓(xùn)練成本估算

R1 的補充材料顯示:在 V3 基礎(chǔ)上訓(xùn)練 R1,只需額外 $29.4萬


R1 訓(xùn)練成本估算

當(dāng)然,$500萬 只算了最終跑模型的算力,不包括研究人員薪資和實驗成本

其三
論文同時提出了 RLVR + GRPO 這套新方法

此前不管是 SFT 還是 RLHF,都綁定在人工標(biāo)注上,成本高、規(guī)模有限

RLVR 換了個思路:如果答案本身可以被驗證,就不需要人來判斷對錯

數(shù)學(xué)和代碼是最典型的場景,但這個邏輯可以延伸


強化學(xué)習(xí)應(yīng)用時機概覽 可驗證獎勵的簡單示例

今年大模型開發(fā)基本被 RLVR 和 GRPO 主導(dǎo)。幾乎每個主要玩家,都在 R1 之后發(fā)布了推理版本的模型

大模型發(fā)展重心演變

如果要簡潔總結(jié)每年大模型開發(fā)的重點:

  • ? 2022 RLHF + PPO

  • ? 2023 LoRA SFT

  • ? 2024 中期訓(xùn)練

  • ? 2025 RLVR + GRPO

歷年大模型開發(fā)的重點領(lǐng)域,這是累積的

那么下一步是什么?

Raschka 認為 2026 年會看到更多 RLVR 相關(guān)的工作。目前 RLVR 主要用在數(shù)學(xué)和代碼上,下一步是擴展到其他領(lǐng)域

另一個方向是「解釋評分」:不光看最終答案對不對,還要評判中間推理過程。這在過去叫「過程獎勵模型」(PRM),但目前還不太成功

Raschka 對 2026、2027 的預(yù)判:

  • ? 2026 RLVR 擴展 + 更多推理時擴展

  • ? 2027 持續(xù)學(xué)習(xí)

推理時擴展的意思是:訓(xùn)練完之后,在生成答案時花更多時間和算力

這是一個權(quán)衡:延遲、成本、準(zhǔn)確率之間的取舍。但在某些場景,準(zhǔn)確率比延遲更重要,極端的推理擴展完全值得

比如 DeepSeekMath-V2 在數(shù)學(xué)競賽基準(zhǔn)上達到了金牌級表現(xiàn)


兩種推理時擴展方法的結(jié)合:自一致性和自優(yōu)化

持續(xù)學(xué)習(xí)是指在新數(shù)據(jù)上訓(xùn)練模型,不從頭來。挑戰(zhàn)是災(zāi)難性遺忘:學(xué)新東西會忘舊東西。今年同行討論很多,但還沒有實質(zhì)性突破

2. GRPO:年度研究寵兒

在大模型昂貴的時代,學(xué)術(shù)研究不太好做。但仍能做出重要發(fā)現(xiàn)

近年典型例子:LoRA(2021)用于參數(shù)高效微調(diào),DPO 用于無獎勵模型對齊


基于代碼的 LoRA 教程 基于代碼的 DPO 教程

今年的亮點是 GRPO。雖然出自 DeepSeek R1 論文,但對研究者來說仍是激動人心的一年:RLVR 和 GRPO 概念上有趣,實驗成本也還能接受

今年大模型文獻中出現(xiàn)了很多 GRPO 的改進,后來被納入頂級大模型的訓(xùn)練流程

Olmo 3 采用的改進:

零梯度信號過濾、主動采樣、Token 級別損失、無 KL 損失、更高的裁剪閾值、截斷重要性采樣、無標(biāo)準(zhǔn)差歸一化

DeepSeek V3.2 采用的改進:

領(lǐng)域特定 KL 強度的 KL 調(diào)優(yōu)(數(shù)學(xué)為零)、重新加權(quán)的 KL、離策略序列掩碼、保持 top-p / top-k 的采樣掩碼、保持原始 GRPO 優(yōu)勢歸一化

Raschka 確認這些修改在實踐中影響巨大。采用后,壞的更新不再破壞訓(xùn)練,不再需要定期重載檢查點


從零開始 GRPO 訓(xùn)練代碼的部分結(jié)果 3. 大模型架構(gòu):分叉口?

頂級模型仍然用經(jīng)典的 Decoder 風(fēng)格 Transformer

但今年,開源大模型基本趨同于:MoE(混合專家)層 + 至少一種效率優(yōu)化的注意力機制(GQA、滑動窗口注意力或 MLA)

更激進的效率優(yōu)化也出現(xiàn)了,目標(biāo)是讓注意力機制的復(fù)雜度隨序列長度線性增長。比如 Qwen3-Next 和 Kimi Linear 中的 Gated DeltaNets,以及 NVIDIA Nemotron 3 中的 Mamba-2 層


大模型架構(gòu)大比較

Raschka 的預(yù)測:至少在頂級性能方面,未來幾年仍會繼續(xù)用 Transformer

但效率和工程優(yōu)化會越來越多,如 Gated DeltaNet 和 Mamba 層。在大模型的規(guī)模下,從財務(wù)角度看這是必然

替代方案也有。比如文本擴散模型,目前屬于實驗性。但 Google 宣布將發(fā)布 Gemini Diffusion 模型,不追求頂級建模質(zhì)量,但會非常快,適合低延遲場景

兩周前開源的 LLaDA 2.0 發(fā)布,最大的 1000億 參數(shù)版本是迄今最大的文本擴散模型,與 Qwen3 30B 持平

4. 推理擴展和工具調(diào)用之年

通過擴展訓(xùn)練數(shù)據(jù)和架構(gòu)來改進大模型,是一個持續(xù)有效的公式

但今年,這不再是唯一有效的方法

GPT 4.5(2025 年 2 月)就是例子。傳言它比 GPT 4 大得多,但單純擴展不是最明智的方向。GPT 4.5 的能力可能比 GPT 4 更好,但增加的訓(xùn)練預(yù)算被認為「性價比不高」

相反,更好的訓(xùn)練流程(更多關(guān)注中期和后訓(xùn)練)以及推理擴展,驅(qū)動了今年的大部分進展

另一個主要改進來自工具調(diào)用

幻覺是大模型最大的問題之一?;糜X率在持續(xù)改善,Raschka 認為這很大程度上歸功于工具調(diào)用

比如被問到 1998 年世界杯誰贏了,大模型可以用搜索引擎查,從可靠網(wǎng)站抓取信息,而不是靠記憶

OpenAI 的 gpt-oss 是今年早些時候發(fā)布的專門為工具調(diào)用開發(fā)的開源模型之一


gpt-oss 模型卡論文的表格

遺憾的是,開源生態(tài)還沒完全跟上,很多工具仍默認以非工具調(diào)用模式跑這些大模型

一個原因是這是新范式,工具需要適配。另一個原因是安全:給大模型不受限制的工具調(diào)用權(quán)限,可能出問題

Raschka 認為,未來幾年本地跑大模型時啟用工具調(diào)用會越來越普遍

5. 年度詞匯:刷榜

如果要選一個描述今年大模型開發(fā)的詞,那就是「刷榜」(benchmaxxing)

刷榜意味著強烈關(guān)注推高排行榜數(shù)字,有時到了 benchmark 表現(xiàn)本身成為目標(biāo)的程度

典型例子是 Llama 4,在很多 benchmark 上得分極高。但用戶和開發(fā)者上手后發(fā)現(xiàn),這些分數(shù)并不反映實際能力

如果測試集是公開的,它就不是真正的測試集

現(xiàn)在的問題是,測試集數(shù)據(jù)不僅成為訓(xùn)練語料的一部分,還經(jīng)常在大模型開發(fā)過程中被直接優(yōu)化


2019 年 Do ImageNet Classifiers Generalize to ImageNet? 論文的注釋圖

過去,即使公開測試集上的分數(shù)被夸大,至少模型排名還是保持的

在大模型開發(fā)中,這已經(jīng)到了 benchmark 數(shù)字不再是性能可靠指標(biāo) 的地步

但 Raschka 認為 benchmark 仍是必要門檻:如果一個大模型在某 benchmark 上得分低于 X,就知道它不行。但如果得分高于 X,這并不意味著它比另一個得分高于 X 的大模型好多少

另一個問題是:圖像分類器只有一個任務(wù)。但大模型用于翻譯、總結(jié)、寫代碼、頭腦風(fēng)暴、解數(shù)學(xué)題等等。評估起來復(fù)雜得多

除了在實踐中嘗試和不斷生成新 benchmark,暫時沒有解決方案

6. AI 用于編程、寫作和研究

Raschka 把大模型視為給某些職業(yè)的人「超能力」的工具。用好的話,可以顯著提高生產(chǎn)力,消除日常工作中的摩擦

編程

Raschka 仍然自己寫大部分他關(guān)心的代碼

比如設(shè)置一個大模型訓(xùn)練腳本,他會自己實現(xiàn)并仔細檢查訓(xùn)練邏輯。這是為了確保它在做正確的事,同時保持自己在這個任務(wù)上的專長

但他現(xiàn)在用大模型來添加周圍更瑣碎的代碼,比如 argparse 樣板


使用提示詞「給 training-script.py 所有超參數(shù)選項添加 argparse」

他也越來越依賴大模型來發(fā)現(xiàn)問題、建議改進或檢驗想法

大模型對核心專長以外的任務(wù)極其有價值。他最近寫了工具來提取和備份 Substack 文章為 Markdown,大模型還幫他清理了網(wǎng)站的 CSS

訣竅是識別何時用、何時不用

代碼庫

大模型寫代碼越來越好了,但 Raschka 不認為代碼會變得短暫或過時

大模型給人們超能力來生成某些編程項目。但純大模型生成的代碼庫,不能取代專家精心打造的代碼庫

一個了解好的設(shè)計模式和權(quán)衡、研究過、見過、構(gòu)建過很多平臺的專家全棧 Web 開發(fā)者,能夠構(gòu)建比一個隨機人員提示大模型更好的平臺

精彩的是:現(xiàn)在一個隨機人員也能構(gòu)建一個平臺,即使不是最好的

但用大模型只能走這么遠,平臺質(zhì)量可能會停滯

技術(shù)寫作和研究

Raschka 不認為大模型會讓技術(shù)寫作過時

寫一本好的技術(shù)書需要數(shù)千小時和對主題的深刻熟悉。核心工作仍然依賴人類的判斷和專業(yè)知識


大模型幫 Raschka 在之前的文章中發(fā)現(xiàn)并修復(fù)錯誤

從讀者角度,用大模型學(xué)習(xí)一個話題對快速問題和入門級解釋效果不錯。但當(dāng)你想建立更深層理解時,這種方法很快變得混亂

到那時,不如跟隨專家設(shè)計的結(jié)構(gòu)化學(xué)習(xí)路徑

也許經(jīng)驗法則是:

  • ? 如果這篇文章完全由人類生成,它本可以進一步改進

  • ? 如果這篇文章可以僅通過提示大模型生成,那它可能不夠新穎和深入

大模型與倦怠

Raschka 認為有一個較少被討論的缺點:如果模型做所有事情而人類主要是監(jiān)督,工作可能開始感覺空洞

有些人喜歡專注于管理系統(tǒng)和編排工作流。但對于喜歡親自動手做事的人,這種工作模式可能加速倦怠

與一個難題搏斗最終看到它成功,有一種特殊的滿足感。當(dāng)大模型一次搞定答案時,沒有同樣的感覺

也許一個類比是國際象棋

國際象棋引擎幾十年前就超過了人類棋手,但人類玩的職業(yè)國際象棋仍然活躍且繁榮

現(xiàn)代棋手用 AI 來探索不同想法、挑戰(zhàn)直覺、以前所未有的深度分析錯誤

這是思考 AI 在其他智力工作中如何使用的有用模型

用得好,AI 可以加速學(xué)習(xí)、擴展單個人能合理承擔(dān)的范圍。應(yīng)該更多地把它當(dāng)作伙伴而不是替代品

但如果 AI 被用來完全外包思考和編程,它有破壞動機和長期技能發(fā)展的風(fēng)險


大模型降低了入門門檻,讓程序員更有生產(chǎn)力 7. 優(yōu)勢:私有數(shù)據(jù)

大模型的通用編程、知識問答和寫作能力在持續(xù)提升

這很大程度上是因為擴展仍然帶來正向投資回報

但這在某個時候會開始停滯,除非不斷發(fā)明新的訓(xùn)練方法和架構(gòu)

大模型目前能解決很多通用任務(wù)和相對容易的問題。但要在某些行業(yè)深入扎根,需要更多領(lǐng)域?qū)I(yè)化

大模型提供商很想獲得高質(zhì)量的領(lǐng)域?qū)S脭?shù)據(jù)。目前看來這將是一個挑戰(zhàn)

大多數(shù)被接洽的公司都拒絕了數(shù)據(jù)交易,正是因為數(shù)據(jù)是專有的、是其業(yè)務(wù)差異化的核心

把有價值的專有數(shù)據(jù)賣給 OpenAI 或 Anthropic,可能有點短視


有用的行業(yè)和數(shù)據(jù)類型示例

目前大模型開發(fā)在規(guī)模上成本高昂且有挑戰(zhàn),這就是為什么只有少數(shù)大公司開發(fā)頂級大模型

但 Raschka 認為大模型開發(fā)正變得越來越商品化

大模型開發(fā)者頻繁在雇主之間輪換,最終會被更大的金融機構(gòu)、生物技術(shù)公司等有預(yù)算的企業(yè)雇用,開發(fā)受益于其私有數(shù)據(jù)的內(nèi)部大模型

這些大模型甚至不需要完全從頭訓(xùn)練;許多頂級大模型如 DeepSeek V3.2、Kimi K2 和 GLM 4.7 正在發(fā)布,可以被適配和進一步后訓(xùn)練

8. 2025 年的意外與 2026 年預(yù)測 2025 年值得注意的意外

  1. 1. 幾個推理模型已在主要數(shù)學(xué)競賽中達到金牌水平(OpenAI 的一個未命名模型、Gemini Deep Think、開源的 DeepSeekMath-V2)。Raschka 不驚訝這發(fā)生,但驚訝這在 2025 年就發(fā)生了,而不是 2026 年

  2. 2. Llama 4(或整個 Llama 系列)在開源社區(qū)幾乎完全失寵,Qwen 在流行度上超過了 Llama

  3. 3. Mistral AI 在其最新旗艦 Mistral 3 模型中用了 DeepSeek V3 架構(gòu)(2025 年 12 月宣布)

  4. 4. 除了 Qwen3 和 DeepSeek R1/V3.2,開源頂級模型競賽中出現(xiàn)了許多其他競爭者:Kimi、GLM、MiniMax、Yi

  5. 5. 更便宜、高效的混合架構(gòu)已成為領(lǐng)先實驗室的更大優(yōu)先級(Qwen3-Next、Kimi Linear、Nemotron 3),而不是由獨立實驗室開發(fā)

  6. 6. OpenAI 發(fā)布了開源權(quán)重模型(gpt-oss)

  7. 7. MCP 已成為 Agent 風(fēng)格大模型系統(tǒng)中工具和數(shù)據(jù)訪問的標(biāo)準(zhǔn)。Raschka 預(yù)期生態(tài)系統(tǒng)在 2025 年會保持更碎片化,至少到 2026 年

2026 年預(yù)測
  1. 1. 很可能會看到一個工業(yè)規(guī)模的、面向消費者的擴散模型,用于廉價、可靠、低延遲的推理,Gemini Diffusion 可能會先行

  2. 2. 開源社區(qū)會緩慢但穩(wěn)定地采用本地工具調(diào)用和越來越多 Agent 能力的大模型

  3. 3. RLVR 會更廣泛地擴展到數(shù)學(xué)和代碼以外的領(lǐng)域 (比如化學(xué)、生物等)

  4. 4. 傳統(tǒng) RAG 會逐漸不再是文檔查詢的默認解決方案。開發(fā)者會更多依賴更好的長上下文處理,尤其是隨著更好的「小型」開源模型出現(xiàn)

  5. 5. 大量大模型 benchmark 和性能進展將來自改進的工具和推理時擴展,而非訓(xùn)練或核心模型本身 ??雌饋泶竽P驮谧兊酶?,但這主要是因為周圍應(yīng)用在改進

如果 2025 年有一個元教訓(xùn),那就是大模型的進展不是關(guān)于單一突破

改進是通過多條獨立路徑在多個方面進行的:架構(gòu)調(diào)整、數(shù)據(jù)質(zhì)量改進、推理訓(xùn)練、推理擴展、工具調(diào)用

同時,評估仍然困難,benchmark 不完美,對何時以及如何使用這些系統(tǒng)的良好判斷仍然至關(guān)重要


新年快樂

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
鄭麗文頒獎?wù)陆o蔡正元,侯漢廷感慨:國民黨變了

鄭麗文頒獎?wù)陆o蔡正元,侯漢廷感慨:國民黨變了

海峽導(dǎo)報社
2026-01-08 12:12:03
青島不敵上海,聽聽各界媒體專家怎么說,賽后劉維偉點評一針見血

青島不敵上海,聽聽各界媒體專家怎么說,賽后劉維偉點評一針見血

曾蠃愛旅行
2026-01-08 12:16:49
“性蕭條”才是這個時代真正的危機

“性蕭條”才是這個時代真正的危機

深藍夜讀
2025-09-24 16:00:09
體重可超一噸!2016年被專家宣布已滅絕,3年后竟在上海崇明重現(xiàn)

體重可超一噸!2016年被專家宣布已滅絕,3年后竟在上海崇明重現(xiàn)

萬象硬核本尊
2025-12-25 19:18:58
金風(fēng)科技押中多只“潛力股”,年內(nèi)股價一路走高

金風(fēng)科技押中多只“潛力股”,年內(nèi)股價一路走高

中科財經(jīng)
2026-01-08 10:26:29
曼聯(lián)敲定救火主帥!索爾斯克亞或回歸,最快周五簽約,更衣室力挺

曼聯(lián)敲定救火主帥!索爾斯克亞或回歸,最快周五簽約,更衣室力挺

奧拜爾
2026-01-07 17:19:37
毛主席去世后,華國鋒除了依靠葉帥外,還有幾個大員是他信任的

毛主席去世后,華國鋒除了依靠葉帥外,還有幾個大員是他信任的

談古論今歷史有道
2026-01-07 07:45:03
深度長文:量子糾纏速度超光速10000倍,可以讓我們瞬間移動嗎?

深度長文:量子糾纏速度超光速10000倍,可以讓我們瞬間移動嗎?

宇宙時空
2026-01-08 09:17:56
7.99萬起提車!特斯拉官宣

7.99萬起提車!特斯拉官宣

汽車工程師
2026-01-07 00:04:04
事態(tài)升級!閆學(xué)晶囂張不認錯,再現(xiàn)丑惡嘴臉,離譜發(fā)言誰也救不了

事態(tài)升級!閆學(xué)晶囂張不認錯,再現(xiàn)丑惡嘴臉,離譜發(fā)言誰也救不了

李健政觀察
2026-01-06 19:13:28
清朝最強駙馬爺,多次拯救大舅子雍正,因功破格冊封親王爵位

清朝最強駙馬爺,多次拯救大舅子雍正,因功破格冊封親王爵位

銘記歷史呀
2026-01-08 07:34:37
你在閑魚都買過什么特別的東西?網(wǎng)友:原來這才是咸魚的意義

你在閑魚都買過什么特別的東西?網(wǎng)友:原來這才是咸魚的意義

夜深愛雜談
2026-01-07 22:00:31
樊振東奪冠第3天,德國俱樂部開出豐厚條件,給予了他極大的尊重

樊振東奪冠第3天,德國俱樂部開出豐厚條件,給予了他極大的尊重

十點街球體育
2026-01-08 00:05:03
春晚從不對外售票,那臺下觀眾都是哪來的?趙本山的回應(yīng)一針見血

春晚從不對外售票,那臺下觀眾都是哪來的?趙本山的回應(yīng)一針見血

哄動一時啊
2026-01-08 12:05:59
晚年不能自理時,怎樣才能安然度過余生?睿智的老人是這樣解決的

晚年不能自理時,怎樣才能安然度過余生?睿智的老人是這樣解決的

人間百態(tài)大全
2025-12-27 06:35:03
楊冪藍色鏤空裙照瘋傳!雪白肌膚若隱若現(xiàn),這腰臀比太頂了?

楊冪藍色鏤空裙照瘋傳!雪白肌膚若隱若現(xiàn),這腰臀比太頂了?

娛樂領(lǐng)航家
2026-01-04 22:00:03
博格巴二世?曼聯(lián)新帝星暗諷阿莫林貪財!曝拉什福德今夏無意回歸

博格巴二世?曼聯(lián)新帝星暗諷阿莫林貪財!曝拉什福德今夏無意回歸

羅米的曼聯(lián)博客
2026-01-08 10:16:15
楊廣荒唐到什么程度?在皇宮內(nèi)立下奇葩規(guī)矩,讓妃子宮女十分難堪

楊廣荒唐到什么程度?在皇宮內(nèi)立下奇葩規(guī)矩,讓妃子宮女十分難堪

銘記歷史呀
2026-01-06 01:08:47
去年全國公安機關(guān)共有210名民警、142名輔警因公犧牲

去年全國公安機關(guān)共有210名民警、142名輔警因公犧牲

新京報
2026-01-08 10:12:06
《尋秦記》片酬曝光,古天樂零收入,林峯第二,最高的你想不到

《尋秦記》片酬曝光,古天樂零收入,林峯第二,最高的你想不到

電影票房預(yù)告片
2026-01-08 00:02:54
2026-01-08 17:00:49
賽博禪心
賽博禪心
拜AI古佛,修賽博禪心
241文章數(shù) 12關(guān)注度
往期回顧 全部

科技要聞

智譜拿下“全球大模型第一股”,憑什么

頭條要聞

9歲女孩課堂寫試卷昏倒去世 家屬不忍尸檢稱"她怕疼"

頭條要聞

9歲女孩課堂寫試卷昏倒去世 家屬不忍尸檢稱"她怕疼"

體育要聞

約基奇倒下后,一位故人邪魅一笑

娛樂要聞

2026春節(jié)檔將有六部電影強勢上映

財經(jīng)要聞

微軟CTO韋青:未來人類會花錢"戒手機"

汽車要聞

從量變到"智"變 吉利在CES打出了五張牌

態(tài)度原創(chuàng)

游戲
房產(chǎn)
手機
本地
公開課

這款畫風(fēng)清奇的新游,竟成了外媒最期待的海盜游戲?

房產(chǎn)要聞

三亞新房,又全國第一了!

手機要聞

小米18將首發(fā)!高通驍龍8E6 Pro已在路上:雙劍齊發(fā)

本地新聞

1986-2026,一通電話的時空旅程

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版