国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

唐杰、楊植麟、林俊旸、姚順雨:他們眼中的 AGI 三個(gè)轉(zhuǎn)折點(diǎn)

0
分享至


出品|虎嗅科技組

作者|宋思杭

編輯|苗正卿

頭圖|AGI-Next前沿峰會(huì)現(xiàn)場(chǎng)

2026年1月10日下午,中關(guān)村國(guó)際創(chuàng)新中心,一場(chǎng)名為AGI-Next前沿峰會(huì)的閉門會(huì)議正在進(jìn)行。

就在兩天前,港交所迎來(lái)了“全球大模型第一股”。而此刻,這家公司的核心人物之一,清華大學(xué)教授、智譜創(chuàng)始人兼首席科學(xué)家唐杰,已經(jīng)出現(xiàn)在北京的會(huì)場(chǎng)上。

這是智譜上市后的第三天。團(tuán)隊(duì)連夜從香港返回北京,幾乎沒(méi)有留出任何“慶祝窗口期”。

這場(chǎng)由清華大學(xué)基礎(chǔ)模型北京市重點(diǎn)實(shí)驗(yàn)室發(fā)起的會(huì)議,聚集了當(dāng)下中國(guó)AI學(xué)術(shù)與產(chǎn)業(yè)最核心的一批人物:唐杰、月之暗面創(chuàng)始人兼CEO楊植麟、阿里Qwen技術(shù)負(fù)責(zé)人林俊旸、騰訊首席AI科學(xué)家姚順雨。

這場(chǎng)AGI學(xué)術(shù)會(huì)議沒(méi)有“應(yīng)用層”的喧鬧,討論全部指向一個(gè)更底層的問(wèn)題:下一代通用人工智能,往哪走。

如果說(shuō)在過(guò)去兩年,Scaling和Token是AGI領(lǐng)域中最經(jīng)常被提及的兩個(gè)關(guān)鍵詞,那么到今天,一些變量已經(jīng)開(kāi)始發(fā)生。

首先是 Scaling。在大模型飛速演進(jìn)的兩三年里,無(wú)論參數(shù)規(guī)模、算法路徑如何變化,“繼續(xù)Scaling”幾乎是所有討論的默認(rèn)前提。但事實(shí)上,學(xué)術(shù)界對(duì)Scaling的質(zhì)疑從未真正消失,只是在最近半年變得更加集中。

唐杰并沒(méi)有否認(rèn)繼續(xù)擴(kuò)大模型規(guī)模的價(jià)值,但他的表述已經(jīng)明顯從“能不能繼續(xù)Scaling”,轉(zhuǎn)向了“是否值得繼續(xù)這樣Scaling”。

他直言,今天的問(wèn)題不再是算力有沒(méi)有,而是“如果繼續(xù)投入,效率已經(jīng)變成瓶頸”。在他看來(lái),當(dāng)算力、數(shù)據(jù)和成本的投入不斷放大,但智能提升的增量卻持續(xù)變小,“Scaling也許是一個(gè)比較偷懶的方式”。

而當(dāng)范式討論真正落到技術(shù)細(xì)節(jié)上,Token被反復(fù)推到臺(tái)前。

過(guò)去一年,作為大模型“六小龍”之一的月之暗面,幾乎將全部精力投入到如何用更少的Token壓低Loss上。在K2模型中,他們嘗試以線性注意力等新架構(gòu),盡可能提升Token efficiency。背后的邏輯并不復(fù)雜——在預(yù)訓(xùn)練階段,Token本身是一個(gè)常量,一旦Token被“吃完”,模型的智能上限也隨之被鎖死。

也正因?yàn)槿绱,楊植麟在?bào)告中反復(fù)強(qiáng)調(diào),Token efficiency已經(jīng)不只是“訓(xùn)練效率”的問(wèn)題,而是直接關(guān)系到模型還能走多遠(yuǎn)。尤其是在Agent與長(zhǎng)上下文任務(wù)逐漸成為主流之后,用更少的Token完成更復(fù)雜的任務(wù),正在成為一條繞不開(kāi)的技術(shù)路徑。

最后,當(dāng)模型能力與成本約束同時(shí)擺在桌面上,應(yīng)用方向的分化也變得不可避免。

姚順雨判斷,“toC和toB,正在走向兩套完全不同的邏輯!彼赋,在消費(fèi)端,“模型變得更強(qiáng),并不一定能被大多數(shù)用戶感知”,很多時(shí)候只是搜索體驗(yàn)的增強(qiáng);

但在toB場(chǎng)景里,“智能越高,生產(chǎn)力越高,值錢的也越多”,而且這種差距會(huì)隨著模型能力提升被不斷放大。正因?yàn)槿绱,?qiáng)模型和“稍微弱一點(diǎn)的模型”之間,在企業(yè)端的分化會(huì)越來(lái)越明顯,這也在倒逼模型公司重新選擇自己的主戰(zhàn)場(chǎng)。

這場(chǎng)會(huì)議并沒(méi)有給出明確答案,但一些共識(shí)已經(jīng)逐漸成形。

在多位一線研究者的討論中,三條趨勢(shì)開(kāi)始清晰浮現(xiàn):Scaling之后的新一代范式正在被迫成為新命題;Token效率正在上升為國(guó)內(nèi)大模型競(jìng)爭(zhēng)的決定性因素;中美大模型正走在不同的演進(jìn)路徑。

這三條趨勢(shì),也是當(dāng)下中國(guó)大模型產(chǎn)業(yè)無(wú)法回避的現(xiàn)實(shí)問(wèn)題。

虎嗅注:以下三項(xiàng)趨勢(shì)為筆者基于唐杰、楊植麟的發(fā)言及圓桌討論內(nèi)容所作的綜合分析


趨勢(shì)一:Scaling 之外,新的范式正在成為新命題

在 AGI-Next 前沿峰會(huì)上,關(guān)于 Scaling 的討論,已經(jīng)明顯不再停留在“還要不要繼續(xù)做大模型”這一層面,而是被不斷推向一個(gè)更根本的問(wèn)題:如果繼續(xù)投入,是否還值得?

唐杰并沒(méi)有回避 Scaling 仍然有效這一事實(shí)。他坦言,只要繼續(xù)擴(kuò)大算力、數(shù)據(jù)與參數(shù)規(guī)模,模型能力依然會(huì)提升。但他隨即給出了一個(gè)更現(xiàn)實(shí)的判斷:真正的瓶頸,已經(jīng)不在于算力有沒(méi)有,而在于效率是否還劃算。

在這種語(yǔ)境下,唐杰將單純依賴 Scaling 形容為“一種相對(duì)偷懶的方式”。類似的質(zhì)疑并非只出現(xiàn)在國(guó)內(nèi)。OpenAI 聯(lián)合創(chuàng)始人 Ilya Sutskever 近年來(lái)也多次指出,當(dāng)高質(zhì)量數(shù)據(jù)逐漸耗盡、訓(xùn)練成本持續(xù)抬升,單純通過(guò)堆疊規(guī)模所獲得的智能增量正在迅速收窄,下一階段的突破,無(wú)法再僅靠“把模型做得更大”來(lái)實(shí)現(xiàn)。

這并非對(duì)過(guò)去路徑的否定,而是一種階段性的反思。過(guò)去幾年,大模型能力的躍遷,確實(shí)高度依賴參數(shù)規(guī)模與數(shù)據(jù)量的線性擴(kuò)張;但當(dāng)這一方法逐漸逼近邊界,繼續(xù)沿著同一方向前進(jìn),所能換取的,更多是成本的指數(shù)級(jí)增長(zhǎng),而非智能的同等躍遷。

正是在這樣的背景下,唐杰開(kāi)始反復(fù)強(qiáng)調(diào)一個(gè)關(guān)鍵詞:效率。無(wú)論是模型架構(gòu)、訓(xùn)練策略,還是強(qiáng)化學(xué)習(xí)與 Agent 環(huán)境的引入,核心目標(biāo)都在于,用更少的投入,換取更高質(zhì)量的智能增量。在他的表述中,Scaling 不再是目標(biāo)本身,而只是手段之一;真正需要被重新定義的,是智能是如何增長(zhǎng)的。

而這種對(duì)“下一代范式”的焦慮,其實(shí)在硅谷早就傳來(lái)了。

在圓桌討論中,姚順雨將這一變化放進(jìn)了更大的全球語(yǔ)境中。如果回看過(guò)去十年,OpenAI 實(shí)際上已經(jīng)先后推動(dòng)了兩個(gè)重要范式:第一個(gè)是以預(yù)訓(xùn)練為核心的通用模型范式,第二個(gè)是以對(duì)齊、推理和強(qiáng)化學(xué)習(xí)為代表的能力增強(qiáng)范式。

姚順雨表示,當(dāng)下,越來(lái)越多的研究者開(kāi)始將目光投向一個(gè)尚未被清晰定義的新范式,這個(gè)新范式的前提就是自主學(xué)習(xí)。

“在硅谷的大街小巷、咖啡館里,大家都在談自主學(xué)習(xí)!币樣晷稳莸。但他隨即指出,這個(gè)概念本身并不是一個(gè)統(tǒng)一的方法論,而更像是一組尚未被充分展開(kāi)的問(wèn)題集合。真正的瓶頸,并不在于有沒(méi)有新的算法技巧,而在于:數(shù)據(jù)從哪里來(lái),任務(wù)如何定義。

在他的觀察中,自主學(xué)習(xí)其實(shí)已經(jīng)以非!皽睾汀钡姆绞桨l(fā)生著。ChatGPT 正在不斷擬合人類的聊天風(fēng)格與表達(dá)習(xí)慣;Claude Code 已經(jīng)可以為自己寫出相當(dāng)比例的代碼,在幫助自身系統(tǒng)變得更好。但這些變化之所以尚未顯得“石破天驚”,并不是因?yàn)榉较蝈e(cuò)誤,而是受限于一個(gè)現(xiàn)實(shí)條件——缺乏足夠強(qiáng)的預(yù)訓(xùn)練能力與通用底座。

至于信號(hào)何時(shí)會(huì)真正出現(xiàn),姚順雨給出了一個(gè)相對(duì)克制的判斷:2026 年,可能會(huì)看到一些跡象,比如 Cursor 這類工具所展現(xiàn)出的變化。但他認(rèn)為,更大的問(wèn)題甚至不在技術(shù)本身,而在于想象力——如果真正意義上的自主學(xué)習(xí)出現(xiàn),它會(huì)長(zhǎng)成什么樣?它的效果,應(yīng)該如何被驗(yàn)證?

當(dāng)被問(wèn)及“下一個(gè)范式最有可能出現(xiàn)在哪家公司”時(shí),姚順雨給出的答案依然是 OpenAI。盡管他也同時(shí)指出,其商業(yè)化進(jìn)程正在不可避免地影響OpenAI的創(chuàng)新基因。

這樣的制衡關(guān)系,本身就是新范式在全球范圍內(nèi)都還遲遲未能清晰落地的重要原因之一。

林俊旸則從另一個(gè)角度補(bǔ)充道:用 AI 訓(xùn) AI在技術(shù)上很快就可以實(shí)現(xiàn),但真正困難的,是讓系統(tǒng)持續(xù)理解用戶本身。在他看來(lái),如果自主學(xué)習(xí)只是停留在參數(shù)更新或模型自舉層面,意義有限;真正的挑戰(zhàn),在于讓模型在長(zhǎng)期交互中形成穩(wěn)定、可演進(jìn)的認(rèn)知結(jié)構(gòu)。

這些討論最終指向一個(gè)尚未被回答的問(wèn)題:當(dāng) Scaling 的邊際收益開(kāi)始下降,自主學(xué)習(xí)仍然停留在早期信號(hào)階段,“新的范式究竟會(huì)在哪里率先成形?”

或者說(shuō),中國(guó)的大模型公司,是否有機(jī)會(huì)參與、甚至引領(lǐng)這一輪范式轉(zhuǎn)移?


趨勢(shì)二:Token效率愈加成為國(guó)內(nèi)大模型能力的決定性因素

如果說(shuō)在 Scaling 逐漸逼近邊界之后,行業(yè)開(kāi)始重新尋找“下一步往哪走”的答案,那么在這場(chǎng)會(huì)議上,一個(gè)更現(xiàn)實(shí)、也更具約束力的變量,被反復(fù)擺到了臺(tái)前:Token 效率。

“Token efficiency”幾乎是在楊植麟演講中最常被提及的概念。

他從第一性原理出發(fā),重新拆解了大模型能力增長(zhǎng)的路徑。在他看來(lái),從 2019 年至今,大模型始終遵循同一條基本邏輯:通過(guò) Scaling Law,將更多算力、數(shù)據(jù)和參數(shù)轉(zhuǎn)化為更低的 Loss、更高的智能水平。但這一邏輯的隱含前提是,Token 可以被無(wú)限消耗。

而現(xiàn)實(shí)并非如此。

當(dāng)預(yù)訓(xùn)練 Token 被吃完,模型所能達(dá)到的智能上限,也就被提前鎖死了。這意味著,問(wèn)題不再只是“用多少 Token”,而是每一個(gè) Token 能換來(lái)多少有效智能。在他的表述中,Token efficiency 已經(jīng)不只是訓(xùn)練效率的問(wèn)題,而是直接決定模型還能走多遠(yuǎn)的上限變量。

為了說(shuō)明這一點(diǎn),他引入了一個(gè)常被忽略的視角:在不同 Context 長(zhǎng)度下,模型對(duì) Token 的利用效率并不相同。在短上下文場(chǎng)景中,不同架構(gòu)之間的差異并不明顯;但當(dāng) Context 拉長(zhǎng)到上千、上萬(wàn)甚至數(shù)十萬(wàn) Token 時(shí),Token 的位置損耗(position loss)開(kāi)始顯著拉開(kāi)差距。也正是在這里,Token efficiency 開(kāi)始直接決定模型在復(fù)雜推理與 Agent 任務(wù)中的潛力。

正因如此,過(guò)去一年,月之暗面幾乎將所有核心工作都?jí)涸趖oken效率上,即用更少的 Token,做到更低的 Loss。在 K2 模型中,他們嘗試引入新的優(yōu)化器(muon優(yōu)化器)與架構(gòu)設(shè)計(jì)(linear attention),通過(guò)提升 Token efficiency,使模型在“用一半數(shù)據(jù)達(dá)到相同效果”的意義上,獲得等價(jià)于一次 Scaling 的收益。

楊植麟將這種效果直接類比為:“在Scaling的尺度下,用更少的參數(shù),就能得到更好的Scaling效果”

但他隨即強(qiáng)調(diào),這里的 efficiency,并不僅僅是“快”或“省”,而是智能上限本身。在 Agent 場(chǎng)景中,模型的推理和強(qiáng)化學(xué)習(xí),本質(zhì)上是一個(gè)搜索過(guò)程;如果 Token 利用率不高,搜索空間就會(huì)迅速膨脹,模型需要枚舉大量無(wú)意義的組合,才能逼近正確答案。相反,更高的 Token efficiency,意味著更強(qiáng)的先驗(yàn),可以在有限 Token 內(nèi)完成更復(fù)雜的任務(wù)。

這也是為什么,在他的判斷中,Token efficiency 與長(zhǎng)上下文能力并不是兩個(gè)獨(dú)立問(wèn)題,而是需要被同時(shí)優(yōu)化的乘積變量——前者決定單位 Token 的價(jià)值,后者決定模型能否承擔(dān)真實(shí)世界中的長(zhǎng)程任務(wù)。兩者疊加,才是 Agent 能力真正放大的基礎(chǔ)。

當(dāng) Scaling 不再是“無(wú)腦堆資源”的選擇,Token 效率便從工程細(xì)節(jié),上升為國(guó)內(nèi)大模型競(jìng)爭(zhēng)中的結(jié)構(gòu)性約束。誰(shuí)能在有限算力與數(shù)據(jù)條件下,更高效地“消耗 Token”,誰(shuí)就更有可能在下一階段的模型競(jìng)爭(zhēng)中占據(jù)主動(dòng)。

而這一變化,也正在悄然重塑國(guó)內(nèi)大模型的技術(shù)路線選擇。


趨勢(shì)三:中美大模型正在走向不同的演進(jìn)路徑

在唐杰、姚順雨、林俊旸等學(xué)者的討論中,一個(gè)反復(fù)被提及的問(wèn)題是:中美大模型之間的差距,究竟體現(xiàn)在哪里?

姚順雨給出的判斷,并不是單一維度的“能力高低”,而是指向兩條正在逐漸分叉的演進(jìn)路徑。

在他看來(lái),美國(guó)的大模型發(fā)展,正在明顯向生產(chǎn)力與企業(yè)級(jí)場(chǎng)景集中,尤其是在 Coding 與 Agent 方向上,模型能力幾乎直接重塑了工作方式本身。比如工程師不再寫代碼,而是通過(guò)自然語(yǔ)言與系統(tǒng)協(xié)作。在這種語(yǔ)境下,模型能力與個(gè)體生產(chǎn)力被強(qiáng)綁定,模型是否“足夠強(qiáng)”,會(huì)直接影響工作結(jié)果本身。

也正是在這種背景下,美國(guó)市場(chǎng)對(duì)模型能力的價(jià)格容忍度明顯更高。姚順雨在討論中提到,許多用戶更愿意為成功率更高、不確定性更低的模型支付溢價(jià)。模型能力本身,在美國(guó)市場(chǎng)中更容易被直接視為一種“生產(chǎn)資料”。

相比之下,中國(guó)的大模型公司所面對(duì)的現(xiàn)實(shí)環(huán)境則明顯不同。一方面,國(guó)內(nèi)企業(yè)級(jí)市場(chǎng)對(duì)成本高度敏感,模型能力的邊際提升,并不總能順暢轉(zhuǎn)化為價(jià)格溢價(jià);另一方面,大量 toB 場(chǎng)景本身仍高度碎片化,對(duì)模型的需求更多集中在穩(wěn)定性、可控性與交付效率上,而非單點(diǎn)的“最強(qiáng)智能”。

這使得模型在中國(guó)市場(chǎng)中,更像是一種被嵌入既有系統(tǒng)的基礎(chǔ)能力,而非可以獨(dú)立定價(jià)的生產(chǎn)力主體。

這種差異,并不僅體現(xiàn)在市場(chǎng)層面,也被進(jìn)一步追溯到更底層的 Lab 文化上。

在姚順雨的觀察中,美國(guó)的大模型公司與研究機(jī)構(gòu),往往長(zhǎng)期圍繞“前沿問(wèn)題”運(yùn)轉(zhuǎn)。研究團(tuán)隊(duì)被鼓勵(lì)在較長(zhǎng)周期內(nèi)投入到高風(fēng)險(xiǎn)、高不確定性的方向中,即便短期內(nèi)看不到明確的產(chǎn)品回報(bào)。這種文化,使得“把模型能力推到極限”本身,就具備持續(xù)獲得資源投入的正當(dāng)性。

而在中國(guó),大模型研發(fā)環(huán)境則更強(qiáng)調(diào)效率與反饋周期;蛘哂盟脑拋(lái)說(shuō),“中國(guó)(的Lab)還是更喜歡做安全的事情!

研究團(tuán)隊(duì)往往需要在更短時(shí)間內(nèi)回應(yīng)明確的業(yè)務(wù)目標(biāo),模型能力的演進(jìn)也更容易被拉回到“是否能落地、是否能規(guī);钡默F(xiàn)實(shí)約束之中。這并不意味著技術(shù)投入不足,而是 Lab 與產(chǎn)業(yè)之間的邊界更為緊密,研究方向更容易受到應(yīng)用場(chǎng)景的牽引。

此外,姚順雨還補(bǔ)充道,“中國(guó)對(duì)于刷榜或者數(shù)字更看重一些;而美國(guó)則并沒(méi)有那么看重,他們?cè)谝獾挠袃牲c(diǎn),第一,什么是正確的事情;第二,什么是你自己能體驗(yàn)出好或者不好的!

這種 Lab 文化與市場(chǎng)結(jié)構(gòu)的疊加效應(yīng),最終放大了中美在模型演進(jìn)路徑上的分化:在美國(guó),更強(qiáng)的模型能力本身,就足以支撐持續(xù)投入與溢價(jià)定價(jià);而在中國(guó),模型能力往往需要先證明自身的可用性,才能獲得下一步資源配置。這也在某種程度上解釋了,為何中美大模型的差距,越來(lái)越少被簡(jiǎn)單理解為“誰(shuí)領(lǐng)先誰(shuí)落后”,而更像是兩種現(xiàn)實(shí)條件下,被迫走出的不同路線。

本文來(lái)自虎嗅,原文鏈接:https://www.huxiu.com/article/4825356.html?f=wyxwapp

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
大魚來(lái)了!廣東最適合的鋒線大側(cè)翼曝光,朱芳雨有望重金挖走?

大魚來(lái)了!廣東最適合的鋒線大側(cè)翼曝光,朱芳雨有望重金挖走?

緋雨兒
2026-01-12 15:07:05
奉勸大家:為了家人安全,別在廚房做這7件事,真的很危險(xiǎn)!

奉勸大家:為了家人安全,別在廚房做這7件事,真的很危險(xiǎn)!

Home范
2026-01-03 14:57:10
多款茅臺(tái)酒降價(jià)!酒商意見(jiàn)很大

多款茅臺(tái)酒降價(jià)!酒商意見(jiàn)很大

食悟
2026-01-12 21:29:32
錢再多有什么用?站起來(lái)就想吐的周渝民,給所有中年男人提了個(gè)醒

錢再多有什么用?站起來(lái)就想吐的周渝民,給所有中年男人提了個(gè)醒

深析古今
2026-01-10 16:33:12
唐嫣在國(guó)外很豪放!穿連體衣下面不系扣,難道不好好穿衣就時(shí)髦?

唐嫣在國(guó)外很豪放!穿連體衣下面不系扣,難道不好好穿衣就時(shí)髦?

章眽八卦
2026-01-05 12:27:07
中方廣發(fā)邀請(qǐng)?zhí),多?guó)積極派兵,1國(guó)拒絕派兵,金磚內(nèi)部冒出刺頭

中方廣發(fā)邀請(qǐng)?zhí),多?guó)積極派兵,1國(guó)拒絕派兵,金磚內(nèi)部冒出刺頭

時(shí)時(shí)有聊
2026-01-11 19:26:09
周杰倫宣布以球員身份參加澳網(wǎng)

周杰倫宣布以球員身份參加澳網(wǎng)

現(xiàn)代快報(bào)
2026-01-12 16:26:09
美以聯(lián)軍將突襲伊朗

美以聯(lián)軍將突襲伊朗

星火聊天下
2026-01-11 09:06:49
2025年,內(nèi)娛最賺錢的10位明星,劉德華第四,第一名讓人意外

2025年,內(nèi)娛最賺錢的10位明星,劉德華第四,第一名讓人意外

林雁飛
2026-01-06 13:15:06
韓國(guó)疑似發(fā)生性侵貓咪事件…

韓國(guó)疑似發(fā)生性侵貓咪事件…

奮斗在韓國(guó)
2026-01-12 10:49:40
一錘在錘!檀健次戀情升級(jí),女方再放猛料,這次恐徹底涼涼

一錘在錘!檀健次戀情升級(jí),女方再放猛料,這次恐徹底涼涼

青橘罐頭
2026-01-11 11:40:45
腦梗的源頭被查出,肥肉沒(méi)上榜,第1名很多人可能每天都在吃!

腦梗的源頭被查出,肥肉沒(méi)上榜,第1名很多人可能每天都在吃!

全球軍事記
2025-11-29 13:46:37
明搶5000萬(wàn)桶石油后,特朗普轉(zhuǎn)頭才發(fā)現(xiàn):中國(guó)連一桶都不肯買了

明搶5000萬(wàn)桶石油后,特朗普轉(zhuǎn)頭才發(fā)現(xiàn):中國(guó)連一桶都不肯買了

博覽歷史
2026-01-12 18:12:34
日軍“大佐”是什么軍銜?為何日軍不想升將官,卻爭(zhēng)著當(dāng)大佐?

日軍“大佐”是什么軍銜?為何日軍不想升將官,卻爭(zhēng)著當(dāng)大佐?

大千世界觀
2026-01-11 18:45:49
“河北取暖”被刪除,我想問(wèn)問(wèn)……

“河北取暖”被刪除,我想問(wèn)問(wèn)……

紅色少女主播
2026-01-12 10:35:55
外交部:無(wú)論委內(nèi)瑞拉政局如何變化,中方深化兩國(guó)各領(lǐng)域務(wù)實(shí)合作意愿不會(huì)改變

外交部:無(wú)論委內(nèi)瑞拉政局如何變化,中方深化兩國(guó)各領(lǐng)域務(wù)實(shí)合作意愿不會(huì)改變

新京報(bào)政事兒
2026-01-09 15:32:35
乒乓球女單最新排名出爐!孫穎莎第1,陳幸同超越蒯曼,朱雨玲第5

乒乓球女單最新排名出爐!孫穎莎第1,陳幸同超越蒯曼,朱雨玲第5

齊帥
2026-01-12 16:12:15
專為U字號(hào)亞洲杯而生,門神李昊證明馬競(jìng)的球探很優(yōu)秀

專為U字號(hào)亞洲杯而生,門神李昊證明馬競(jìng)的球探很優(yōu)秀

米奇兔
2026-01-12 11:53:08
“青提”是大陸用語(yǔ)?基隆一甜品店被轟“滾出臺(tái)灣”,臺(tái)網(wǎng)友:文字獄

“青提”是大陸用語(yǔ)?基隆一甜品店被轟“滾出臺(tái)灣”,臺(tái)網(wǎng)友:文字獄

海峽導(dǎo)報(bào)社
2026-01-12 16:12:04
人美戲好的她,為啥紅不了?

人美戲好的她,為啥紅不了?

民間平哥
2026-01-12 20:21:51
2026-01-12 22:19:00
虎嗅APP incentive-icons
虎嗅APP
個(gè)性化商業(yè)資訊與觀點(diǎn)交流平臺(tái)
25586文章數(shù) 687295關(guān)注度
往期回顧 全部

科技要聞

面對(duì)SpaceX瘋狂“下餃子” 中國(guó)正面接招

頭條要聞

知曉女子丈夫出差 男子跨城趕來(lái)將她約賓館猥褻拍裸照

頭條要聞

知曉女子丈夫出差 男子跨城趕來(lái)將她約賓館猥褻拍裸照

體育要聞

聰明的球員,不是教練教出來(lái)的

娛樂(lè)要聞

蔡少芬結(jié)婚18周年,與張晉過(guò)二人世界

財(cái)經(jīng)要聞

倍輕松信披迷霧 實(shí)控人占用資金金額存疑

汽車要聞

增配不加價(jià) 北京現(xiàn)代 第五代 勝達(dá)2026款上市

態(tài)度原創(chuàng)

家居
游戲
旅游
本地
公開(kāi)課

家居要聞

包絡(luò)石木為生 野性舒適

任天堂正開(kāi)發(fā)粉絲期待已久的熱門系列以及全新IP

旅游要聞

冰上漁歌起 年味踏雪來(lái) 哈素海冬捕節(jié)解鎖青城跨年新玩法

本地新聞

云游內(nèi)蒙|“包”你再來(lái)?一座在硬核里釀出詩(shī)意的城

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版