国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

姚順雨騰訊第一篇論文,道破為什么AI死活聽不懂人話

0
分享至


本文來自微信公眾號:字母AI,作者:苗正,題圖來自:AI生成

今天的大語言模型能解奧數(shù)題、通過專業(yè)考試、寫復(fù)雜代碼,但它們在真實世界的應(yīng)用中卻常?!胺嚒?。問題出在哪里?

在姚順雨加入騰訊后發(fā)布的首篇論文里,他對于這個現(xiàn)象提出了一個觀點:

“當(dāng)前AI與真正智能之間的鴻溝,不在于知識的多少,而在于學(xué)習(xí)的能力。一個裝滿知識卻不會學(xué)習(xí)的AI,就像一個背了整本字典卻不會寫作的人,看起來博學(xué),實則僵化。”

這篇論文的標(biāo)題叫做《CL-bench: A Benchmark for Context Learning》。

CL-bench是一個專門評測語言模型“上下文學(xué)習(xí)能力”的大規(guī)?;鶞?zhǔn)測試集,它的全稱是Context Learning Benchmark,即上下文學(xué)習(xí)測試集。

它包含500個復(fù)雜上下文場景、1899個任務(wù)和31607個評估標(biāo)注點,所有內(nèi)容均由各個領(lǐng)域資深專家精心挑選。

這個基準(zhǔn)的核心設(shè)計理念,是挑選那些在模型的預(yù)訓(xùn)練數(shù)據(jù)中不存在的難題,讓每個任務(wù)都必須要求模型從提供的上下文中學(xué)習(xí)全新的知識才能解決。

這篇論文不僅揭示了當(dāng)前AI的根本性缺陷,還構(gòu)建了一個專屬于AI的評價體系,非常值得AI以及agent從業(yè)者學(xué)習(xí)。

一面照出AI“假學(xué)習(xí)”真相的鏡子

從數(shù)據(jù)規(guī)模來看,CL-bench的每個上下文平均包含3.8個任務(wù),最多可達(dá)12個任務(wù)。

更重要的是,500個復(fù)雜上下文場景中,包含序列依賴性任務(wù)的場景占51.1%。

這也就是說,你想要AI解決后面的任務(wù),那就必須先從前面的任務(wù)中得到正確的答案,這種多輪交互設(shè)計極大增加了難度。

單任務(wù)標(biāo)注平均需領(lǐng)域?qū)<?0小時,每個任務(wù)平均配備16.6個評估標(biāo)注項,從事實正確性、計算準(zhǔn)確性、程序正確性、內(nèi)容完整性和格式合規(guī)性等多個維度進(jìn)行嚴(yán)格驗證。

CL-bench考的不是AI記住了多少知識,而是AI能不能像人類一樣,拿到一份新材料后快速學(xué)會并正確使用。

這些任務(wù)有個共同點,AI必須靠臨場發(fā)揮才能通過考試。

預(yù)訓(xùn)練時學(xué)到的知識在這里用處不大,因為CL-bench里的知識要么是專家們新編的,要么是現(xiàn)實世界中極其小眾的內(nèi)容。

那如何保證CL-bench里的新知識是模型原來就沒有的呢?

論文通過消融實驗驗證了這一點。在不提供上下文的情況下,所有被測模型只能解決不到1%的任務(wù)。這充分證明了任務(wù)對上下文的依賴性。

CL-bench將上下文學(xué)習(xí)場景分為四大類別,每類對應(yīng)不同的認(rèn)知要求:


領(lǐng)域知識推理(Domain Knowledge Reasoning):涵蓋金融、醫(yī)療、人文、法律咨詢、生活方式、管理和科學(xué)七個子領(lǐng)域。

上下文提供專業(yè)領(lǐng)域知識,如虛構(gòu)的法律體系、創(chuàng)新的金融工具或小眾專業(yè)知識,模型需要學(xué)習(xí)并應(yīng)用這些知識進(jìn)行推理。比如給AI一個虛構(gòu)國家的完整法律條文和判例,讓AI判罰一起復(fù)雜的民事糾紛。

規(guī)則系統(tǒng)應(yīng)用(Rule System Application):包括游戲機制、數(shù)學(xué)形式體系、編程語法、法律法規(guī)和技術(shù)標(biāo)準(zhǔn)五個子類。

上下文提供明確定義的規(guī)則系統(tǒng),模型必須理解并嚴(yán)格遵守這些規(guī)則。比如給定一門全新編程語言的語法規(guī)范,讓模型編寫符合規(guī)范的程序;或者給定一套新游戲的完整規(guī)則手冊,讓模型分析游戲狀態(tài)并給出最優(yōu)策略。

程序性任務(wù)執(zhí)行(Procedural Task Execution):分為教學(xué)程序、操作程序和工作流編排三類。

上下文提供復(fù)雜的操作流程、產(chǎn)品手冊或工作流程,模型需要學(xué)習(xí)并正確執(zhí)行這些程序。例如給定一份無人機物流系統(tǒng)約7000字的API文檔,讓模型將自然語言指令轉(zhuǎn)換為安全合規(guī)的偽代碼。

經(jīng)驗發(fā)現(xiàn)與模擬(Empirical Discovery & Simulation):是最具挑戰(zhàn)性的類別,包括實驗數(shù)據(jù)、觀測數(shù)據(jù)和模擬環(huán)境三個子類。


與前三類強調(diào)演繹推理不同,這一類要求歸納推理。從大量數(shù)據(jù)中發(fā)現(xiàn)潛在規(guī)律,或在虛擬環(huán)境中進(jìn)行推理和決策。比如給定300份帶電粒子在磁場中運動的實驗日志,讓模型推導(dǎo)出運動規(guī)律并計算特定參數(shù)。

這四類場景基本覆蓋了人類在現(xiàn)實工作中遇到的主要學(xué)習(xí)情境,而CL-bench又把這些真實場景搬進(jìn)了評測體系。

說得更直白些,領(lǐng)域知識推理考的是“能不能學(xué)會新概念”,規(guī)則系統(tǒng)應(yīng)用考的是“能不能遵守新規(guī)則”,程序性任務(wù)執(zhí)行考的是“能不能照著新流程做事”,經(jīng)驗發(fā)現(xiàn)與模擬考的是“能不能從數(shù)據(jù)里找規(guī)律”。

這四種能力,人類在日常工作中天天用,但AI顯然還沒學(xué)會。

為了確保測試的是真正的學(xué)習(xí)能力而非記憶,CL-bench采用了嚴(yán)格的“防污染”設(shè)計:

虛構(gòu)創(chuàng)作:所有的測試內(nèi)容都是由專家們完全原創(chuàng)的。

就拿剛才的虛擬國家為例,它包含一套完整的憲法、民法、刑法,甚至連判例都有。其中的法律原則和判例邏輯與現(xiàn)實世界任何國家都不同。

或者創(chuàng)造一門名為“EduScript”的教育編程語言,具有獨特的語法規(guī)則和控制結(jié)構(gòu)。

現(xiàn)有內(nèi)容修改:CL-bench還對真實知識進(jìn)行了系統(tǒng)性地改動,比如修改著名歷史事件的因果關(guān)系、改變物理定律的數(shù)學(xué)表達(dá)、或調(diào)整技術(shù)標(biāo)準(zhǔn)的具體參數(shù)。

這確保了即使模型見過類似內(nèi)容,也無法直接套用預(yù)訓(xùn)練知識。

小眾新興內(nèi)容整合:CL-bench里面還納入了預(yù)訓(xùn)練數(shù)據(jù)中極少出現(xiàn)的內(nèi)容,就像2024年后發(fā)布的新產(chǎn)品技術(shù)文檔、最新的科研論文發(fā)現(xiàn)、或極其專業(yè)的小眾領(lǐng)域知識。

這三招組合拳,目的只有一個,讓AI沒法作弊。你不能靠背過的知識答題,必須現(xiàn)場學(xué)。這就像考試時老師突然換了一套從沒見過的題型,你只能靠理解能力和學(xué)習(xí)能力來應(yīng)對。

論文通過消融實驗驗證了這一設(shè)計的有效性:在不提供上下文的情況下,即使是最強的 GPT-5.1 模型也只能解決不到 1% 的任務(wù),充分證明了任務(wù)對上下文的依賴性。

CL-bench給出的結(jié)果讓人們既開心又難過

CL-bench的這套評估體系的嚴(yán)格程度超出想象。

16.6個評估標(biāo)注項意味著什么?意味著你不能只答對大方向,每個細(xì)節(jié)都要對。就像做數(shù)學(xué)題,你不僅要答案對,步驟也要對,格式還要對,引用的公式也要對。任何一個環(huán)節(jié)出錯,整道題就算錯。

這些標(biāo)準(zhǔn)會從六個角度檢查AI的答案,每個標(biāo)準(zhǔn)要么對,要么錯,沒有中間地帶。

事實對不對?比如AI說這個虛構(gòu)國家的憲法第3條規(guī)定了什么,得和上下文里寫的一模一樣才算對。

計算對不對?如果任務(wù)要求計算帶電粒子的運動軌跡,那每一步公式、每一個數(shù)字都得驗證。

推理對不對?AI得按照上下文里給的規(guī)則來推理,不能自己瞎編邏輯。

代碼對不對?如果要寫程序,得嚴(yán)格遵守文檔里的 API 規(guī)范,少一個參數(shù)都不行。

完整不完整?該做的步驟一個都不能少,漏了哪怕一個關(guān)鍵環(huán)節(jié)都算錯。

格式對不對?讓你輸出JSON就得是JSON,讓你用表格就得是表格。

這套評分系統(tǒng)最狠的地方在于,只有所有標(biāo)準(zhǔn)全部通過,任務(wù)才算完成。只要有一個標(biāo)準(zhǔn)沒過,整個任務(wù)就算失敗。這就像考試,選擇題全對才給分,錯一個就是零分。

為了保證這套自動評分系統(tǒng)靠譜,論文做了兩個驗證。

一是讓5個不同的AI模型(GPT-5.1/5.2、Claude Opus 4.5、Qwen-3-Max、ERNIE 4.0)當(dāng)評委,它們的判斷結(jié)果90%以上都一致;二是人工抽查了200個案例,發(fā)現(xiàn)AI評委的準(zhǔn)確率也超過90%。這說明這套評分系統(tǒng)確實可信。

CL-bench的評測顯示,AI距離解決實際問題還相距甚遠(yuǎn),往好處想,人類還不用擔(dān)心被AI取代。


十個最先進(jìn)的語言模型,平均只能解決17.2%的全量任務(wù),所有模型里表現(xiàn)最好的是GPT-5.1,但也僅達(dá)到23.7%。這意味著在大多數(shù)情況下,即使上下文中包含了解決問題所需的全部信息,模型仍然失敗了。

這個數(shù)字值得細(xì)品。23.7%意味著給AI一份完整的操作手冊,它有四分之三的概率還是搞不定。

這就像你雇了個員工,你給他詳細(xì)講了一遍具體操作流程,結(jié)果輪到他上崗的時候,十次有八次都做錯。在現(xiàn)實世界里,這樣的員工早就被開除了。

更深入的錯誤分析揭示了失敗的主要原因。

超過55%的錯誤源于“上下文忽略”:模型根本沒有注意到上下文中的關(guān)鍵信息,而是試圖用預(yù)訓(xùn)練知識解決問題。

超過60%的錯誤屬于“上下文誤用”:模型看到了信息但理解錯誤或應(yīng)用不當(dāng)。

還有超過35%的錯誤是格式錯誤,說明模型連明確的格式指令都無法遵守。

這三種錯誤類型揭示了AI的根本問題。上下文忽略說明AI不會“看”;上下文誤用說明AI不會“想”;格式錯誤說明AI不會“聽”。

一個不會看、不會想、不會聽的學(xué)生,怎么可能學(xué)會新知識?

這些發(fā)現(xiàn)揭示了一個被長期忽視的真相:當(dāng)前的AI模型本質(zhì)上是“參數(shù)推理者”而非“上下文學(xué)習(xí)者”。它們擅長調(diào)用預(yù)訓(xùn)練時壓縮在權(quán)重中的靜態(tài)知識,卻不擅長從當(dāng)前輸入中動態(tài)學(xué)習(xí)新知識。

因為真實任務(wù)往往需要根據(jù)具體上下文靈活應(yīng)對,而非套用固定模式。

所以AI在標(biāo)準(zhǔn)化考試中表現(xiàn)優(yōu)異,在真實工作場景中卻頻頻出錯。

打個比方,現(xiàn)在的AI就像一個背了整本字典的人,你問他字典里的字怎么寫,他都能答上來。但你給他一本新書讓他學(xué)習(xí),他就傻眼了。他不會學(xué),只會背。這就是“參數(shù)推理者”和“上下文學(xué)習(xí)者”的區(qū)別。

四大類別中,領(lǐng)域知識推理相對最容易,最好的模型能達(dá)到25.3%的解決率。規(guī)則系統(tǒng)應(yīng)用和程序性任務(wù)執(zhí)行難度適中,大部分模型在15-20%之間。但經(jīng)驗發(fā)現(xiàn)與模擬類任務(wù)的表現(xiàn)斷崖式下跌,所有模型平均只有11.8%的解決率。

這個差異很有意思。

演繹推理(應(yīng)用已知規(guī)則)比歸納推理(從數(shù)據(jù)中發(fā)現(xiàn)規(guī)律)容易得多。給AI一套規(guī)則讓它照著做,它還能勉強應(yīng)付;讓它從數(shù)據(jù)里找規(guī)律,它就徹底懵了。

這說明AI的學(xué)習(xí)能力還停留在“照葫蘆畫瓢”的階段,遠(yuǎn)沒到“舉一反三”的程度。

在子類別層面,差異更加明顯。在規(guī)則系統(tǒng)應(yīng)用中,法律法規(guī)類任務(wù)的解決率超過 29%, GPT-5.1 甚至達(dá)到 44.8%,但數(shù)學(xué)形式體系類任務(wù)大部分模型都在 15% 以下。

在程序性任務(wù)執(zhí)行中,工作流編排的解決率普遍在 20% 以上,但操作程序類任務(wù)明顯更難。

這些差異透露出另一個信息,AI對不同類型知識的學(xué)習(xí)能力差異巨大。有些知識它學(xué)得快,有些知識它怎么都學(xué)不會。這就像人類學(xué)生,有人擅長文科,有人擅長理科。

但問題是,AI的偏科比人類嚴(yán)重得多。

論文引發(fā)的啟示

無可置疑的是,CL-bench填補了現(xiàn)有評測體系的關(guān)鍵空白。

在過去,長上下文評測主要考AI能不能從一大堆文字里找到信息。比如給AI一篇10萬字的小說,問“主角的媽媽叫什么名字”,AI只要能翻到那一頁找到答案就行。

這更像是考“查字典”的能力,不是“學(xué)習(xí)”的能力。

指令遵循評測主要考AI聽不聽話。比如讓AI“用JSON格式輸出,不超過100字”,看它能不能照做。

但這類測試的知識都很簡單,AI早就會了,只是看它守不守規(guī)矩而已。

領(lǐng)域任務(wù)評測問題更大。它既考AI會不會找資料,又考AI會不會用資料。結(jié)果AI答錯了,你根本不知道是因為它沒找對資料,還是找對了但不會用。

就像學(xué)生考試不及格,你不知道是他沒復(fù)習(xí),還是復(fù)習(xí)了但沒學(xué)會。

CL-bench則專注于一個明確的能力維度,從復(fù)雜上下文中學(xué)習(xí)新知識并正確應(yīng)用。

它將上下文準(zhǔn)備與上下文學(xué)習(xí)解耦。所有必要信息都已組織好并提供,模型只需學(xué)習(xí)和應(yīng)用,無需外部檢索。這使得評測結(jié)果能夠精確反映模型的上下文學(xué)習(xí)能力,而非其他混雜因素。

論文還發(fā)現(xiàn)了一些反直覺的現(xiàn)象,GPT-5.2的表現(xiàn)反而比GPT-5.1差5.6%。


深入分析發(fā)現(xiàn),GPT-5.2在長上下文推理時難以維持連貫的因果鏈,且更頻繁地違反上下文中的明確約束。

這說明模型的版本迭代并不總是帶來全面提升,某些能力的優(yōu)化可能以犧牲其他能力為代價。

這個發(fā)現(xiàn)很重要。我們一直以為新版本肯定比舊版本強,但事實并非如此。GPT-5.2可能在某些方面確實更強了,但在上下文學(xué)習(xí)這個維度上反而退步了。這就像一個學(xué)生,數(shù)學(xué)成績提高了,但語文成績下降了,總分反而降了。

再比如,增加推理強度對不同模型的效果差異巨大。

GPT-5.1在高推理強度下平均提升2.5%,在管理和實驗數(shù)據(jù)類任務(wù)上提升近6%。

但GPT-5.2在某些子類別上反而出現(xiàn)負(fù)增長。這表明“更多思考”只有在模型具備正確的上下文學(xué)習(xí)機制時才有效,否則可能只是在錯誤的方向上越走越遠(yuǎn)。

這又是一個反直覺的發(fā)現(xiàn)。我們以為讓AI多想想總是好的,但實際上,如果AI的學(xué)習(xí)機制本身就有問題,讓它多想只會讓錯誤更嚴(yán)重。就像一個方向錯了的人,走得越快,離目標(biāo)越遠(yuǎn)。

CL-bench揭示的問題不僅僅是技術(shù)層面的,更是范式層面的。當(dāng)前AI的訓(xùn)練范式和真實應(yīng)用場景之間存在根本性的不匹配。我們優(yōu)化出的模型擅長對“已知”事物進(jìn)行推理,但用戶需要的是能解決依賴于動態(tài)上下文的任務(wù)的模型。

這個不匹配解釋了為什么AI在實驗室里表現(xiàn)優(yōu)異,到了真實場景就頻頻翻車。實驗室里的任務(wù)大多是封閉的、靜態(tài)的,答案在訓(xùn)練數(shù)據(jù)里都見過。但真實世界的任務(wù)是開放的、動態(tài)的,需要根據(jù)具體情況靈活應(yīng)對。

論文提出的“上下文學(xué)習(xí)”能力,本質(zhì)上是讓AI從“死記硬背”轉(zhuǎn)向“活學(xué)活用”。

如果AI真的能學(xué)會從上下文中學(xué)習(xí),那它就能像人類一樣,面對新情況、新問題時快速適應(yīng),而不是只會套用固定模式。

CL-bench的意義,是為了給大模型公司啟示,告訴他們下一代AI不需要更大的模型,不需要更多的參數(shù),而需要更強的學(xué)習(xí)能力。

但上下文學(xué)習(xí)只是第一步。論文提到,即便上下文學(xué)習(xí)足夠強大,模型的上下文窗口一旦清空,學(xué)到的知識隨之消失。

因此,下一個挑戰(zhàn)是如何讓從上下文中習(xí)得的知識持久化。

姚順雨在最近的公開發(fā)言中也談到了這個方向。他認(rèn)為,自主學(xué)習(xí)幾乎已經(jīng)形成了共識,而且這個事情已經(jīng)在發(fā)生了。

他說ChatGPT在利用用戶數(shù)據(jù)不斷擬合人的聊天風(fēng)格,Claude Code已經(jīng)寫了自己項目的95%的代碼。在某種程度上它在幫助自己變得更好。

但他也指出,這些自主學(xué)習(xí)的例子目前還局限在特定場景下,沒有讓人感覺到非常大的威力?!斑@個事情可能會更像一個漸變,而不像一個突變?!?/p>

從更宏觀的角度看,CL-bench揭示的問題反映了AI發(fā)展的一個深層矛盾。我們一直在追求更強的推理能力、更大的知識容量,但忽視了一個更基礎(chǔ)的能力,那就是學(xué)習(xí)。

沒有學(xué)習(xí)能力的AI,再強也只是一個高級的查詢系統(tǒng)。只有具備了真正的學(xué)習(xí)能力,AI才能從“工具”進(jìn)化為“智能體”。

本文來自微信公眾號:字母AI,作者:苗正

本內(nèi)容由作者授權(quán)發(fā)布,觀點僅代表作者本人,不代表虎嗅立場。如對本稿件有異議或投訴,請聯(lián)系 tougao@huxiu.com。

本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4832361.html?f=wyxwapp

聲明:包含AI生成內(nèi)容

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
撒貝寧一家回武漢走完親戚返京!老婆太漂亮,龍鳳胎身高沒有隨爹

撒貝寧一家回武漢走完親戚返京!老婆太漂亮,龍鳳胎身高沒有隨爹

大中國
2026-02-26 18:05:01
成本2億,日票房僅1100萬,71歲成龍懵了:內(nèi)地觀眾憑啥不買賬?

成本2億,日票房僅1100萬,71歲成龍懵了:內(nèi)地觀眾憑啥不買賬?

糊咖娛樂
2026-02-25 18:38:49
戲子誤國!春節(jié)剛過就有4位明星相繼塌房,走到這一步不值得同情

戲子誤國!春節(jié)剛過就有4位明星相繼塌房,走到這一步不值得同情

墨印齋
2026-02-26 06:21:37
朝鮮人民的9條規(guī)定,真的與我們太不一樣了

朝鮮人民的9條規(guī)定,真的與我們太不一樣了

混沌錄
2026-02-25 22:30:10
俄政治學(xué)家直言不諱:戰(zhàn)爭拖垮的不只是經(jīng)濟(jì),更是整個國家的未來

俄政治學(xué)家直言不諱:戰(zhàn)爭拖垮的不只是經(jīng)濟(jì),更是整個國家的未來

老馬拉車莫少裝
2026-02-26 23:31:28
打3年NBA能領(lǐng)多少退休金?巴特爾的金額曝光,說出來你可能不信

打3年NBA能領(lǐng)多少退休金?巴特爾的金額曝光,說出來你可能不信

籃球看比賽
2026-01-25 11:00:17
頂風(fēng)作案!上海警方:大學(xué)生湯某,刑拘!已干了50多次……

頂風(fēng)作案!上海警方:大學(xué)生湯某,刑拘!已干了50多次……

環(huán)球網(wǎng)資訊
2026-02-27 07:24:21
周濤宣布拍短劇

周濤宣布拍短劇

澎湃新聞
2026-02-27 13:53:08
2026年開始裁員最多的3個行業(yè),找工作別踩坑了

2026年開始裁員最多的3個行業(yè),找工作別踩坑了

李舟
2026-02-25 18:24:04
絕美的身材是視覺的恩賜

絕美的身材是視覺的恩賜

疾跑的小蝸牛
2026-02-27 22:12:30
國際籃聯(lián)重罰!中國男籃遇到2次誤判細(xì)節(jié)披露,中國籃協(xié)應(yīng)上訴

國際籃聯(lián)重罰!中國男籃遇到2次誤判細(xì)節(jié)披露,中國籃協(xié)應(yīng)上訴

現(xiàn)代小青青慕慕
2026-02-27 06:53:55
北大天才至死評不上職稱,在癌癥晚期,卻為中國拿下五個世界第一

北大天才至死評不上職稱,在癌癥晚期,卻為中國拿下五個世界第一

談史論天地
2026-02-27 07:04:54
大爆冷!美國男籃僅兩人上雙主場輸多米尼加 吞世預(yù)賽首敗

大爆冷!美國男籃僅兩人上雙主場輸多米尼加 吞世預(yù)賽首敗

醉臥浮生
2026-02-27 13:14:39
輸光10億真相大白僅3天,黃曉明新女友被扒,楊穎葉珂輸?shù)貌辉?>
    </a>
        <h3>
      <a href=錯過美好
2026-02-27 07:14:18
1秒3億、單日突破10億!老鋪黃金創(chuàng)下天貓大促最快銷售紀(jì)錄

1秒3億、單日突破10億!老鋪黃金創(chuàng)下天貓大促最快銷售紀(jì)錄

財聞
2026-02-27 15:05:28
新加坡偶遇黃曉明新女伴,舊愛葉柯沉默未應(yīng),公眾又開始猜來猜去

新加坡偶遇黃曉明新女伴,舊愛葉柯沉默未應(yīng),公眾又開始猜來猜去

讓我的世界更加精彩
2026-02-26 20:27:37
示弱就是毀滅!網(wǎng)友怒了:若20億拿不回,誰來守護(hù)百萬億海外資產(chǎn)

示弱就是毀滅!網(wǎng)友怒了:若20億拿不回,誰來守護(hù)百萬億海外資產(chǎn)

達(dá)文西看世界
2026-02-27 11:35:54
奔馳、寶馬、奧迪開年集體降價,銷售員:是否考慮新能源?

奔馳、寶馬、奧迪開年集體降價,銷售員:是否考慮新能源?

華夏時報
2026-02-26 16:28:14
呼吸科主任提醒:馬上停止食用4類食物,吃得越久,肺結(jié)節(jié)越長

呼吸科主任提醒:馬上停止食用4類食物,吃得越久,肺結(jié)節(jié)越長

岐黃傳人孫大夫
2026-02-26 22:10:03
郭書瑤東京吃拉面「突亮出奇葩私物」!友秒吐槽:有病哦 對話全曝光

郭書瑤東京吃拉面「突亮出奇葩私物」!友秒吐槽:有病哦 對話全曝光

ETtoday星光云
2026-02-26 13:50:05
2026-02-27 22:59:00
虎嗅APP incentive-icons
虎嗅APP
個性化商業(yè)資訊與觀點交流平臺
25783文章數(shù) 687508關(guān)注度
往期回顧 全部

科技要聞

單張不到五毛!谷歌深夜發(fā)布Nano Banana 2

頭條要聞

23歲博士研究生確診胃癌晚期 坦言經(jīng)常錯過食堂飯點

頭條要聞

23歲博士研究生確診胃癌晚期 坦言經(jīng)常錯過食堂飯點

體育要聞

一場必須要贏的比賽,男籃何止擊敗了裁判

娛樂要聞

郭晶晶霍啟剛現(xiàn)身香港藝術(shù)節(jié)盡顯恩愛

財經(jīng)要聞

沈明高提共富建議 百姓持科技股國家兜底

汽車要聞

嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

態(tài)度原創(chuàng)

本地
手機
房產(chǎn)
藝術(shù)
公開課

本地新聞

津南好·四時總相宜

手機要聞

揮別23年硬件史!魅族官宣暫停國內(nèi)手機自研,轉(zhuǎn)型AI軟件生態(tài)

房產(chǎn)要聞

重磅!海南“十五五”規(guī)劃出爐!未來五年,方向定了!

藝術(shù)要聞

紫氣東來,好運一整年!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版