国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

加拿大UBC教授驚人發(fā)現(xiàn):給AI太多技能反而會變笨,20-30個是極限

0
分享至

當我們把 Agent 掛在嘴邊的時候,有沒有想過這個概念其實早在1995年的教科書里就被定義過了?當我們急于讓 AI 掌握更多技能時,有沒有意識到人類大腦在面對過多選項時會瞬間崩潰——而 AI 可能也逃不過類似的命運?

這期節(jié)目,Indigo 與來自 UBC Trusted and Efficient AI(TEA)Lab 的李霄霄教授在溫哥華面對面深聊。霄霄教授的研究背景橫跨耶魯、普林斯頓、UBC 和 Vector Institute,他從神經(jīng)科學(xué)轉(zhuǎn)向 AI 系統(tǒng)研究的經(jīng)歷,恰好讓他擁有了一個獨特的雙重視角:用人類認知的局限去理解 AI 的瓶頸,再用解決人類局限的方法去提升 AI 的能力。這場對話涵蓋了 Agent 的定義與演進、單智能體與多智能體的效率之爭、AI 安全與失敗容忍、認知萎縮的隱憂,以及教育在 AI 時代的根本轉(zhuǎn)型——信息密度極高,值得細讀。

從耶魯?shù)?UBC一位 AI 研究者的12年" Type="ordered" SerialNumber="01"-->

  • 加拿大在這一輪 AI 革命中的學(xué)術(shù)貢獻被嚴重低估,從 Hinton 到 Sutton,從深度學(xué)習(xí)到強化學(xué)習(xí),研究的火種很多都點燃在加拿大的大學(xué)里。

霄霄教授的學(xué)術(shù)軌跡頗具代表性。他在耶魯大學(xué)的博士研究聚焦于神經(jīng)科學(xué)、神經(jīng)影像與人工智能的交叉領(lǐng)域,2020年畢業(yè)后前往普林斯頓大學(xué)做博士后,研究方向轉(zhuǎn)向機器學(xué)習(xí)系統(tǒng)、分布式運算以及 AI 的安全與隱私問題。2021年,他加入 UBC(英屬哥倫比亞大學(xué)),領(lǐng)導(dǎo) Trusted and Efficient AI Lab——簡稱 TEA Lab。去年他評上了副教授,同時也在 Geoffrey Hinton 創(chuàng)辦的 Vector Institute 擔(dān)任研究員,學(xué)術(shù)休假期間還在谷歌做訪問研究員。算下來,他做 AI 研究已經(jīng)整整12年了。

TEA Lab的名字就透露了它的核心使命:不管底層 AI 技術(shù)如何迭代,提高 AI 的可靠性和效率永遠是一個值得深耕的課題。在Pre-GPT 時代,團隊關(guān)注的是卷積神經(jīng)網(wǎng)絡(luò)在圖像分類、語言翻譯等任務(wù)中的效率和安全性問題;到了大模型時代,這些問題非但沒有消失,反而變得更加緊迫和復(fù)雜。

Indigo 特別提到了一個經(jīng)常被忽視的事實:這一輪 AI 爆發(fā)的學(xué)術(shù)根基在很大程度上來自加拿大。多倫多大學(xué)的 Hinton 教授是深度學(xué)習(xí)之父,阿爾伯塔大學(xué)有寫出 The Bitter Lesson 的 Richard S. Sutton,他也在與 Google 的 Gemini 團隊緊密合作,蒙特利爾的 McGill 大學(xué)也貢獻了大量 AI 人才。正如 Indigo 所說——加拿大負責(zé)做研究,美國負責(zé)創(chuàng)業(yè)賺錢。霄霄教授笑著回應(yīng),UBC 這邊的 AI 研究者確實比較年輕,但假以時日,希望也能涌現(xiàn)出幾位大佬。

  • Agent 并不是一個新概念,它的學(xué)術(shù)定義早在30年前就已經(jīng)明確;真正區(qū)分 Chatbot、Workflow 和 Agent 的核心,在于自主規(guī)劃(Planning)能力。

2025年,Agent 成了科技圈最火的詞。從 Manus 到各種開源產(chǎn)品,似乎一夜之間所有的 AI 應(yīng)用都貼上了 Agent 的標簽。但霄霄教授提醒我們,從學(xué)術(shù)角度來看,Agent 早就不是什么新概念了。



他引用了 Peter Norvig 和 Stuart Russell 在1995年出版的經(jīng)典教科書《Artificial Intelligence: A Modern Approach》中的定義:Agent 是一個可以感知環(huán)境、根據(jù)環(huán)境自主決策、以最大化目標的系統(tǒng)。這個定義與后來Richard Sutton在 Alberta Plan 中提到的「感知環(huán)境、自我進化」一脈相承。在大模型出現(xiàn)之前,這就是學(xué)術(shù)界公認的 Agent 定義。

不過,目前市場上對 Agent 的理解要寬泛得多。一些簡單的對話鏈路或者工作流(Workflow),也被貼上了 Agent 的標簽。霄霄教授引用了 Anthropic 對 Workflow 和 Agent 的一個非常清晰的區(qū)分:Workflow 是大模型和工具在既定路線下進行交互的系統(tǒng);而 Agent 則具備自主 Planning 和進化的能力,不僅能使用工具,甚至能創(chuàng)造工具

這個區(qū)分至關(guān)重要。Indigo 從個人使用體驗出發(fā),直言在 Planning 能力方面,Anthropic 的 Claude 是他用過的最好的。Claude 不只是能理解你在說什么,還能抓住你的想法,做出合適的計劃,高效地執(zhí)行,遇到問題還會自我反省、退回來修改計劃。用 Indigo 的話說,它已經(jīng)有了「一點點元認知能力」——知道自己在干什么。霄霄教授也觀察到了同樣的現(xiàn)象,他分析這可能是因為 Anthropic 從一開始就在做 Agent 的基礎(chǔ)建設(shè)。當然,其他模型也有各自的長處:Gemini 速度極快,OpenAI 的 Codex 寫代碼能力提升顯著,國內(nèi)的千問、Kimi、MiniMax 等也都在快速追趕。

但核心問題始終不變:真正讓 Agent 成為 Agent 的,是自主規(guī)劃能力——能夠根據(jù)用戶的目標,自主地拆解任務(wù)、分配資源、執(zhí)行并自我糾正。

  • 人類認知有明確的局限——工作記憶容量有限、注意力有限、技能容量有限;而 AI 雖然在很多方面比人類強大,卻也展現(xiàn)出類似的瓶頸。通過研究人類認知局限的解決方案,可以反過來提升 AI 的能力

這是整場對話中最令人意外的一段。霄霄教授從認知心理學(xué)出發(fā),提出了一個深刻的類比框架:人類認知的局限,或許可以幫助我們理解 AI 為什么也會「犯傻」

他提到了一個經(jīng)典的認知科學(xué)理論——人類的認知能力是有限的。對于自然界中的復(fù)雜系統(tǒng)來說,人類大腦所具備的理性能力,遠遠不足以解決那些需要窮舉所有可能性的問題。最直觀的例子就是下國際象棋:理論上存在一個最優(yōu)解,但人類大概只能往前看3到5步,而無法計算每一步的最終勝率。

更有趣的是 Hick's Law 實驗。研究者給受試者一個燈陣列,讓他們在燈亮的時候按對應(yīng)的按鈕。當燈的數(shù)量越來越多時,人的反應(yīng)時間急劇增長,準確率也大幅下降。這揭示了人類大腦一個核心的物理限制:工作記憶(Working Memory)的容量是有限的,當任務(wù)超過這個容量時,整個認知系統(tǒng)就會瞬間崩潰。



那 AI 呢?Indigo 的直覺反應(yīng)是:AI 不會有這個問題啊,加算力就好了,開1000個實例同時干活。霄霄教授對此給出了一個 Yes and No 的回答。他的研究發(fā)現(xiàn),當你給一個 AI Agent 配備越來越多的 Skill 時,它的表現(xiàn)并不會無限提升——大概在20到30個 Skill 的時候,它能達到最佳性能;再往上加,性能就會飽和,甚至下降。

這個發(fā)現(xiàn)意味著,AI 雖然在很多維度上超越了人類的認知限制(比如 Transformer 的多頭注意力機制可以同時關(guān)注所有信息),但它也有自己的物理瓶頸——上下文窗口就是它的「工作記憶」,當 Context 變得非常長的時候,AI 也會 Lost in the Middle

Indigo 在這里做了一個精彩的類比:人類大腦的注意力是有限的,一次只能關(guān)注幾件事;Transformer 雖然用多頭注意力同時關(guān)注所有事情,但上下文就是它的物理限制——就像內(nèi)存永遠有物理上限一樣

  • 雖然我們習(xí)慣用人類認知來類比 AI,但硅基智能和碳基智能在底層原理上完全不同——AI 可以被設(shè)計、可以快速復(fù)制、可以通過暴力堆疊算力突破單體限制。

霄霄教授在這里做了一個重要的糾偏。雖然用人類認知來理解 AI 是一種有用的研究方法,但他強調(diào)不能把這種類比推到極端——硅基智能和碳基智能的底層原理就是不同的。

人類大腦使用神經(jīng)電信號傳遞信息,經(jīng)過數(shù)百萬年的自然選擇進化而來;AI 的核心是 Transformer 架構(gòu)下的生成網(wǎng)絡(luò),用數(shù)學(xué)運算模擬智能。人類大腦在能量效率上遠超 AI——看兩個例子就能理解一個概念,而 AI 需要海量數(shù)據(jù)訓(xùn)練。人類的泛化學(xué)習(xí)能力也更強,這種「潛移默化」的學(xué)習(xí)方式是 AI 目前還在追趕的。

但硅基智能有一些碳基智能完全不具備的優(yōu)勢。第一,它可以被設(shè)計——人類可以主動給 AI 附加外界能力,把它打造成一個極其強大的系統(tǒng),而人類目前無法被這樣設(shè)計。第二,它可以快速復(fù)制——只要有足夠的算力和能源,你可以瞬間生產(chǎn)出成千上萬個完全相同的智能體。第三,它可以自我進化——Self-Evolving 算法讓 AI 有了自主迭代的能力。



Indigo 做了一個生動的總結(jié):在地球上,一個新的智慧物種已經(jīng)誕生了,它進化的速度遠超碳基生物。雖然單體能量效率不如人腦,但硅基智能可以無限「插電」,通過暴力堆疊算力和快速復(fù)制,產(chǎn)生完全不同形式的智能。這個事實雖然聽起來有點讓人不安,但確實是我們必須面對的新現(xiàn)實。

  • 在串行任務(wù)中,單個 Agent 加上適當?shù)?Skill 往往比多 Agent 協(xié)作更高效,因為溝通成本和錯誤累積是多 Agent 系統(tǒng)的主要瓶頸;但復(fù)雜任務(wù)中的角色分離和并行處理仍然需要多 Agent 架構(gòu)。

這是霄霄教授近期最引人注目的一項研究「When Single-Agent with Skills Replace Multi-Agent Systems and When They Fail[1]」。他的團隊發(fā)現(xiàn),在特定類型的任務(wù)中——尤其是那些可以串行處理的任務(wù)——給一個 Agent 賦予多種技能,往往比讓多個 Agent 協(xié)作更快、更好。



為什么?原因其實和人類組織面臨的問題如出一轍。當你和其他人合作完成一件事時,溝通本身就會產(chǎn)生信息損失。如果一個人在自己的能力范圍內(nèi)就能完成這件事,省去溝通環(huán)節(jié)反而效率更高。霄霄教授用做菜來打比方:如果一個人既會切菜又會炒菜,那他一個人做一道菜可能比兩個人流水線配合更快,因為單人操作時上下文是連續(xù)的,他可以靈活優(yōu)化自己的工作流。

多 Agent 協(xié)作還有兩個額外的代價。第一是 Token 成本——Agent 之間的每一次溝通都需要消耗算力和 Token。第二是錯誤累積——在串聯(lián)的架構(gòu)中,只要有一個 Agent 出錯,這個錯誤就會傳導(dǎo)到所有下游的 Agent 上面去。

但這并不意味著多 Agent 架構(gòu)沒有價值。霄霄教授嚴謹?shù)刂赋觯难芯烤劢沟氖翘囟愋偷拇腥蝿?wù),并不覆蓋所有場景。在兩種情況下,多 Agent 協(xié)作仍然是必要的。



第一種是任務(wù)本身需要角色分離。比如 Anthropic 最近發(fā)布的 Agent Team 演示中,16個 Agent 分工合作完成了一個 C 編譯器,并用它重新編譯了 Linux 內(nèi)核。在這種復(fù)雜的軟件工程任務(wù)中,寫代碼的人和審核代碼的人必須是分開的——就像一個人不能既當裁判又當選手。因為單個 Agent 的記憶空間無法隔離,它無法在同一個上下文中既是生產(chǎn)者又是審核者。

第二種是任務(wù)可以被有效地并行分片。Indigo 分享了自己使用 Claude Code 的經(jīng)驗:當他給 AI 下達一個編碼轉(zhuǎn)碼任務(wù)時,AI 會自己判斷是否要啟動 Sub Agent,把任務(wù)分成五片讓五個 Agent 同時處理。更聰明的是,AI 會動態(tài)決定什么時候分包、什么時候自己做——就像一個出色的人類調(diào)度指揮。

  • 當前的多 Agent 架構(gòu)過度模仿了人類的組織層級,但 AI 可能會發(fā)展出完全不同的協(xié)作模式——像鳥群或蟻群那樣,無需 Leader 也能高效運作。

這段討論特別有啟發(fā)性。Indigo 首先拋出了一個觀察:人類組織是一個極度冗余和低效的系統(tǒng),因為人要休息、有情緒、有自尊心(EGO),這些都會在組織協(xié)作中產(chǎn)生巨大的摩擦。所以人類社會發(fā)展出了高層、中層、執(zhí)行層這樣的分層管理結(jié)構(gòu)。

但對 AI 來說,這套邏輯可能完全不適用。霄霄教授提出了一個更具前瞻性的視角:他對當前 AI Agent 過度模仿人類組織架構(gòu)持保留態(tài)度。AI 的思考路徑可能和人類完全不同,它的組織方式也未必需要照搬人類的層級分工。

他提出了一個特別有畫面感的替代模型:Swarm Learning——就像鳥群飛行一樣。鳥群沒有 Leader,單只鳥的智能也非常有限,但一群鳥在一起飛的時候,卻能形成極其高效的組織形態(tài)。螞蟻也是如此:單個螞蟻很傻,也沒有指揮官,但蟻群通過簡單的職能分工(搬食物、喂養(yǎng)蟻后、守衛(wèi))和某種涌現(xiàn)的默契,就能表現(xiàn)出驚人的集體智能。



也許未來的多 Agent 系統(tǒng)不需要一個中央調(diào)度員,而是通過某種去中心化的協(xié)作機制,各個 Agent 自發(fā)地形成高效的組織。更有意思的是,霄霄教授認為這種 AI 原生的組織方式反過來可能啟發(fā)人類——我們或許可以從 AI 的組織架構(gòu)中學(xué)到如何讓人類團隊更高效

  • 不同場景對 AI 錯誤的容忍度天差地別,醫(yī)療和法律需要極高的準確性,而 AI 的輸出設(shè)計——尤其是 Confidence Score 和高亮提示機制——可以成為安全保障的關(guān)鍵手段。

Indigo 和霄霄教授深入討論了一個現(xiàn)實問題:我們應(yīng)該在多大程度上信任 AI 的輸出?

霄霄教授提到了醫(yī)療領(lǐng)域的一個設(shè)計思路,非常值得其他行業(yè)借鑒。在將 AI 應(yīng)用于醫(yī)療輔助診斷時,系統(tǒng)會自動高亮那些 AI 有可能答錯的關(guān)鍵詞,把它們鏈接到相關(guān)的醫(yī)學(xué)文獻和 Clinical Guideline,強制要求醫(yī)生在核實之后才能進入下一步分析。這不是簡單地告訴用戶「AI 可能會出錯」,而是在產(chǎn)品設(shè)計層面嵌入了一套驗證機制。

核心概念是 Confidence Score(置信度評分)。AI 本質(zhì)上是概率模型,它的每一個輸出都有一個對應(yīng)的置信度。如果某個詞或判斷的置信度只有0.2(滿分1.0),那它就應(yīng)該被高亮出來,提醒用戶需要人工審查。這種「AI 輸出設(shè)計」的思路,不只適用于醫(yī)療,在科研、法律等任何需要高準確性的專業(yè)領(lǐng)域都有重要價值。

  • 過度依賴 AI 會導(dǎo)致人類認知能力的退化,就像長期穿戴外骨骼會讓肌肉萎縮一樣。教育的根本使命需要從「教技能」轉(zhuǎn)向「教意義和目標感」。

Anthropic 最近發(fā)布了一份研究報告,顯示長期使用 Claude Code 的開發(fā)者,編程能力都出現(xiàn)了不同程度的退化。霄霄教授對此深以為然,認為這是一個非常嚴重的問題——過度依賴 AI 會讓大腦產(chǎn)生惰性。

Indigo 用了一個特別精彩的比喻:外骨骼。想象你想鍛煉肌肉去舉重,但現(xiàn)在有了高科技外骨骼,穿上它舉重輕輕松松。問題是,你完成了舉重動作,卻沒有鍛煉到一塊肌肉。長此以往,你的肌肉一定會萎縮。他還拿自己舉例:用了 Tesla 的 FSD 自動駕駛之后,他發(fā)現(xiàn)自己開車技術(shù)明顯退步了,所以每周七天中有一天堅持自己開車——就是為了保持基本的駕駛能力。

這個外骨骼隱喻延伸到了教育問題上。Indigo 提出了一個尖銳的追問:當 AI 可以幫你完成幾乎所有技能型工作時,你坐在電腦前面,面對 AI,卻不知道該問什么——這是因為你沒有目標



教育的歷史揭示了問題的根源。從200多年前的工業(yè)化時代開始,教育的核心一直是「教技能」——訓(xùn)練士兵聽口令、走正步,訓(xùn)練工人操作機器,訓(xùn)練白領(lǐng)使用軟件。目標很明確:學(xué)會一項技能,然后去工作。但當 AI 可以即拿即用地提供這些 Skill 時,傳統(tǒng)的技能教育就失去了意義。

霄霄教授和 Indigo 一致認為,未來教育需要一個根本性的轉(zhuǎn)向:從「教技能」轉(zhuǎn)向「教意義」。過去的教育從來沒有教你怎么去尋找意義、制定自己的目標。當越來越多的「牛馬工作」被 AI 取代,當能給你下目標的老板也不再需要你的時候,你必須能夠自己形成目標。

大學(xué)教育仍然有意義,但它的價值不再是傳授知識(AI 早就能做到了),而是鍛煉兩種核心思維能力:Critical Thinking(對問題和答案的審視能力)和邏輯思考能力。那些我們曾經(jīng)認為「無用」的專業(yè)——哲學(xué)、理論物理、藝術(shù)——在 AI 時代可能反而變得更加重要,因為它們培養(yǎng)的恰恰是通識性的認知框架和跨領(lǐng)域的創(chuàng)造力

  • AI 目前主要在提升人類的效率,但它更深遠的意義可能在于拓展人類的邊界。只有拓展了邊界,經(jīng)濟的「餅」才能做大,而不只是內(nèi)卷。

霄霄教授在接近尾聲時提出了一個讓人眼前一亮的框架:AI 的發(fā)展有兩個方向——提升效率和拓展邊界。

提升效率是顯而易見的:AI 能更快、更好地完成人類本來就會做的事情。但這條路有個問題——如果經(jīng)濟的總量(餅)沒有變大,效率高的只是把效率低的吃掉了,最終是一場零和游戲。



拓展邊界才是讓餅變大的關(guān)鍵。霄霄教授用飛機來類比:飛機不是讓馬車跑得更快,而是讓人類能夠飛上天——這是一種全新的維度拓展。歷史上每一次讓人類在空間中移動效率質(zhì)變的發(fā)明(蒸汽機、鐵路、飛機),都帶來了全新的產(chǎn)業(yè)和職業(yè)。而 AI 這一輪革命,就像喬布斯當年說電腦是「大腦的自行車」一樣——AI 是真正的智力加速器,它可能讓人類的認知和創(chuàng)造力進入一個全新的維度。

Indigo 把這個邏輯延伸得更遠:如果 AI 解放了大量的重復(fù)性勞動,人們有更多時間投入到創(chuàng)作和探索中,我們可能會迎來一個新的文藝復(fù)興時代。當然,這中間有一段很現(xiàn)實的過渡期——人必須先滿足溫飽,才能追尋意義。

  • 軟件工程中的90-90法則同樣適用于 AI 發(fā)展——90% 的功能花了90% 的時間完成,但剩下10% 的功能也需要90% 的時間,當前對 AI 進展的樂觀情緒可能過于超前。

在對話的最后,霄霄教授貢獻了一個非常清醒的收尾。他引用了軟件工程中著名的90-90法則(Ninety-Ninety Rule):90%的代碼花了90%的時間完成,但剩下10%的代碼也需要花90%的時間。這意味著,我們可能只完成了 AI 發(fā)展中比較「容易」的部分,剩下那最后的10%甚至0.1%,難度可能遠超想象。

他用自動駕駛的發(fā)展歷程來佐證這個觀點——幾年前大家都覺得全自動駕駛馬上就要實現(xiàn)了,但從 L2到 L5的跨越遠比預(yù)想中困難。AI 的其他領(lǐng)域很可能也遵循同樣的規(guī)律。

這個清醒的提醒為整場充滿興奮和想象力的對話畫上了一個恰到好處的句號。未來又好又不好——這種模糊的狀態(tài),恰恰就是客觀的現(xiàn)實。



當 Indigo 興奮地描述 AI 的調(diào)度能力時,霄霄教授會用 Swarm Learning 來提醒我們:不必假設(shè) AI 的組織方式一定要模仿人類。當霄霄教授用認知心理學(xué)的框架分析 AI 的局限時,Indigo 又會指出硅基智能可以通過暴力堆疊算力來突破很多人類面臨的物理限制。

更深層次的思考在于:如果 AI 真的可以拓展人類的邊界而不僅僅是提升效率,那這場革命的意義就遠遠超過了我們目前關(guān)注的那些「誰會失業(yè)」「哪個模型更好」的短期問題。教育需要教的不再是技能,而是目標感和意義感——這個觀點聽起來理想主義,但在 AI 正以指數(shù)速度進化的當下,它可能是最務(wù)實的建議。

相關(guān)推薦
熱點推薦
東風(fēng) - 31 泄密大案:總工程師被美色策反,國之重器險遭滅頂之災(zāi)

東風(fēng) - 31 泄密大案:總工程師被美色策反,國之重器險遭滅頂之災(zāi)

干史人
2026-04-18 13:44:12
一頓自取其辱的“電餅鐺葡萄”,讓低學(xué)歷寶媽無處可逃,自作聰明

一頓自取其辱的“電餅鐺葡萄”,讓低學(xué)歷寶媽無處可逃,自作聰明

卷史
2026-04-17 02:46:12
鯰魚須之后,“水母頭”又在小學(xué)生中流行,顏值低的剪了很尷尬

鯰魚須之后,“水母頭”又在小學(xué)生中流行,顏值低的剪了很尷尬

蝴蝶花雨話教育
2026-04-19 00:50:03
瑞典:國王拒絕與澤連斯基握手的說法,是“錯誤且丑陋的”。俄媒在這個問題上斷章取義!

瑞典:國王拒絕與澤連斯基握手的說法,是“錯誤且丑陋的”。俄媒在這個問題上斷章取義!

李未熟擒話2
2026-04-19 17:08:59
機關(guān)事業(yè)單位“緊日子”來臨,2026年起,這些費用一律不再報銷

機關(guān)事業(yè)單位“緊日子”來臨,2026年起,這些費用一律不再報銷

復(fù)轉(zhuǎn)這些年
2026-04-19 19:13:36
張雪回應(yīng):820RR爆缸是發(fā)動機問題,換新車還是退錢,車主選!

張雪回應(yīng):820RR爆缸是發(fā)動機問題,換新車還是退錢,車主選!

哄動一時啊
2026-04-18 19:39:31
24歲女研究生坐6小時贏得“發(fā)呆比賽”冠軍 高興落淚:堅持一件事真的不容易

24歲女研究生坐6小時贏得“發(fā)呆比賽”冠軍 高興落淚:堅持一件事真的不容易

紅星新聞
2026-04-19 18:57:41
虛報77億、9.6億投資憑空造,河南:堅決整改 追責(zé)問責(zé)

虛報77億、9.6億投資憑空造,河南:堅決整改 追責(zé)問責(zé)

新京報
2026-04-19 17:01:05
NBA最佳防守球員:文班亞馬、霍姆格倫和奧薩爾-湯普森入圍

NBA最佳防守球員:文班亞馬、霍姆格倫和奧薩爾-湯普森入圍

懂球帝
2026-04-20 06:35:08
故事:女子用3根牲畜器官泡酒,3個月后拿給丈夫喝,結(jié)果悲劇了

故事:女子用3根牲畜器官泡酒,3個月后拿給丈夫喝,結(jié)果悲劇了

古怪奇談錄
2025-06-04 11:16:25
CBA罰單:山西主帥潘江辱罵裁判 停賽3場罰6萬 缺席首場季后賽

CBA罰單:山西主帥潘江辱罵裁判 停賽3場罰6萬 缺席首場季后賽

醉臥浮生
2026-04-19 17:22:23
65歲宋丹丹逛街被路人偶遇,走路帶風(fēng)腰桿筆直,退休后生活愜意

65歲宋丹丹逛街被路人偶遇,走路帶風(fēng)腰桿筆直,退休后生活愜意

可樂談情感
2026-04-19 18:35:33
陪玩陪睡已過時!繼關(guān)曉彤事件、注射不明物后,娛樂圈再曝潛規(guī)則

陪玩陪睡已過時!繼關(guān)曉彤事件、注射不明物后,娛樂圈再曝潛規(guī)則

叨嘮
2026-04-17 21:04:39
面多加水,水多加面?外媒痛批:電車3噸重,填鴨式造車不可取!

面多加水,水多加面?外媒痛批:電車3噸重,填鴨式造車不可??!

少數(shù)派報告Report
2026-04-17 07:03:05
大專、野模、知三當三,孫怡浪姐"騷操作"不斷難怪王京花看不上她

大專、野模、知三當三,孫怡浪姐"騷操作"不斷難怪王京花看不上她

橙星文娛
2026-04-18 16:01:07
A股罕見!603402,持有500股成公司第8大股東!持股市值不足7萬

A股罕見!603402,持有500股成公司第8大股東!持股市值不足7萬

證券時報e公司
2026-04-19 19:07:16
借麻辣燙阿姨手機后續(xù):阿姨沒出攤,熟人曝光家長人品,全網(wǎng)社死

借麻辣燙阿姨手機后續(xù):阿姨沒出攤,熟人曝光家長人品,全網(wǎng)社死

社會日日鮮
2026-04-19 09:22:13
休媒紛紛朝火箭開炮:火管該感到羞愧 烏度卡敗筆屢出 KD才是領(lǐng)袖

休媒紛紛朝火箭開炮:火管該感到羞愧 烏度卡敗筆屢出 KD才是領(lǐng)袖

顏小白的籃球夢
2026-04-20 06:54:05
讓人揪心的事終究來了?央行定調(diào),5月后房產(chǎn)、存款或?qū)⒂瓉碚{(diào)整

讓人揪心的事終究來了?央行定調(diào),5月后房產(chǎn)、存款或?qū)⒂瓉碚{(diào)整

復(fù)轉(zhuǎn)這些年
2026-04-19 23:17:41
砍20+10,打爆崔永熙+杜潤旺,球迷:為什么國家隊不給他一個機會

砍20+10,打爆崔永熙+杜潤旺,球迷:為什么國家隊不給他一個機會

弄月公子
2026-04-19 09:48:49
2026-04-20 07:11:00
知識圈 incentive-icons
知識圈
全球熱點新聞資訊
220文章數(shù) 317224關(guān)注度
往期回顧 全部

科技要聞

50分26秒破人類紀錄!300臺機器人狂飆半馬

頭條要聞

半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

頭條要聞

半年下沉22厘米 女子家中坐擁價值上億別墅卻沒法住人

體育要聞

湖人1比0火箭:老詹比烏度卡像教練

娛樂要聞

何潤東漲粉百萬!內(nèi)娛隔空掀桌第一人

財經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

29分鐘大定破萬 極氪8X為什么這么多人買?

態(tài)度原創(chuàng)

家居
藝術(shù)
本地
游戲
軍事航空

家居要聞

法式線條 時光靜淌

藝術(shù)要聞

蒲華寫水仙,清健嫵媚

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

"二次元GTA"直播爆了:疑似貼臉嘲諷其他二游!

軍事要聞

伊朗逼退美掃雷艇:美方求給15分鐘撤退

無障礙瀏覽 進入關(guān)懷版