国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

官宣!姚順雨出任騰訊首席 AI 科學(xué)家,27 歲清華學(xué)霸掌舵騰訊 AI 下半場

0
分享至

  「追到第一名」的劇本,騰訊可能又要演一遍,這次押注的是 AI。

  就在今天下午發(fā)布的內(nèi)部公告中,騰訊表示,知名 AI 研究員姚順雨 (Vinces Yao) 正式出任「CEO / 總裁辦公室」首席 AI 科學(xué)家,向騰訊總裁劉熾平匯報;同時兼任 AI Infra 部、大語言模型部負責人,向技術(shù)工程事業(yè)群總裁盧山匯報。

  這次任命,釋放的信號很清晰:騰訊的 AI 正在全面提速,且是帶著「要打硬仗」的架勢。

  不久前,金沙江創(chuàng)投主管合伙人朱嘯虎在談及國內(nèi) AI 競爭格局時直言騰訊還沒真正發(fā)力。他還評價稱,騰訊往往等局面打明白后再加速追趕——從第五、第六,追到第三、第二,最后追到第一。

  

  今天,騰訊便用實際行動回應(yīng)了外界的質(zhì)疑。

  騰訊升級大模型研發(fā)架構(gòu),新成立 AI Infra 部、AI Data 部、數(shù)據(jù)計算平臺部。其中,AI Infra 部將負責大模型訓(xùn)練和推理平臺技術(shù)能力建設(shè),聚焦分布式訓(xùn)練、高性能推理等核心技術(shù),為算法研發(fā)和業(yè)務(wù)落地提供支撐。

  王迪繼續(xù)擔任大語言模型部副總經(jīng)理,向姚順雨匯報。劉煜宏擔任 AI Data 部負責人、陳鵬擔任數(shù)據(jù)計算平臺部負責人,均向公司副總裁蔣杰匯報。

  更關(guān)鍵的是,騰訊混元的「成績單」已足夠搶眼。

  

  過去一年,混元大模型發(fā)布超過 30 個新模型。12 月 5 日發(fā)布的混元 2.0,在復(fù)雜推理與文本生成場景表現(xiàn)國內(nèi)領(lǐng)先?;煸?3D 模型更是保持著全球領(lǐng)先水準,開源社區(qū)下載量超過 300 萬。

  組織調(diào)整與密集引才,說到底就是在為高強度的技術(shù)攻關(guān)補齊兵力、夯實底座。而姚順雨的加盟,無疑是騰訊 AI 戰(zhàn)略中極為重要的一步棋,也讓人不由得期待,他的到來或許會為騰訊 AI 帶來一股全新的氣象。

  細數(shù)姚順雨的履歷,只能用開掛來形容——合肥一中出身、NOI 銀牌得主、高考 704 分勇奪安徽理科探花,擔任過清華姚班聯(lián)席會主席,甚至還聯(lián)合創(chuàng)辦了清華說唱社,妥妥的全能型人才。

  

  普林斯頓計算機博士畢業(yè)后,他更是直奔 OpenAI,期間,他曾深度參與 Computer-Using Agent (CUA)、Deep Research 等重要產(chǎn)品。

  今年 5 月份,憑借過硬的履歷,他成功入選《MIT 科技評論》「35 歲以下科技創(chuàng)新 35 人」中國區(qū)榜單,成為該屆最年輕入選者。

  

  圖片來自清華校友總會

  學(xué)術(shù)成果也相當能打,他推動了 LLM 從「對話系統(tǒng)」向「任務(wù)執(zhí)行系統(tǒng)」的范式轉(zhuǎn)變。隨便拎幾篇代表作出來:

  ReAct (ICLR 2023):將推理與行動結(jié)合的經(jīng)典框架,引用超 4300 次。

  Tree of Thoughts (NeurIPS 2023):大語言模型的「思維樹」問題求解方法,引用超 4000 次。

  Reflexion (NeurIPS 2023):引入語言反饋的自我改進智能體,引用超 2600 次。

  SWE-bench (ICLR 2024):評估語言模型解決真實 GitHub 問題的能力。

  WebShop (NeurIPS 2022):可擴展的基于語言代理的網(wǎng)頁交互任務(wù)。

  SWE-agent (NeurIPS 2024):面向自動化軟件工程的智能體-計算機接口。

  Google Scholar 顯示,他的總引用次數(shù)超過 1.5 萬次,h-index 為 24,i10-index 為 29——這個數(shù)據(jù)在 27 歲這個年齡段,表現(xiàn)相當不俗。

  

  巧合的是,今年 5 月姚順雨在一次與張小珺、李廣密的對談中,恰好聊到了微信和 AI 的話題。

  當時李廣密拋出觀點:微信卡位確實好,但如果未來 Multi-Agents、Long-Term Memory 這些技術(shù)成熟了,Agent 系統(tǒng)卻沒長在微信上,那就「比較恐怖」了。

  姚順雨的回應(yīng)頗為哲學(xué):「這取決于人類的網(wǎng)絡(luò)會變成什么樣?你會有更多 Agent 朋友,還是更多人類朋友?」他進一步解釋,微信既承載社交關(guān)系,也承載職業(yè)交互——比如購物咨詢、法律服務(wù)等。無論人類網(wǎng)絡(luò)如何演變,總需要基礎(chǔ)設(shè)施和平臺支撐。

  面對張小珺的靈魂拷問:如果你是微信一號位,會怎么做 Agent?

  姚順雨表示:「我可能會不急,先觀望觀望?!乖谒磥怼N⑿乓呀?jīng)易守難攻,為什么要急著進攻?真正的威脅不是類似產(chǎn)品的競爭,而是顛覆性創(chuàng)新。就像當年微信打敗 QQ 那樣,危險的是「很不一樣的東西」。

  除了這次精彩的對談,今年 4 月份姚順雨發(fā)表的技術(shù)博文《AI 的下半場》同樣在業(yè)界引起了廣泛討論。讓我們一起來重溫一下這篇頗具預(yù)見性的文章——

https://ysymyth.github.io/The-Second-Half/

  AI 下半場

  總結(jié):AI 正處在中場休息。

  幾十年來,AI 的主要精力都放在開發(fā)新的訓(xùn)練方法和模型上。事實證明,這條路走得通:從在國際象棋和圍棋上擊敗世界冠軍,到在 SAT 和律師資格考試中超過大多數(shù)人類考生,再到拿下 IMO 和 IOI 金牌。寫進歷史的這些里程碑——DeepBlue、AlphaGo、GPT-4 和 o-series——背后都是 AI 方法上的根本創(chuàng)新:搜索、深度強化學(xué)習(xí)、規(guī)?;?xùn)練以及推理。隨著時間推移,效果一次次被刷新。

  那現(xiàn)在突然有什么不同呢?

  三個詞:強化學(xué)習(xí)真的能用了。更準確地說,強化學(xué)習(xí)終于能夠泛化了。經(jīng)歷了多次迂回探索和里程碑的積累,我們終于找到了一套能解決各種強化學(xué)習(xí)任務(wù)的有效方法——依托語言與推理。要是你一年前對大多數(shù) AI 研究者說:有一個通用方案能同時搞定軟件開發(fā)、創(chuàng)意寫作、IMO 級別的數(shù)學(xué)題、鍵鼠操作,甚至長篇問答——他們大概會笑你在「幻覺」。因為這些任務(wù)都極其困難,很多研究者整個博士階段可能只專注在其中一個方向。

  然而,這已經(jīng)成真。

  那么接下來會怎樣?AI 的下半場——從現(xiàn)在開始——將把重心從「解決問題」轉(zhuǎn)向「定義問題」。在這個新階段,評估的重要性會超過訓(xùn)練。我們不再只是問「能不能訓(xùn)練出一個模型解決 X 問題?」,而是要問「我們究竟應(yīng)該讓 AI 去做什么?又該如何衡量真正的進展?」。要想在下半場脫穎而出,我們需要及時轉(zhuǎn)變思維方式和技能組合,更接近于產(chǎn)品經(jīng)理的思路。

  上半場

  要理解 AI 的上半場,可以看看它的「贏家」們。到目前為止,你認為最有影響力的 AI 論文有哪些?

  我做了下 Stanford 224N 的小測,結(jié)果并不意外:Transformer、AlexNet、GPT-3 等等。這些論文的共同點是什么?它們都提出了訓(xùn)練更好模型的重大突破。同時,它們也靠在某些基準測試上取得(顯著的)提升,才得以順利發(fā)表。

  但還有個潛在的共性:這些「贏家」幾乎全都是訓(xùn)練方法或模型,而不是基準或任務(wù)。就算是公認最有影響力的基準之一——ImageNet,它的引用量也不到 AlexNet 的三分之一。而在其他地方,方法和基準的對比更懸殊。比如,Transformer 的主要基準是 WMT'14 翻譯任務(wù),該研討會的報告大約有 1300 次引用,而 Transformer 論文本身超過 16 萬次。

  

  這說明了上半場的游戲規(guī)則:重點在于創(chuàng)造新的模型和方法,而評估和基準雖然必要,卻始終是次要的。

  為什么?很大一個原因是,在 AI 的上半場,方法比任務(wù)更難,也更令人興奮。從零開始發(fā)明一種新算法或網(wǎng)絡(luò)結(jié)構(gòu)——比如反向傳播算法、卷積神經(jīng)網(wǎng)絡(luò)(AlexNet),或者后來 GPT-3 所用的 Transformer——需要非凡的洞察力和工程能力。相比之下,給 AI 定義任務(wù)就顯得直接得多:我們只需要把人類已經(jīng)在做的事情(翻譯、圖像識別、下棋)變成基準測試就行,幾乎不需要太多新洞見或工程創(chuàng)新。

  方法的價值還在于它們往往比單個任務(wù)更通用、應(yīng)用更廣。以 Transformer 為例,它不僅推動了自然語言處理(NLP),還在計算機視覺(CV)、強化學(xué)習(xí)(RL)等領(lǐng)域全面開花,遠遠超越了它最初驗證成果的那個小小的翻譯數(shù)據(jù)集(WMT』14)。一個偉大的新方法可以「爬」上許多不同的基準,因為它足夠簡潔和通用,所以影響往往超越單一任務(wù)。

  這種玩法延續(xù)了數(shù)十年,催生了改變世界的思想和突破,并通過不斷刷新的基準成績體現(xiàn)出來。那為什么這個游戲會改變呢?因為這些思想和突破的累積,已經(jīng)帶來了質(zhì)的飛躍——我們終于找到了可行的通用方案來解決任務(wù)。

  配方

  那么,「配方」到底是什么?配料其實并不意外:大規(guī)模的語言預(yù)訓(xùn)練、數(shù)據(jù)和算力的擴展,以及「推理與行動」的理念。這些聽起來像是你每天在舊金山都會聽到的流行詞,但為什么要稱它為配方呢?

  我們可以從強化學(xué)習(xí)(RL)的視角去理解。RL 常被認為是 AI 的「終局」——理論上它能保證贏得游戲,而在實踐中,你也幾乎無法想象沒有 RL 的超級智能系統(tǒng)(比如 AlphaGo)。

  在 RL 中,有三個關(guān)鍵組成部分:算法、環(huán)境和先驗知識。長期以來,RL 研究者主要聚焦在算法本身(比如 REINFORCE、DQN、TD-learning、actor-critic、PPO、TRPO……),這是智能體如何學(xué)習(xí)的「智力核心」,而環(huán)境和先驗往往被視作固定不變或最低限度的設(shè)置。比如,Sutton 和 Barto 的經(jīng)典教材幾乎完全講算法,幾乎沒涉及環(huán)境或先驗。

  

  然而,在深度 RL 時代,研究者們逐漸發(fā)現(xiàn):環(huán)境的重要性極高。一個算法的表現(xiàn)往往與它所處的環(huán)境高度綁定。如果你忽略環(huán)境,就可能造出一個只在玩具問題里「最優(yōu)」的算法。那為什么不先想清楚:我們到底想要解決什么樣的環(huán)境,然后再去尋找最合適的算法?

  這正是 OpenAI 最初的計劃。它先推出了 Gym,把各種游戲變成標準化的 RL 環(huán)境;接著又嘗試了 World of Bits 和 Universe 項目,試圖把互聯(lián)網(wǎng)或計算機本身變成一個游戲。這聽起來很合理:一旦把所有數(shù)字世界轉(zhuǎn)化為環(huán)境,再用聰明的 RL 算法去解決,就能得到數(shù)字版的 AGI。

  這是個好計劃,但沒能完全走通。OpenAI 確實取得了巨大進展,用 RL 解決了 Dota、機械手等難題。但它始終沒能真正攻克電腦操作或網(wǎng)頁導(dǎo)航的問題,而且在一個領(lǐng)域中訓(xùn)練出來的 RL 智能體,幾乎無法遷移到另一個領(lǐng)域。顯然,缺了點什么。

  直到 GPT-2、GPT-3 出現(xiàn),人們才意識到:缺少的關(guān)鍵其實是先驗。你需要強大的語言預(yù)訓(xùn)練,把常識和語言知識蒸餾進模型里,然后再進行微調(diào),讓它們成為能上網(wǎng)(WebGPT)或能聊天(ChatGPT)的智能體(并由此改變世界)。事實證明,RL 中最重要的部分可能既不是算法,也不是環(huán)境,而是先驗知識——而且這種先驗完全可以通過與 RL 毫不相關(guān)的方法獲得。

  語言預(yù)訓(xùn)練為對話提供了很好的先驗,但在控制電腦或玩電子游戲時效果卻不那么理想。為什么?因為這些任務(wù)與互聯(lián)網(wǎng)文本的分布差距更大,直接在這些領(lǐng)域做 SFT(監(jiān)督微調(diào))或 RL(強化學(xué)習(xí))時,泛化能力很差。

  我在 2019 年就注意到了這個問題。當時 GPT-2 剛發(fā)布,我嘗試在它的基礎(chǔ)上做 SFT 和 RL 來解決文字冒險游戲——CALM 是世界上第一個基于預(yù)訓(xùn)練語言模型構(gòu)建的智能體。但它需要上百萬步的 RL 訓(xùn)練才能「爬」過一款游戲,而且無法遷移到新游戲。

  雖然這正是 RL 的典型特征,RL 研究者對此并不意外,但我卻覺得奇怪:因為人類可以很輕松地嘗試一款新游戲,并且在零樣本情況下表現(xiàn)顯著更好。就在那時,我迎來了人生中的第一個「頓悟時刻」——人類之所以能泛化,是因為我們不僅能選擇「去 2 號柜子」「用 1 號鑰匙開 3 號寶箱」「用劍殺地牢怪」,還可以選擇去思考:

  「地牢很危險,我需要一件武器來應(yīng)對。但目前沒有現(xiàn)成的武器,也許需要去鎖著的箱子里找。3 號寶箱在 2 號柜子里,那我應(yīng)該先去柜子 2,把它打開?!?/p>

  

  思考,或者說推理,是一種奇怪的行動。它不會直接改變外部世界,但推理的空間是開放的、組合上無限的——你可以思考一個詞、一句話、一整段話,甚至一萬個隨機單詞,而周圍的世界并不會立刻發(fā)生變化。在傳統(tǒng) RL 理論中,這是個「糟糕的選擇」,會讓決策幾乎不可能。想象一下:你需要從兩個盒子里挑一個,一個有 100 萬美元,另一個是空的。你期望值是 50 萬?,F(xiàn)在如果我加上無限多個空盒子,你的期望值就變成了 0。

  但如果我們把推理加入 RL 環(huán)境的動作空間,就能利用語言預(yù)訓(xùn)練提供的先驗來實現(xiàn)泛化,同時還能根據(jù)不同決策靈活分配推理時的計算量。這真的是一件很神奇的事。我在這里沒法完全解釋清楚,可能需要專門寫一篇博文。你可以去讀一下 ReAct,它講述了智能體推理的最初故事,也能感受到我當時的心路。直觀地說:即便你加了無數(shù)個空盒子,但你在生活和游戲中早已見過類似情況,所以選擇這些空盒子的經(jīng)歷反而能幫助你在真正有錢的游戲里更好地做出選擇。抽象地說:語言是通過推理在智能體中實現(xiàn)泛化的。

  一旦我們擁有了合適的 RL 先驗(語言預(yù)訓(xùn)練)和合適的 RL 環(huán)境(把語言推理作為動作),結(jié)果發(fā)現(xiàn) RL 算法本身反而成了最不重要的部分。于是才有了 o-series、R1、deep research、會用電腦的智能體,以及未來更多的成果。多么諷刺的轉(zhuǎn)折!長期以來,RL 研究者最關(guān)心的都是算法,而幾乎沒人注意先驗——幾乎所有 RL 實驗都是從零開始。但我們花了幾十年的迂回才意識到,也許優(yōu)先級應(yīng)該完全反過來。

  下半場

  這個「配方」正在徹底改變游戲規(guī)則。回顧一下上半場的玩法:

  我們開發(fā)新的訓(xùn)練方法或模型,用來在基準測試上爬坡。

  然后我們再設(shè)計更難的基準,繼續(xù)循環(huán)。

  但這種玩法正在失效,原因有二:

  這個配方基本上已經(jīng)把「刷基準」的過程標準化、產(chǎn)業(yè)化了,不需要多少新的點子。隨著配方的規(guī)模化和泛化,你為某個特定任務(wù)設(shè)計的新方法,可能只能提升 5%;而下一代 o-series 模型即便沒有專門針對這個任務(wù),也能直接提升 30%。

  即便我們設(shè)計出更難的基準,也會很快(而且越來越快)被這個配方解決。我的同事 Jason Wei 畫過一個很漂亮的圖,把這種趨勢表現(xiàn)得很清晰:

  

  那么下半場還能玩什么?如果新的方法已不再需要,而更難的基準也會越來越快被解決,那我們接下來該做什么?

  我認為我們需要從根本上重新思考「評估」。這不僅僅是去設(shè)計新的、更難的基準,而是要徹底質(zhì)疑現(xiàn)有的評估方式,并創(chuàng)造新的評估體系,從而逼迫我們?nèi)グl(fā)明超越現(xiàn)有「配方」的新方法。這很難,因為人類有慣性,幾乎不會去懷疑最基本的假設(shè)——你習(xí)以為常地接受它們,卻沒意識到它們只是「假設(shè)」,而不是「規(guī)律」。

  舉個關(guān)于慣性的例子:假設(shè)你在 2021 年設(shè)計了一種基于人類考試的評估方式,這是一個極其大膽的想法。但三年后,這個方法就已經(jīng)飽和了。你會怎么做?最可能的做法就是——設(shè)計一份更難的考試。或者,假設(shè)你解決了簡單的編程任務(wù),那你會怎么做?很可能就是去找更難的編程任務(wù)來解,直到達到 IOI 金牌水平。

  這種慣性很自然,但問題在于:AI 已經(jīng)在國際象棋和圍棋上擊敗了世界冠軍,在 SAT 和律師資格考試中超過了大多數(shù)人類,甚至在 IOI 和 IMO 上拿下了金牌??墒澜绮]有發(fā)生太大改變——至少從經(jīng)濟和 GDP 的角度來看如此。

  我稱之為效用問題,并認為這是 AI 最重要的問題。

  也許我們很快就能解決效用問題,也許不會。但無論如何,這個問題的根源可能出奇地簡單:我們的評估方式在很多基本層面上與現(xiàn)實世界的設(shè)定并不一致。舉兩個例子:

  - 在評估中,任務(wù)「應(yīng)該」自動運行:通常智能體接收任務(wù)輸入,自主執(zhí)行,然后得到一個獎勵。但現(xiàn)實中,智能體必須在任務(wù)過程中持續(xù)與人類互動——你不會只給客服發(fā)一段超長的文字,等上 10 分鐘,就指望對方給你一份完整的回復(fù)解決所有問題。通過質(zhì)疑這種評估設(shè)定,人們發(fā)明了新的基準:要么把真實人類納入環(huán)節(jié)(如 Chatbot Arena),要么引入用戶模擬(如 tau-bench)。

  

  - 評估「應(yīng)該」是 i.i.d.(獨立同分布) 的。如果你有一個包含 500 個任務(wù)的測試集,就會獨立運行每個任務(wù),最后取平均得到一個總體指標??稍诂F(xiàn)實中,我們解決問題往往是順序進行的,而不是并行。比如,一個 Google 的軟件工程師(SWE)在處理 google3 的問題時,隨著她對代碼庫越來越熟悉,效率會越來越高;但一個 SWE 智能體在同一個代碼庫中解決了很多問題,卻無法獲得這種熟悉度。我們顯然需要長期記憶的方法(事實上已經(jīng)有一些了),但學(xué)術(shù)界既沒有合適的基準來證明其必要性,也缺乏質(zhì)疑 i.i.d. 假設(shè)的勇氣——而 i.i.d. 一直以來是機器學(xué)習(xí)的基礎(chǔ)。

  這些假設(shè)「一直以來」就是如此。在 AI 的上半場,基于這些假設(shè)去設(shè)計基準是沒問題的,因為智能水平還低,提升智能基本就等于提升效用。但現(xiàn)在,這套通用配方在這些假設(shè)下幾乎必定能奏效。所以,在下半場的新玩法是:

  我們開發(fā)新的評估方式或任務(wù),以衡量真實世界的效用。

  我們用現(xiàn)有配方去解決它們,或在配方上加入新的組件,然后繼續(xù)循環(huán)。

  這個游戲很難,因為它是陌生的。但它同樣令人興奮。上半場的玩家解決的是電子游戲和考試,下半場的玩家則有機會靠構(gòu)建真正有用的智能產(chǎn)品,打造市值數(shù)十億甚至數(shù)萬億美元的公司。上半場充斥著方法和模型的漸進改進,而下半場會對它們進行一定的「篩選」。這套通用配方會輕易擊敗那些漸進式的方法,除非你能設(shè)計出新的假設(shè),打破現(xiàn)有配方。那時,你才會做出真正改變游戲的研究。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
沒解約?張水華穿著361度衣服直播 疑聯(lián)手騙網(wǎng)友4個月 代言費曝光

沒解約?張水華穿著361度衣服直播 疑聯(lián)手騙網(wǎng)友4個月 代言費曝光

風(fēng)過鄉(xiāng)
2026-01-07 09:23:25
中國乘客被趕下飛機!委內(nèi)瑞拉機組回應(yīng)拒載操作:去看新聞吧!

中國乘客被趕下飛機!委內(nèi)瑞拉機組回應(yīng)拒載操作:去看新聞吧!

阿鳧愛吐槽
2026-01-07 02:10:10
烏克蘭軍隊波城反攻與伊朗局勢發(fā)展

烏克蘭軍隊波城反攻與伊朗局勢發(fā)展

名人茍或
2026-01-07 15:44:58
帕爾馬0-2國際米蘭,賽后評分:不是勞塔羅第一,國米32號排第一

帕爾馬0-2國際米蘭,賽后評分:不是勞塔羅第一,國米32號排第一

側(cè)身凌空斬
2026-01-08 05:46:39
比田樸珺更瀟灑!王石邀請眾人到家打牌聚餐,3位美女暗送秋波

比田樸珺更瀟灑!王石邀請眾人到家打牌聚餐,3位美女暗送秋波

攬星河的筆記
2026-01-07 19:21:08
36萬億美債壓頂,中國拒不接盤!特朗普決定“弄死”大債主!

36萬億美債壓頂,中國拒不接盤!特朗普決定“弄死”大債主!

毒sir財經(jīng)
2025-10-12 20:07:17
中國民眾呼聲高漲:既然美國能活捉馬杜羅,大陸為何不抓賴清德?

中國民眾呼聲高漲:既然美國能活捉馬杜羅,大陸為何不抓賴清德?

博覽歷史
2026-01-04 18:50:59
中信驚現(xiàn)14.5億壓盤!存儲主力赤裸嘲諷韭菜,章盟主也被吐槽了...

中信驚現(xiàn)14.5億壓盤!存儲主力赤裸嘲諷韭菜,章盟主也被吐槽了...

金石隨筆
2026-01-08 00:11:33
湖南某設(shè)計院一團糟!

湖南某設(shè)計院一團糟!

黯泉
2026-01-07 23:44:27
45歲董潔街頭打電話被拍!蘋果肌下垂褶子多,皺眉撇嘴一臉兇相

45歲董潔街頭打電話被拍!蘋果肌下垂褶子多,皺眉撇嘴一臉兇相

仙味少女心
2026-01-06 23:50:40
男子酒后因孩子成績與妻子激烈爭吵,血管從胸口撕裂到大腿近40cm,全家嚇懵

男子酒后因孩子成績與妻子激烈爭吵,血管從胸口撕裂到大腿近40cm,全家嚇懵

觀威海
2026-01-06 09:22:04
刺激!蘋果突然官宣:1月8日,新品正式發(fā)售!

刺激!蘋果突然官宣:1月8日,新品正式發(fā)售!

科技堡壘
2026-01-06 11:41:33
劍南春|曼聯(lián)客場2-2伯恩利遭三連平,謝什科雙響,海文烏龍

劍南春|曼聯(lián)客場2-2伯恩利遭三連平,謝什科雙響,海文烏龍

懂球帝
2026-01-08 06:50:48
5.05億!富安娜總部大廈項目開工!

5.05億!富安娜總部大廈項目開工!

GA環(huán)球建筑
2026-01-07 22:10:52
怪不得賈冰要減肥,這是減了個肥嗎?這簡直是換了個人?。?>
    </a>
        <h3>
      <a href=怪不得賈冰要減肥,這是減了個肥嗎?這簡直是換了個人啊! 小椰的奶奶
2026-01-07 13:03:52
央行開展11000億元買斷式逆回購操作 ,分析師:一季度降息降準落地值得期待

央行開展11000億元買斷式逆回購操作 ,分析師:一季度降息降準落地值得期待

每日經(jīng)濟新聞
2026-01-07 19:48:37
各地都在取消期末統(tǒng)考,我在想:當教育變成“開盲盒”,我們該如何突圍?

各地都在取消期末統(tǒng)考,我在想:當教育變成“開盲盒”,我們該如何突圍?

萌芽研究所BUD
2026-01-07 22:48:46
男子自帶3瓶茅臺被服務(wù)員換成假酒 摸酒瓶辨溫度識破調(diào)包伎倆

男子自帶3瓶茅臺被服務(wù)員換成假酒 摸酒瓶辨溫度識破調(diào)包伎倆

封面新聞
2026-01-07 11:29:03
別墅搜出23件國寶,全家集體失聯(lián)!徐湖平案落幕,17年舉報有結(jié)果

別墅搜出23件國寶,全家集體失聯(lián)!徐湖平案落幕,17年舉報有結(jié)果

詩意世界
2026-01-03 15:19:25
事件升級!司曉迪曬開房記錄,16個男頂流被錘!內(nèi)娛怎么了?

事件升級!司曉迪曬開房記錄,16個男頂流被錘!內(nèi)娛怎么了?

洲洲影視娛評
2026-01-06 17:07:47
2026-01-08 07:35:00
AppSo incentive-icons
AppSo
讓智能手機更好用的秘密
5995文章數(shù) 26739關(guān)注度
往期回顧 全部

科技要聞

精華!黃仁勛CES記者會:揭秘新款大殺器

頭條要聞

美軍扣押俄潛艇護航的油輪 俄羅斯外交部回應(yīng)

頭條要聞

美軍扣押俄潛艇護航的油輪 俄羅斯外交部回應(yīng)

體育要聞

賣水果、搬磚的小伙,與哈蘭德爭英超金靴

娛樂要聞

《馬背搖籃》首播,革命的樂觀主義故事

財經(jīng)要聞

農(nóng)大教授科普:無需過度擔憂蔬菜農(nóng)殘

汽車要聞

燃油駕趣+智能電感雙Buff 試駕全新奧迪Q5L

態(tài)度原創(chuàng)

教育
數(shù)碼
時尚
親子
軍事航空

教育要聞

參考!2025山東本科最低錄取分數(shù)!376上了本科!

數(shù)碼要聞

技嘉Z890主板適配英特爾新處理器,還展示256GB內(nèi)存!

李夢系穿搭,就這么養(yǎng)成了

親子要聞

雀巢召回多國嬰兒配方奶粉,涉及中國市場71個批次

軍事要聞

特朗普政府正在討論獲取格陵蘭島的方案 包括軍事選項

無障礙瀏覽 進入關(guān)懷版