国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網易首頁 > 網易號 > 正文 申請入駐

斯坦福等頂級院校聯(lián)合破解embodied AI密碼

0
分享至


這項由斯坦福大學、帝國理工學院、倫敦國王學院等多所知名院校聯(lián)合完成的研究發(fā)表于2024年12月,論文編號為arXiv:2512.11362v3。研究團隊包括來自多個國際一流機構的學者,他們共同探索了一個令人興奮的AI前沿領域——讓機器人真正像人類一樣思考和行動。

想象一下,如果機器人不再是那種只會按程序執(zhí)行固定動作的"傻瓜",而是能夠看懂周圍環(huán)境、理解人類語言、并且能夠靈活做出合適行動的"聰明伙伴",那會是什么樣子?這正是Vision-Language-Action(VLA)模型要解決的核心問題。用最簡單的話來說,VLA就是讓機器人同時具備"眼睛"(視覺)、"大腦"(語言理解)和"雙手"(行動能力)的技術。

這項研究的意義就像是為機器人制作了一份"成長手冊"。過去的機器人就像是只會做單一工作的工廠流水線工人,而VLA技術要培養(yǎng)的是能夠適應各種環(huán)境、理解復雜指令、并且能夠獨立解決問題的"全能助手"。研究團隊系統(tǒng)性地分析了這個領域目前面臨的五大核心挑戰(zhàn),并為未來的發(fā)展繪制了清晰的路線圖。

這項研究的創(chuàng)新之處在于,它不是簡單地列舉現(xiàn)有技術,而是像解剖學家一樣,深入剖析了VLA模型的"身體結構"——從基礎組件到歷史發(fā)展,再到當前最迫切需要解決的技術難題。研究團隊還特別關注了這些技術在現(xiàn)實世界中的應用前景,包括家庭服務機器人和工業(yè)自動化等領域。

一、機器人的三重奏:視覺、語言、行動的完美融合

把VLA模型比作一個學習成為萬能助手的學生,這個學生需要掌握三項基本技能:用眼睛觀察世界、用大腦理解語言、用雙手執(zhí)行任務。就像人類嬰兒從出生開始,逐漸學會看、聽、說、做一樣,VLA模型也需要經歷一個復雜的學習過程。

在視覺能力方面,現(xiàn)代VLA系統(tǒng)就像是給機器人配備了一雙"超級眼睛"。這雙眼睛不僅能看到顏色和形狀,還能理解物體的語義含義。研究發(fā)現(xiàn),最有效的視覺系統(tǒng)通常采用多層結構:底層負責識別基本的視覺特征(就像人眼中的視網膜),中層將這些特征組合成有意義的物體(類似大腦的視覺皮層),頂層則將視覺信息與語言概念連接起來(相當于人類的認知理解)。

特別值得注意的是,研究團隊發(fā)現(xiàn)了一個有趣的現(xiàn)象:那些在互聯(lián)網圖片上訓練過的視覺模型(比如CLIP和SigLIP)在機器人任務中表現(xiàn)得特別出色。這就好比一個從小看過大量圖書和電影的孩子,在面對新環(huán)境時更容易理解和適應。同時,研究還發(fā)現(xiàn),結合幾何理解能力的視覺系統(tǒng)(如DINOv2)能夠幫助機器人更精確地操作物體,就像給機器人裝上了"工匠的眼睛",能夠精確判斷距離、角度和形狀。

在語言理解方面,VLA系統(tǒng)的發(fā)展經歷了一個從簡單到復雜的演化過程。早期的系統(tǒng)只能理解簡單的文本指令,就像只會背誦單詞的學生?,F(xiàn)在的高級系統(tǒng)則像是一個博學的圖書管理員,不僅能理解復雜的自然語言,還能運用常識推理來填補指令中的空白。研究團隊特別強調了大型語言模型(LLM)在這方面的突破性作用,它們就像是給機器人裝上了一個"知識淵博的大腦"。

行動執(zhí)行是VLA系統(tǒng)最終要落實的環(huán)節(jié),這就像是將想法轉化為實際行動的過程。研究發(fā)現(xiàn),現(xiàn)代VLA系統(tǒng)在動作生成方面正在經歷一次重要轉變:從離散的動作指令轉向連續(xù)的動作流。這種轉變就像是從機械的"一步一步"執(zhí)行轉向流暢的"行云流水"般操作。特別是擴散模型(Diffusion)和流匹配(Flow Matching)技術的應用,讓機器人的動作變得更加自然平滑,就像是從僵硬的機械舞轉向優(yōu)美的芭蕾舞。

二、從萌芽到綻放:VLA技術的發(fā)展歷程

VLA技術的發(fā)展歷程就像是一部精彩的科技演進史,從最初的簡單嘗試到今天的復雜系統(tǒng),每一步都蘊含著研究者的智慧和堅持。

2017年到2019年期間,VLA領域還處在"蹣跚學步"的階段。當時的研究主要集中在視覺-語言導航任務上,就像是教機器人在迷宮中按照語言指示找到出口。EmbodiedQA項目首次提出了"embodied intelligence"的概念,這就像是為機器人制定了一個"人格發(fā)展計劃",要求它們不僅要理解世界,還要能夠在世界中主動行動。雖然這些早期嘗試相對簡單,但它們?yōu)楹罄m(xù)的發(fā)展奠定了重要的理論基礎。

2020年到2021年標志著VLA技術向"長期規(guī)劃"能力的重要轉變。ALFRED基準測試的推出就像是給機器人設置了一個"家務考試",要求它們完成復雜的多步驟家庭任務。CLIPort項目則實現(xiàn)了一個重要突破:它證明了預訓練的視覺表示可以顯著提升機器人的泛化能力,這就像是發(fā)現(xiàn)了"知識遷移"的秘密,讓機器人能夠將在一個場景中學到的技能應用到全新的環(huán)境中。

2022年是VLA技術的"突破之年"。SayCan項目首次實現(xiàn)了分層框架,將高級語言規(guī)劃與低級技能執(zhí)行分離,就像是建立了一個"司令部+執(zhí)行部隊"的組織架構。更重要的是,RT-1和RT-2的推出真正實現(xiàn)了端到端的學習,這意味著機器人可以直接從視覺和語言輸入學習到動作輸出,就像是培養(yǎng)出了第一批"全才學生"。

2023年迎來了多個重要進展。PaLM-E首次將視覺和狀態(tài)信息直接嵌入到大型語言模型中,創(chuàng)造了真正統(tǒng)一的多模態(tài)輸入空間。Diffusion Policy的引入則革命性地改變了動作建模方式,讓機器人的行為變得更加穩(wěn)定和富有表現(xiàn)力。Open X-Embodiment數(shù)據(jù)集的發(fā)布更是為整個領域提供了寶貴的大規(guī)模跨機器人數(shù)據(jù)資源。

2024年標志著VLA技術進入了"全面開花"的階段。Octo建立了第一個真正的泛化策略,能夠跨平臺、多任務控制。OpenVLA成為第一個完全開源的70億參數(shù)VLA模型,大大降低了大規(guī)模研究和部署的門檻。π0項目首次將預訓練的視覺-語言模型與流匹配動作生成結合,為精確和通用控制設定了新的架構參考點。GR-2系統(tǒng)化了網絡規(guī)模的生成視頻預訓練方法,實現(xiàn)了在不需要相應機器人標簽的情況下的廣泛泛化。

2025年,VLA研究進入了"多元化演進"的新階段。不同的體現(xiàn)形式、模態(tài)和學習范式開始協(xié)同發(fā)展,共同朝著通用機器人智能的目標邁進。Humanoid-VLA和GR00T N1將VLA擴展到全身人形機器人控制,PointVLA在不重新訓練核心模型的情況下注入點云特征,Cosmos-Reason1首次為VLA標準化了基于物理的推理。這些進展表明,VLA技術正在向著更加智能、更加通用的方向快速發(fā)展。

三、當前面臨的五大技術挑戰(zhàn)與解決方案

VLA技術雖然發(fā)展迅速,但仍然面臨著一系列重大挑戰(zhàn),就像是一個正在攀登技術高峰的探險隊,每解決一個難題,就離頂峰更近一步。

多模態(tài)對齊和物理世界建模是VLA系統(tǒng)面臨的第一個核心挑戰(zhàn)。這就像是要讓機器人同時掌握"看"、"聽"、"說"、"做"四種技能,并且讓它們完美配合。目前最大的困難在于,視覺提供的是高維度的感知輸入,語言提供的是抽象的符號語義,而行動需要的是精確的物理執(zhí)行。研究團隊發(fā)現(xiàn),成功的解決方案通常采用"橋梁式"架構,就像在不同的語言之間建立翻譯橋梁一樣。

在視覺-語言對齊方面,研究者們開發(fā)了多種創(chuàng)新方法。OTTER項目引入了文本感知的特征提取技術,就像給機器人配備了一副"語義眼鏡",讓它能夠根據(jù)任務描述來調整視覺注意力。LIV項目則采用了對比學習框架,在機器人控制數(shù)據(jù)上構建聯(lián)合視覺-語言嵌入空間,這就像是教機器人建立"視覺詞典",將看到的每個物體都與相應的語言概念關聯(lián)起來。

從二維圖像到空間-時間表示的轉換是另一個重要挑戰(zhàn)。大多數(shù)預訓練的視覺-語言模型都是基于二維互聯(lián)網圖像訓練的,但機器人操作需要精確的三維空間理解。研究團隊發(fā)現(xiàn)了幾種有效的解決策略:一種是通過深度圖增強RGB輸入,另一種是直接處理點云數(shù)據(jù)以保留完整的三維幾何信息。PointVLA項目就是一個成功的例子,它將點云輸入集成到預訓練的VLA模型中,顯著提升了空間推理能力。

動態(tài)預測世界模型代表了VLA系統(tǒng)理解物理世界的最高層次。一個真正的embodied世界表示不能僅僅停留在靜態(tài)幾何或語義層面,它必須能夠捕捉動態(tài)和因果關系。研究團隊將這個挑戰(zhàn)比作"建造一個內在的物理引擎",讓機器人能夠在腦海中模擬"如果我這樣做,會發(fā)生什么"的情景。TriVLA和CoT-VLA等項目在這方面取得了重要進展,它們能夠生成關鍵的子目標圖像,幫助機器人規(guī)劃執(zhí)行路徑。

指令跟隨、規(guī)劃和魯棒實時執(zhí)行構成了第二大挑戰(zhàn)。這個挑戰(zhàn)就像是要培養(yǎng)一個既能理解復雜指令,又能制定詳細計劃,還能靈活執(zhí)行的"超級助手"?,F(xiàn)實世界的指令往往是模糊的、多模態(tài)的,并且充滿了歧義性。

在處理復雜指令方面,OE-VLA項目開發(fā)了一種處理開放式、混合模態(tài)提示的方法,它采用共享的視覺編碼器處理所有圖像,用文本分詞器處理所有文本,將它們轉換為嚴格交錯的token流來保持原始指令順序。這就像是培養(yǎng)了一個"全能翻譯",能夠同時處理文字、圖片和語音指令。

分層規(guī)劃是解決長期任務的關鍵策略。π0.5項目在單個推理鏈中嵌入了分層推理,模型首先從視覺和指令中提出明確的語言級子任務,然后基于這些子任務條件化連續(xù)控制。這種方法就像是培養(yǎng)了一個"項目經理型"機器人,能夠將復雜任務分解為可管理的步驟。

錯誤檢測和自主恢復能力對于長期VLA部署至關重要。CorrectNav項目通過迭代收集模型自身的錯誤軌跡、自動識別偏差并生成糾正動作來實現(xiàn)自我恢復。這就像是給機器人裝上了"自省機制",讓它能夠從錯誤中學習并改進。

從泛化到持續(xù)適應是第三大挑戰(zhàn)。這個挑戰(zhàn)的核心在于,如何讓機器人不僅在訓練環(huán)境中表現(xiàn)出色,還能夠在全新的、未見過的環(huán)境中保持良好性能,并且能夠不斷學習新技能而不忘記舊技能。

開放世界泛化需要機器人具備強大的知識遷移能力。研究團隊發(fā)現(xiàn),多任務/多機器人預訓練是實現(xiàn)這一目標的有效途徑。Octo項目在約80萬個機器人軌跡上預訓練Transformer,學習了通用的操作規(guī)律,然后使用輕量級適配器進行高效微調,能夠在有限的數(shù)據(jù)和計算資源下快速適應新的傳感器和動作空間。

持續(xù)學習和增量技能獲取是另一個重要方面。InstructVLA項目采用兩階段訓練范式和專家混合架構,智能地在推理和動作模塊之間路由,避免直接修改其骨干網絡。這就像是設計了一個"模塊化大腦",可以在不干擾已有知識的情況下添加新技能。

仿真到現(xiàn)實的差距仍然是部署VLA策略的核心障礙。研究團隊開發(fā)了多種策略來解決這個問題:一種是提升仿真環(huán)境的視覺保真度,另一種是讓策略對仿真與現(xiàn)實之間的差異更加魯棒。ManiSkill3利用GPU并行渲染、領域隨機化和背景合成來縮小外觀差距,實現(xiàn)零樣本遷移。

安全性、可解釋性和可靠交互構成了第四大挑戰(zhàn)。這個挑戰(zhàn)關乎VLA系統(tǒng)能否在現(xiàn)實世界中安全可靠地運行,特別是在與人類共享的環(huán)境中。

在安全保障方面,研究團隊開發(fā)了兩種主要方法:基于約束的安全范式和基于學習的對齊范式。AutoRT通過結構化提示引入機器人憲法,編碼多級行為約束。SafeVLA則將物理危險行為明確建模為約束馬爾可夫決策過程中的成本函數(shù),在最大化任務獎勵的同時確保累積成本保持在預定義的安全閾值以下。

在可解釋性方面,研究重點轉向兩個方面:增強過程可解釋性和行為可預測性。CoT-VLA通過添加視覺子目標圖像來渲染中間計劃,使其可觀察。RT-H將語言-動作生成與執(zhí)行分離,實現(xiàn)自我解釋和語言級干預。這些方法就像是給機器人裝上了"思考過程顯示器",讓人類能夠理解機器人的決策邏輯。

數(shù)據(jù)構建和基準測試標準是第五大挑戰(zhàn)。高質量、大規(guī)模、多樣化的數(shù)據(jù)是VLA模型能力的基石,而標準化的評估基準則是推動技術進步的重要工具。

在多源異構數(shù)據(jù)處理方面,研究團隊在三個相互關聯(lián)的層面上進行了系統(tǒng)性探索。表示層面的統(tǒng)一通過學習統(tǒng)一的離散表示,將來自不同機器人的連續(xù)、高維運動映射為語義一致的動作token。LAPA、Moto和UniVLA等項目通過無監(jiān)督或自監(jiān)督視頻學習,學習了這種以任務為中心的潛在動作表示。

數(shù)據(jù)層面的增強和優(yōu)化直接操作原始數(shù)據(jù)。CACTI和GenAug通過修復或重新設計大幅增加視覺多樣性,成本低且提升了對異構現(xiàn)實世界數(shù)據(jù)中外觀變化的魯棒性。Re-Mix則將數(shù)據(jù)融合視為優(yōu)化問題,根據(jù)性能反饋調整異構數(shù)據(jù)子集的采樣權重。

在基準測試標準化方面,社區(qū)正在積極開發(fā)新一代的基準測試和評估方法。Benchmarking VLAs強調統(tǒng)一的輸入輸出、指標和多機器人覆蓋,將重點從任務轉向指標。CALVIN被設計為需要執(zhí)行語言引導操作的長期序列,而LIBERO是第一個專門針對機器人終身學習的基準測試。

四、技術突破對未來的深遠影響

VLA技術的發(fā)展不僅僅是一個學術研究領域的進步,它預示著人類與機器交互方式的根本性變革。這種變革的影響將像漣漪一樣,從技術實驗室擴散到我們生活的每一個角落。

在家庭服務領域,VLA技術正在催生真正智能的家庭助手。這些助手不再是簡單的掃地機器人或語音音箱,而是能夠理解復雜家庭環(huán)境、執(zhí)行多樣化任務的綜合性伙伴。它們能夠根據(jù)"幫我準備晚餐"這樣的模糊指令,自主規(guī)劃從食材選擇到烹飪準備的整個流程。更重要的是,這些系統(tǒng)具備學習能力,能夠逐漸了解家庭成員的偏好和習慣,提供越來越個性化的服務。

工業(yè)自動化領域正在經歷一場由VLA技術推動的革命。傳統(tǒng)的工業(yè)機器人需要為每個特定任務進行復雜編程,而配備VLA系統(tǒng)的新一代機器人可以通過自然語言指令快速適應新任務。這就像是將熟練的人工操作員的經驗和判斷力注入到機器人中,讓它們能夠處理以前需要人工干預的復雜和變化情況。

在醫(yī)療健康領域,VLA技術開啟了精準醫(yī)療機器人的新時代。手術機器人能夠理解醫(yī)生的語言指令,結合實時視覺反饋,執(zhí)行復雜的醫(yī)療操作??祻蜋C器人可以根據(jù)患者的個人情況調整訓練方案,并通過自然語言交流提供鼓勵和指導。這種人機協(xié)作模式不僅提高了醫(yī)療服務的精確性,還增強了患者的治療體驗。

教育領域也將因VLA技術而發(fā)生深刻變化。智能教學機器人不僅能夠傳遞知識,還能夠理解學生的學習狀態(tài),調整教學策略,甚至進行情感支持。它們可以像人類教師一樣進行啟發(fā)式教學,通過觀察學生的表情和行為來判斷理解程度,并相應地調整解釋方式。

然而,這些進步也帶來了新的挑戰(zhàn)和思考。隱私保護成為一個重要議題,因為VLA系統(tǒng)需要持續(xù)觀察和學習用戶的行為模式。如何在提供個性化服務的同時保護用戶隱私,成為技術發(fā)展過程中必須解決的關鍵問題。

就業(yè)市場的變化也是一個不可回避的話題。雖然VLA技術會替代一些重復性工作,但它同時也會創(chuàng)造新的就業(yè)機會,特別是在人機協(xié)作、系統(tǒng)維護和創(chuàng)意設計等領域。關鍵在于如何幫助勞動者適應這種變化,通過教育和培訓獲得與智能系統(tǒng)協(xié)作的能力。

倫理考量變得越來越重要。當機器人具備了理解、學習和自主決策的能力時,我們需要建立相應的倫理框架來規(guī)范它們的行為。這包括確保機器人的決策過程透明可解釋,建立問責機制,以及制定安全標準等。

五、邁向未來的智能伙伴時代

展望未來,VLA技術的發(fā)展方向正在變得越來越清晰。研究團隊認為,下一階段的重點將是實現(xiàn)真正的"形態(tài)無關表示",讓同一個智能系統(tǒng)能夠控制從四足機器人到人形機器人的各種不同身體形態(tài),就像一個靈魂可以駕馭不同的身體一樣。

自主開放式進化是另一個重要發(fā)展方向。未來的VLA系統(tǒng)將不再依賴靜態(tài)的訓練數(shù)據(jù)集,而是能夠在部署過程中持續(xù)學習和自我改進。這就像是培養(yǎng)了一個永遠保持好奇心和學習能力的智能體,它會主動探索新環(huán)境、發(fā)現(xiàn)新知識,并將這些經驗整合到自己的能力體系中。

內在不確定性感知能力將成為安全可靠的VLA系統(tǒng)的核心特征。在開放世界中,絕對的安全無法通過預定義的約束來保證,未來的VLA模型需要具備主動評估認知不確定性的能力。當系統(tǒng)發(fā)現(xiàn)自己處于不熟悉的情況時,它會自主暫停行動,尋求人類澄清或重新規(guī)劃,這種"知道自己不知道"的智慧是真正可信賴的智能系統(tǒng)的標志。

交互式安全機制將取代被動的安全規(guī)則。未來的VLA系統(tǒng)不僅要遵守安全規(guī)范,還要能夠可視化自己的思考過程,比如未來軌跡預測、注意力熱圖或子目標分解,讓人類能夠在物理行動執(zhí)行前就理解和干預機器人的推理鏈。這種透明度將建立人機之間的真正信任關系。

在數(shù)據(jù)和評估方面,研究趨勢正在向"仿真優(yōu)先、失敗中心"的范式轉變。僅僅依靠現(xiàn)實世界數(shù)據(jù)是不可擴展的,未來的數(shù)據(jù)生成將主要依靠高保真度的模擬環(huán)境作為無限數(shù)據(jù)工廠。更重要的是,研究者們開始重視失敗軌跡的價值,將錯誤視為負面挖掘和對比學習的金礦,讓智能體不僅學會正確的做法,還能理解和避免錯誤的行為。

評估標準也在經歷深刻變革。未來的基準測試將超越簡單的成功率指標,采用高保真度仿真代理來評估全面能力,不僅量化任務完成情況,還要評估安全邊際、效率和對干擾的韌性,優(yōu)先考慮魯棒適應性而非記憶軌跡的執(zhí)行。

這項研究最終告訴我們,我們正站在一個重要的技術轉折點上。VLA技術的發(fā)展不僅僅是機器人學的進步,更是人工智能向真正智能體系統(tǒng)演進的關鍵一步。在不久的將來,我們可能會看到這樣的場景:家中的機器人助手早上根據(jù)天氣和日程安排建議穿著,工廠里的機器人能夠與人類工程師自然對話并協(xié)作解決復雜問題,醫(yī)院里的機器人護士能夠提供既專業(yè)又貼心的照料。

這個未來既令人興奮又充滿挑戰(zhàn)。技術的進步為我們提供了前所未有的可能性,但也要求我們以負責任的態(tài)度來引導和應用這些技術。正如研究團隊在論文中強調的,VLA技術的真正價值不僅在于它能做什么,更在于它如何改善人類的生活質量,以及如何幫助我們建設一個更加智能、安全和包容的社會。

說到底,VLA技術代表的是人類智慧的延伸和放大,而不是替代。它讓我們能夠將更多精力投入到創(chuàng)造性和情感性的工作中,而將重復性和危險性的任務交給智能機器。這種人機協(xié)作的新模式,或許正是通向更美好未來的鑰匙。

Q&A

Q1:VLA模型到底是什么技術?

A:VLA模型是Vision-Language-Action的縮寫,就是讓機器人同時具備"眼睛"(視覺)、"大腦"(語言理解)和"雙手"(行動能力)的技術。簡單說,就是讓機器人能看懂環(huán)境、聽懂人話、做出合適行動的智能系統(tǒng)。

Q2:VLA技術什么時候能在家庭中普及使用?

A:從研究進展來看,VLA技術正在快速發(fā)展,目前已有OpenVLA等開源模型降低了技術門檻。預計在未來5-10年內,具備基礎VLA能力的家用機器人可能會逐步進入市場,但要達到完全成熟的智能助手水平還需要更長時間。

Q3:VLA機器人會不會取代人類工作?

A:VLA技術會改變一些工作形態(tài),特別是重復性和危險性任務,但同時也會創(chuàng)造新的就業(yè)機會,比如人機協(xié)作、系統(tǒng)維護等崗位。關鍵是要通過教育培訓幫助人們適應這種變化,發(fā)揮人類在創(chuàng)造性和情感交流方面的獨特優(yōu)勢。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
1956年毛主席罕見發(fā)問:東來順羊肉咋回事?陳云一查,根子不在師傅,問題出在“新規(guī)矩”

1956年毛主席罕見發(fā)問:東來順羊肉咋回事?陳云一查,根子不在師傅,問題出在“新規(guī)矩”

歷史回憶室
2025-12-23 10:19:17
志愿軍首戰(zhàn)殲滅美軍一萬五,主席卻提筆改成六千,麥克阿瑟看完戰(zhàn)報笑得合不攏嘴,結果幾十萬大軍一頭扎進死胡同,這招示弱太絕了

志愿軍首戰(zhàn)殲滅美軍一萬五,主席卻提筆改成六千,麥克阿瑟看完戰(zhàn)報笑得合不攏嘴,結果幾十萬大軍一頭扎進死胡同,這招示弱太絕了

歷史回憶室
2025-12-26 11:42:28
為啥"唐氏兒"都長著同一張臉?醫(yī)生一般不說,父母最好要知道

為啥"唐氏兒"都長著同一張臉?醫(yī)生一般不說,父母最好要知道

大果小果媽媽
2025-12-28 11:33:24
孟村殺妻案結果公布,判決前金昊母子照片曝光,兩人狀態(tài)截然不同

孟村殺妻案結果公布,判決前金昊母子照片曝光,兩人狀態(tài)截然不同

歷史偉人錄
2025-12-27 21:34:16
袁天罡農家躲雨,主人只掃屋心,他面色驟變:三代之內必出大人物

袁天罡農家躲雨,主人只掃屋心,他面色驟變:三代之內必出大人物

小豫講故事
2025-12-28 06:00:08
李瑞環(huán)說:葉選平是葉帥的兒子,但水平比我高,為什么不能當省長

李瑞環(huán)說:葉選平是葉帥的兒子,但水平比我高,為什么不能當省長

章荳解說體育
2025-12-11 21:56:41
柬埔寨國王,72歲了,沒錢沒權,沒結婚沒孩子,和老母親相依為命

柬埔寨國王,72歲了,沒錢沒權,沒結婚沒孩子,和老母親相依為命

趣文說娛
2025-12-23 17:34:34
童瑤胸貼露出來了

童瑤胸貼露出來了

手工制作阿殲
2025-12-15 12:20:21
中山一商場展車撞入手機店,車企工作人員:小孩誤觸所致,無人受傷

中山一商場展車撞入手機店,車企工作人員:小孩誤觸所致,無人受傷

極目新聞
2025-12-28 13:48:03
錢再多也沒用!向太曝馬伊琍已再婚,原來當年文章過不了心里那關

錢再多也沒用!向太曝馬伊琍已再婚,原來當年文章過不了心里那關

一娛三分地
2025-12-15 13:26:07
一個男人如果不正經,通過這2個模樣,一看便知!

一個男人如果不正經,通過這2個模樣,一看便知!

加油丁小文
2025-12-01 08:00:12
殲-15幾乎全部退役,淪為全球最短命艦載機!它究竟有哪些短板?

殲-15幾乎全部退役,淪為全球最短命艦載機!它究竟有哪些短板?

小莜讀史
2025-12-27 14:55:11
201米!40億!騰訊西南總部,世界“第一扭”摩天樓

201米!40億!騰訊西南總部,世界“第一扭”摩天樓

GA環(huán)球建筑
2025-12-25 23:00:32
原來他早已去世,15歲演戲44歲走紅,47歲患癌離世,哥哥是熟面孔

原來他早已去世,15歲演戲44歲走紅,47歲患癌離世,哥哥是熟面孔

故事講電影
2025-12-28 20:01:41
“后悔來清華參觀,自取其辱”,母親帶娃游清華,被食堂氣到失控

“后悔來清華參觀,自取其辱”,母親帶娃游清華,被食堂氣到失控

詩意世界
2025-11-30 11:04:47
馬卡:弗洛倫蒂諾使巴薩財務難題徹底解決,應拿巴薩金質勛章

馬卡:弗洛倫蒂諾使巴薩財務難題徹底解決,應拿巴薩金質勛章

懂球帝
2025-12-28 20:59:23
溥儀9歲仍在吃奶,給他當乳娘有2規(guī)矩:一是喂奶,另一個毫無人性

溥儀9歲仍在吃奶,給他當乳娘有2規(guī)矩:一是喂奶,另一個毫無人性

小豫講故事
2025-12-27 06:00:06
中國股市:炒股成功的人到底有多可怕?從窮人到富人的全過程!

中國股市:炒股成功的人到底有多可怕?從窮人到富人的全過程!

股經縱橫談
2025-12-28 18:53:25
天氣預報丨新一輪降溫即將到來 重慶高海拔地區(qū)有雪

天氣預報丨新一輪降溫即將到來 重慶高海拔地區(qū)有雪

上游新聞
2025-12-28 17:24:02
廣東vs山西,對抗強度拉滿,胡明軒奎因表現(xiàn)糟糕,杜鋒投訴迪亞洛

廣東vs山西,對抗強度拉滿,胡明軒奎因表現(xiàn)糟糕,杜鋒投訴迪亞洛

鄒維體育
2025-12-28 20:06:15
2025-12-28 21:20:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
6680文章數(shù) 544關注度
往期回顧 全部

科技要聞

特斯拉將在華布局自動駕駛?記者求證→

頭條要聞

新華社發(fā)文:積蓄統(tǒng)一大勢

頭條要聞

新華社發(fā)文:積蓄統(tǒng)一大勢

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

白敬亭現(xiàn)身冰雪大世界 拍視頻還翻車了

財經要聞

英偉達的收購史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

教育
數(shù)碼
游戲
手機
公開課

教育要聞

雅思3個月提2分,因為我們做對了這幾件事!

數(shù)碼要聞

AM4老兵不死:銳龍7 5800X登上銷量榜首!前十有4款是AM4

《生化危機6》是否為系列敗筆?來看看爆料大佬咋說!

手機要聞

HMD新機曝光:高刷LCD屏+大電池

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版