国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

人工智能推理新突破:伊利諾伊大學(xué)團隊發(fā)現(xiàn)AI思維的隱藏規(guī)律

0
分享至


這項由伊利諾伊大學(xué)香檳分校的張俊宇領(lǐng)導(dǎo),聯(lián)合麻省理工學(xué)院、賓夕法尼亞大學(xué)等多所知名院校的研究團隊,于2025年發(fā)表的重要研究揭示了大型推理模型思維過程中的基本規(guī)律。這項研究提出了"推理定律"(Laws of Reasoning, LORE)框架,首次從理論角度系統(tǒng)解釋了為什么AI模型有時會"想太多"或"想太少"的問題。研究成果已在arXiv平臺發(fā)表,編號為2512.17901,為改善AI推理能力提供了全新的理論基礎(chǔ)。

當(dāng)前的大型推理模型,比如OpenAI的o1和DeepSeek的R1,雖然在解決復(fù)雜問題方面表現(xiàn)出色,但它們的推理行為常常讓人困惑。就像一個學(xué)生在考試時,面對簡單題目卻寫了滿滿一頁草稿紙,而遇到復(fù)雜題目時卻只寫了幾行就匆忙作答。這種不合理的"思考時間分配"不僅影響了AI的效率,也限制了它們的推理能力。

研究團隊通過深入分析發(fā)現(xiàn),這個問題的根源在于當(dāng)前AI模型的訓(xùn)練方式缺乏明確的指導(dǎo)原則。就像教孩子做數(shù)學(xué)題時,如果沒有告訴他們什么時候該仔細計算、什么時候可以快速得出答案,孩子們就會隨意分配注意力和時間。AI模型也是如此,它們在訓(xùn)練過程中沒有學(xué)會如何根據(jù)問題的復(fù)雜程度來合理分配"思考資源"。

為了解決這個關(guān)鍵問題,研究團隊提出了推理定律框架,這是首個系統(tǒng)性描述AI推理行為的理論體系。這個框架包含兩個核心定律:計算定律和準(zhǔn)確性定律。計算定律的核心思想是,AI模型消耗的推理資源應(yīng)該與問題復(fù)雜度成正比,就像烹飪一道菜時,復(fù)雜的菜品需要更多的準(zhǔn)備時間和烹飪步驟。準(zhǔn)確性定律則指出,隨著問題復(fù)雜度的增加,AI模型的準(zhǔn)確率會呈指數(shù)下降,這類似于搭積木時,積木越高越容易倒塌。

一、推理定律的理論基礎(chǔ)

要理解推理定律,我們可以把AI的推理過程想象成一個經(jīng)驗豐富的廚師在準(zhǔn)備菜肴。一個好廚師會根據(jù)菜品的復(fù)雜程度來分配時間和精力:準(zhǔn)備簡單的湯可能只需要十分鐘,而制作復(fù)雜的法式大餐可能需要幾個小時。同樣,一個理想的AI推理模型也應(yīng)該根據(jù)問題的難易程度來分配"思考時間"。

研究團隊首先需要定義什么是"問題復(fù)雜度"。他們采用了計算機科學(xué)中的經(jīng)典方法,將復(fù)雜度定義為解決問題所需的最少基本操作步驟數(shù)。這就像拼裝一件家具時,說明書上標(biāo)注的步驟數(shù)量就代表了組裝的復(fù)雜度。步驟越多,需要的時間和注意力就越多。

在這個理論框架下,計算定律表述為:AI模型的推理計算量應(yīng)該與問題復(fù)雜度成線性關(guān)系。換句話說,如果問題A的復(fù)雜度是問題B的兩倍,那么AI在解決問題A時消耗的推理資源也應(yīng)該大約是解決問題B時的兩倍。這聽起來很合理,但實際上當(dāng)前的AI模型經(jīng)常違反這個基本原則。

準(zhǔn)確性定律則描述了另一個重要規(guī)律:隨著問題復(fù)雜度的增加,AI模型的準(zhǔn)確率會呈指數(shù)衰減。這個現(xiàn)象可以用多米諾骨牌來類比。當(dāng)你排列少數(shù)幾塊骨牌時,成功推倒所有骨牌的概率很高。但隨著骨牌數(shù)量的增加,任何一個環(huán)節(jié)出錯都可能導(dǎo)致整個鏈條中斷,成功的概率會急劇下降。AI推理也是如此,復(fù)雜問題需要多個推理步驟,每個步驟都有出錯的可能性,整體準(zhǔn)確率會隨著步驟數(shù)量的增加而快速降低。

然而,直接驗證這些定律面臨一個重大挑戰(zhàn):如何準(zhǔn)確測量現(xiàn)實問題的復(fù)雜度?就像評估一道菜的烹飪難度一樣,這個過程本身就很復(fù)雜且主觀。為了解決這個問題,研究團隊提出了兩個可以實際測量的替代屬性:單調(diào)性和組合性。

單調(diào)性原理相對容易理解:如果問題A比問題B更復(fù)雜,那么AI在解決問題A時應(yīng)該消耗更多的推理資源,準(zhǔn)確率也應(yīng)該更低。這就像爬山一樣,越高的山峰需要更多的體力,成功登頂?shù)母怕室哺汀?/p>

組合性原理則更加精巧:如果兩個問題是獨立的(解決一個問題不會幫助解決另一個問題),那么同時解決這兩個問題所需的推理資源應(yīng)該等于分別解決它們所需資源的總和。這類似于做兩道完全不同的菜:如果你要同時做一道湯和一道沙拉,總的準(zhǔn)備時間應(yīng)該等于分別做湯和做沙拉的時間之和。對于準(zhǔn)確率而言,同時正確解決兩個獨立問題的概率應(yīng)該等于分別正確解決每個問題的概率的乘積。

二、LORE-BENCH測試基準(zhǔn)的構(gòu)建

為了驗證當(dāng)前AI模型是否遵循這些推理定律,研究團隊開發(fā)了一個專門的測試基準(zhǔn),名為LORE-BENCH。這個基準(zhǔn)就像是為AI模型設(shè)計的"智力體檢",專門檢查它們的推理行為是否合理。

LORE-BENCH包含兩個主要部分:LORE-MONO用于測試單調(diào)性,LORE-COMPO用于測試組合性。

LORE-MONO的設(shè)計思路很巧妙。研究團隊沒有嘗試直接測量現(xiàn)有問題的復(fù)雜度,而是采用了"逐步加工"的方法來構(gòu)造具有已知復(fù)雜度關(guān)系的問題序列。他們選擇了數(shù)學(xué)、科學(xué)、語言和編程四個領(lǐng)域,為每個領(lǐng)域設(shè)計了10個種子問題。然后,通過系統(tǒng)性地增加解決問題所需的步驟數(shù)來創(chuàng)建30個難度遞增的變體。

以數(shù)學(xué)領(lǐng)域的一個例子來說明:研究團隊可能會設(shè)計一個基礎(chǔ)的矩陣計算問題,然后創(chuàng)建30個變體,分別需要進行1次、2次、3次...直到30次相同的矩陣運算。這樣,第30個變體的復(fù)雜度明確地是第1個變體的30倍。這種方法確保了問題復(fù)雜度的關(guān)系是已知的和可控的。

為了防止AI模型找到"捷徑"(比如發(fā)現(xiàn)答案的周期性模式),研究團隊仔細檢查了每個問題序列,排除了那些可能被簡單規(guī)律破解的情況。這就像設(shè)計迷宮時要確保沒有明顯的近路可走。

LORE-COMPO的構(gòu)建則基于一個簡單而有效的想法:將來自不同數(shù)學(xué)領(lǐng)域的問題組合起來,確保它們彼此獨立。研究團隊從著名的MATH500數(shù)據(jù)集中隨機選擇來自不同學(xué)科(如代數(shù)和幾何)的問題對,然后將它們組合成復(fù)合問題。這樣做的目的是確保解決一個子問題不會為解決另一個子問題提供任何幫助。

舉個例子,他們可能會將一個關(guān)于計算圓形面積的幾何問題和一個關(guān)于解二次方程的代數(shù)問題組合在一起。由于這兩個問題涉及完全不同的數(shù)學(xué)概念和解題技巧,它們可以被認(rèn)為是獨立的。理想情況下,AI模型解決這個復(fù)合問題時使用的推理資源應(yīng)該等于分別解決兩個子問題所需資源的總和。

三、當(dāng)前AI模型的推理行為分析

研究團隊對十個主流的大型推理模型進行了全面測試,包括DeepSeek-R1系列、Phi-4-mini、OpenReasoning-Nemotron等。測試結(jié)果揭示了一個令人意外的現(xiàn)象:雖然大多數(shù)AI模型在單調(diào)性方面表現(xiàn)尚可,但在組合性方面幾乎全部失敗。

在單調(diào)性測試中,大部分模型展現(xiàn)出了相對合理的行為。當(dāng)問題復(fù)雜度增加時,它們確實會消耗更多的推理資源,準(zhǔn)確率也會相應(yīng)下降。這就像一個學(xué)生面對更難的題目時會花更多時間思考,但正確率會降低一樣。然而,即使在這個相對簡單的測試中,一些較小的模型(如1.5B參數(shù)的模型)在某些領(lǐng)域表現(xiàn)出了異常行為,有時甚至?xí)诤唵螁栴}上花費更多時間。

組合性測試的結(jié)果更加令人擔(dān)憂。幾乎所有測試的模型都嚴(yán)重違反了組合性原理。具體表現(xiàn)為:當(dāng)AI模型面對兩個獨立問題的組合時,它們使用的推理資源往往與理論預(yù)期相差甚遠,有時會嚴(yán)重不足,有時又會過度冗余。

這種現(xiàn)象可以用一個生動的比喻來理解:假設(shè)你要求一個廚師同時準(zhǔn)備意大利面和中式炒飯。一個經(jīng)驗豐富的廚師會合理分配時間,比如用20分鐘做意大利面,15分鐘做炒飯,總共35分鐘。但現(xiàn)在的AI模型可能會表現(xiàn)得像一個困惑的新手廚師:有時它們可能只花15分鐘就聲稱兩道菜都做好了(顯然不可能),有時它們可能會花費50分鐘甚至更長時間(明顯效率低下)。

更具體地說,研究團隊觀察到AI模型經(jīng)常出現(xiàn)"思考錯位"的現(xiàn)象。在某些情況下,模型面對復(fù)合問題時產(chǎn)生的推理鏈條比任何單個子問題都要短,這意味著它們在"偷懶"或者找到了某種不可靠的捷徑。在另一些情況下,模型會產(chǎn)生異常冗長的推理過程,遠超理論需要,這表明它們在進行大量無效的"胡思亂想"。

這些發(fā)現(xiàn)揭示了當(dāng)前AI訓(xùn)練方法的一個根本缺陷:模型學(xué)習(xí)的推理模式很大程度上是隨機的和不一致的。就像教孩子做作業(yè)時沒有教給他們時間管理技巧,孩子們可能會在簡單問題上浪費太多時間,而在復(fù)雜問題上又過于匆忙。

四、SFT-Compo改進方法

面對這些問題,研究團隊開發(fā)了一種名為SFT-Compo的訓(xùn)練方法來改善AI模型的推理行為。這個方法的核心思想是通過精心設(shè)計的訓(xùn)練樣本來"教會"模型如何合理分配推理資源。

SFT-Compo的工作原理可以用訓(xùn)練運動員的過程來類比。當(dāng)教練訓(xùn)練一個馬拉松選手時,他們會精心設(shè)計訓(xùn)練計劃,確保運動員學(xué)會在不同階段合理分配體力。SFT-Compo也是如此,它通過提供"標(biāo)準(zhǔn)答案"來教AI模型如何在不同復(fù)雜度的問題上合理分配推理資源。

具體來說,這個方法首先從訓(xùn)練數(shù)據(jù)中選擇來自不同類別的問題對,然后構(gòu)造它們的復(fù)合問題。接下來,方法會讓一個更強大的"教師"模型(通常是參數(shù)更多、能力更強的模型)為每個問題生成多個解答。這個過程就像讓一位經(jīng)驗豐富的老師為學(xué)生示范如何解題。

關(guān)鍵的創(chuàng)新在于樣本選擇策略。在所有可能的解答組合中,SFT-Compo會選擇那些最符合組合性原理的組合。也就是說,它會尋找這樣的解答組合:解決復(fù)合問題所用的推理步驟數(shù)最接近解決兩個子問題所用步驟數(shù)的總和。這就像在多個烹飪演示中選擇那個時間分配最合理的版本作為學(xué)習(xí)范本。

這種選擇策略確保了訓(xùn)練樣本的質(zhì)量。模型不是簡單地模仿任意的解題過程,而是學(xué)習(xí)那些遵循推理定律的高質(zhì)量推理模式。通過這種方式,AI模型逐漸學(xué)會了如何根據(jù)問題的復(fù)雜度來合理分配思考時間和精力。

五、實驗驗證與效果分析

研究團隊在四個不同規(guī)模的AI模型上測試了SFT-Compo方法的效果,結(jié)果令人鼓舞。實驗涵蓋了從1.5億參數(shù)到8億參數(shù)的多個模型,在多個主流數(shù)學(xué)推理基準(zhǔn)上進行了評估。

最直觀的改進體現(xiàn)在組合性指標(biāo)上。經(jīng)過SFT-Compo訓(xùn)練的模型在處理復(fù)合問題時的行為顯著改善。以1.5億參數(shù)的模型為例,其組合性偏差從原來的52.8%降低到31.4%,這意味著模型的推理資源分配變得更加合理。這種改進就像一個學(xué)生學(xué)會了合理安排學(xué)習(xí)時間,不再在簡單題目上浪費過多精力,也不會在復(fù)雜題目上過于匆忙。

更重要的是,這種推理行為的改善直接轉(zhuǎn)化為了性能提升。在多個數(shù)學(xué)推理基準(zhǔn)測試中,經(jīng)過SFT-Compo訓(xùn)練的模型普遍表現(xiàn)出更好的準(zhǔn)確率。例如,在AIME 2024競賽題目上,某些模型的準(zhǔn)確率提升了超過7個百分點。這種提升不僅僅是數(shù)字上的改進,更代表了模型推理質(zhì)量的本質(zhì)提高。

實驗還揭示了一個有趣的"協(xié)同效應(yīng)"現(xiàn)象。雖然SFT-Compo主要針對改善組合性而設(shè)計,但研究團隊發(fā)現(xiàn)它同時也改善了模型的單調(diào)性表現(xiàn)。這就像學(xué)會合理分配時間的學(xué)生不僅在處理復(fù)雜任務(wù)時表現(xiàn)更好,在處理簡單任務(wù)時也變得更加高效。這種意外的額外收益表明,推理定律的不同方面之間存在深層的內(nèi)在聯(lián)系。

為了確保改進確實來自推理行為的優(yōu)化而非簡單的知識灌輸,研究團隊設(shè)計了對照實驗。他們創(chuàng)建了一個基線方法,該方法使用相同的訓(xùn)練數(shù)據(jù)但不強調(diào)組合性要求。結(jié)果表明,只有明確強調(diào)組合性的SFT-Compo方法才能帶來顯著的性能提升,這證明了推理定律指導(dǎo)的訓(xùn)練策略的有效性。

實驗數(shù)據(jù)還顯示了推理定律之間的相互促進作用。當(dāng)模型在計算資源分配方面變得更加合理時,其準(zhǔn)確率的組合性也得到了改善。這種現(xiàn)象支持了研究團隊的理論假設(shè):計算定律和準(zhǔn)確性定律是相互關(guān)聯(lián)的,改善其中一個會自然地促進另一個的改善。

六、理論貢獻與實際意義

這項研究的理論貢獻遠不止提出了幾個數(shù)學(xué)公式。它首次為AI推理行為提供了可驗證的理論框架,這就像物理學(xué)中的牛頓定律為機械運動提供了基本原理一樣。推理定律為我們理解和改善AI的思維過程提供了科學(xué)基礎(chǔ)。

從實用角度來看,這項研究為AI開發(fā)者提供了明確的指導(dǎo)原則。過去,改善AI推理能力很大程度上依賴于經(jīng)驗和試錯,就像沒有食譜的烹飪實驗。現(xiàn)在,開發(fā)者可以根據(jù)推理定律來設(shè)計更有效的訓(xùn)練策略,使AI模型學(xué)會更合理的思維模式。

這種理論指導(dǎo)的重要性在當(dāng)前AI發(fā)展的背景下顯得尤為突出。隨著AI模型規(guī)模的不斷增大,訓(xùn)練成本變得越來越昂貴。如果能讓模型學(xué)會更高效的推理方式,不僅可以提高性能,還能顯著降低計算資源的浪費。這就像教會司機更好的駕駛技巧不僅能提高安全性,還能節(jié)省燃料。

研究成果還為AI安全和可信度提供了新的視角。當(dāng)AI模型的推理行為遵循可預(yù)測的規(guī)律時,我們能更好地理解它們的決策過程,預(yù)測它們在新情況下的表現(xiàn)。這種可預(yù)測性對于在關(guān)鍵應(yīng)用中部署AI系統(tǒng)至關(guān)重要。

此外,推理定律框架具有很強的通用性。雖然這項研究主要在數(shù)學(xué)推理任務(wù)上進行了驗證,但其基本原理可以擴展到其他需要復(fù)雜推理的領(lǐng)域,如科學(xué)問題解決、編程、甚至創(chuàng)意寫作。這種通用性使得研究成果具有廣泛的應(yīng)用前景。

七、局限性與未來方向

盡管這項研究取得了重要進展,但研究團隊也坦誠地指出了當(dāng)前工作的局限性。首先,LORE-MONO基準(zhǔn)目前只包含了40個種子問題,雖然覆蓋了四個不同領(lǐng)域,但問題的多樣性仍有提升空間。就像用有限的樣本來判斷一個學(xué)生的整體能力一樣,更大規(guī)模、更多樣化的測試基準(zhǔn)將能提供更全面的評估。

其次,研究中對"問題獨立性"的定義主要基于數(shù)學(xué)概念的分離,這種操作性定義雖然實用,但可能無法捕捉到所有形式的問題相關(guān)性。在現(xiàn)實世界中,看似獨立的問題之間往往存在微妙的聯(lián)系,如何更精確地定義和檢測問題獨立性仍然是一個開放的研究問題。

由于計算資源的限制,這項研究主要集中在開源的AI模型上。雖然這些模型具有代表性,但一些最先進的閉源模型(如GPT-4或Claude)的推理行為可能有所不同。擴展研究范圍以包括更多類型的模型將有助于驗證推理定律的普遍適用性。

從方法論角度來看,當(dāng)前的SFT-Compo主要關(guān)注改善計算資源的組合性,而對準(zhǔn)確率組合性的直接優(yōu)化仍然具有挑戰(zhàn)性。這是因為準(zhǔn)確率的組合性涉及概率層面的約束,直接優(yōu)化這種屬性在技術(shù)上更加復(fù)雜。

展望未來,研究團隊指出了幾個值得探索的方向。首先是擴展推理定律到更復(fù)雜的推理類型,比如涉及創(chuàng)造性思維或常識推理的任務(wù)。其次是開發(fā)更精細的訓(xùn)練方法,能夠同時優(yōu)化計算定律和準(zhǔn)確率定律的多個方面。此外,將推理定律的思想應(yīng)用到AI模型架構(gòu)設(shè)計中,而不僅僅是訓(xùn)練方法中,也是一個很有前景的研究方向。

研究團隊還提到了推理定律在多模態(tài)AI系統(tǒng)中的應(yīng)用潛力。當(dāng)AI需要同時處理文本、圖像、音頻等不同類型的信息時,如何合理分配不同模態(tài)的推理資源將是一個重要問題。推理定律為解決這類問題提供了理論基礎(chǔ)。

說到底,這項研究為AI推理能力的改進開辟了一條全新的道路。通過揭示AI思維過程中的基本規(guī)律,它不僅幫助我們理解現(xiàn)有模型的行為,更為開發(fā)下一代更智能、更高效的AI系統(tǒng)提供了科學(xué)指導(dǎo)。雖然還有許多問題有待解決,但這項工作已經(jīng)為這個快速發(fā)展的領(lǐng)域奠定了重要的理論基礎(chǔ)。

對于普通人來說,這項研究的意義在于它讓AI變得更加"聰明"和"懂事"。未來的AI助手將能夠更好地判斷什么時候需要深入思考,什么時候可以快速回答,從而提供更高質(zhì)量、更高效的服務(wù)。無論是幫助學(xué)生解決學(xué)習(xí)問題,還是協(xié)助專業(yè)人士處理復(fù)雜任務(wù),經(jīng)過推理定律指導(dǎo)改進的AI都將表現(xiàn)得更像一個真正理解輕重緩急的智能伙伴。

Q&A

Q1:推理定律LORE框架解決了什么問題?

A:LORE框架解決了當(dāng)前大型AI模型推理行為不合理的問題。現(xiàn)在的AI經(jīng)常在簡單問題上"想太多",在復(fù)雜問題上"想太少",就像學(xué)生做題時時間分配不當(dāng)。LORE通過計算定律和準(zhǔn)確性定律,為AI如何根據(jù)問題復(fù)雜度合理分配思考資源提供了科學(xué)指導(dǎo)。

Q2:SFT-Compo訓(xùn)練方法是如何改善AI推理能力的?

A:SFT-Compo就像給AI提供標(biāo)準(zhǔn)的解題示范。它讓更強大的"教師"模型為復(fù)合問題生成多種解答,然后選擇那些最符合推理定律的解答作為訓(xùn)練樣本。通過學(xué)習(xí)這些高質(zhì)量的推理模式,AI學(xué)會了如何合理分配推理資源,最終在多個數(shù)學(xué)推理基準(zhǔn)上都取得了顯著的性能提升。

Q3:推理定律對普通人使用AI有什么實際意義?

A:推理定律的應(yīng)用將讓未來的AI助手更加"聰明懂事"。它們會知道什么時候該深入思考,什么時候可以快速回答,提供更高質(zhì)量和高效的服務(wù)。無論是幫助學(xué)生學(xué)習(xí)、協(xié)助工作任務(wù),還是日常問題解答,改進后的AI都會表現(xiàn)得更像一個真正理解輕重緩急的智能伙伴,避免浪費時間或草率回答。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
真相大白!王曼昱傷情曝光,2天傷了2個核心,王勵勤要“動手”了

真相大白!王曼昱傷情曝光,2天傷了2個核心,王勵勤要“動手”了

體育就你秀
2025-12-28 18:04:52
真不想動武!美國扣押中國油輪后,中國在聯(lián)合國連說6個“反對”

真不想動武!美國扣押中國油輪后,中國在聯(lián)合國連說6個“反對”

文史旺旺旺
2025-12-27 18:22:12
真當(dāng)中國不敢動手?中方向全世界宣布:退出1900億大項目

真當(dāng)中國不敢動手?中方向全世界宣布:退出1900億大項目

趣史微視頻
2025-12-28 17:58:19
臺三批人馬先后抵滬,蔣萬安單獨行動缺席晚宴,大陸仍高規(guī)格接待

臺三批人馬先后抵滬,蔣萬安單獨行動缺席晚宴,大陸仍高規(guī)格接待

南宗歷史
2025-12-28 05:37:06
定了!山東這11所??圃盒<磳⑸秊楸究疲?>
    </a>
        <h3>
      <a href=定了!山東這11所??圃盒<磳⑸秊楸究疲?/a> 山東教育
2025-12-28 09:44:20
2020年,孫小果被執(zhí)行死刑,母親為救他搭進去20年刑期,圖什么?

2020年,孫小果被執(zhí)行死刑,母親為救他搭進去20年刑期,圖什么?

詩意世界
2025-12-16 11:00:03
顧客稱在店內(nèi)飲用星巴克競品,被工作人員提醒“盡快喝完”或“套上星巴克杯套”,星巴克回應(yīng)→

顧客稱在店內(nèi)飲用星巴克競品,被工作人員提醒“盡快喝完”或“套上星巴克杯套”,星巴克回應(yīng)→

930老友記
2025-12-27 22:15:37
美媒:美最強戰(zhàn)斗機F-22“生不逢時”

美媒:美最強戰(zhàn)斗機F-22“生不逢時”

參考消息
2025-12-27 21:02:07
咸魚還是太全面了,怪不得人稱國內(nèi)黑市

咸魚還是太全面了,怪不得人稱國內(nèi)黑市

另子維愛讀史
2025-12-20 17:07:20
來聚餐還補工資!東莞一工廠年底聚餐,當(dāng)晚按工時3.5小時核工資

來聚餐還補工資!東莞一工廠年底聚餐,當(dāng)晚按工時3.5小時核工資

火山詩話
2025-12-28 11:03:19
金正恩致電普京:朝鮮永遠同俄羅斯在一起

金正恩致電普京:朝鮮永遠同俄羅斯在一起

新京報
2025-12-27 09:36:02
龐萊臣曾孫女龐叔令大方出鏡,接受前央視記者采訪,展示珍貴藏品

龐萊臣曾孫女龐叔令大方出鏡,接受前央視記者采訪,展示珍貴藏品

鋭娛之樂
2025-12-27 20:52:28
“牡丹花下死,做鬼也風(fēng)流”,這一次,74歲的張紀(jì)中徹底成了笑話

“牡丹花下死,做鬼也風(fēng)流”,這一次,74歲的張紀(jì)中徹底成了笑話

洲洲影視娛評
2025-12-08 19:52:00
36年前陳寶國主演的盜墓恐怖片!尺度大到少兒不宜

36年前陳寶國主演的盜墓恐怖片!尺度大到少兒不宜

釋凡電影
2025-08-14 09:33:19
安徽畫家關(guān)玉梅被判處死刑,死前拒吃斷頭飯,臨行前一句話眾人淚目

安徽畫家關(guān)玉梅被判處死刑,死前拒吃斷頭飯,臨行前一句話眾人淚目

紅豆講堂
2024-11-15 11:25:33
火藥味,越來越濃了!

火藥味,越來越濃了!

子說一點
2025-12-27 18:36:54
飼料大王劉永好坦言:我們吃的豬肉90%是“三元豬”,所以不香了

飼料大王劉永好坦言:我們吃的豬肉90%是“三元豬”,所以不香了

丁丁鯉史紀(jì)
2025-12-23 16:14:18
俄警告歐洲國家勿向烏派兵

俄警告歐洲國家勿向烏派兵

界面新聞
2025-12-28 14:26:52
分手后“60后”男子起訴“90后”女友,開庭前在法院門口捅刺女方致重傷二級,法院判了

分手后“60后”男子起訴“90后”女友,開庭前在法院門口捅刺女方致重傷二級,法院判了

大象新聞
2025-12-28 16:53:04
太突然!知名男演員因癌癥去世

太突然!知名男演員因癌癥去世

中吳網(wǎng)
2025-12-27 22:07:37
2025-12-28 19:11:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
6680文章數(shù) 544關(guān)注度
往期回顧 全部

科技要聞

特斯拉將在華布局自動駕駛?記者求證→

頭條要聞

杭州"兔子警官"哄孩子式執(zhí)法火了 曾當(dāng)過2年幼兒園老師

頭條要聞

杭州"兔子警官"哄孩子式執(zhí)法火了 曾當(dāng)過2年幼兒園老師

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

白敬亭現(xiàn)身冰雪大世界 拍視頻還翻車了

財經(jīng)要聞

英偉達的收購史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

本地
時尚
旅游
親子
教育

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬年史書

瑞典拉普蘭:凜冽北境的萬物平衡之道

旅游要聞

【直播】元旦游上海,黃浦普陀專場:黃浦新年三重奏?普陀“半馬蘇河”,靈!

親子要聞

千萬別把孩子,養(yǎng)成這種“奴隸”?

教育要聞

于潔:教師怎樣走出這10個認(rèn)知誤區(qū)

無障礙瀏覽 進入關(guān)懷版