国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

PNAS:大語言模型如何在不同語言中加劇知識鴻溝

0
分享至


導(dǎo)語

一項于12月18日發(fā)布在PNAS的研究聚焦于大型語言模型(LLM)在不同語言環(huán)境下學(xué)習(xí)新知識時的不平等現(xiàn)象。研究團隊針對 19 種語言和 4 個主流模型(包括 GPT-4o-Mini、Llama-3.1-8B 等)構(gòu)建了多語言平行數(shù)據(jù)集,通過上下文學(xué)習(xí)和微調(diào)兩種方式,系統(tǒng)性地觀測了基于語言的性能差異。研究發(fā)現(xiàn),LLM 在處理低資源語言時,在新知識學(xué)習(xí)的效率、跨語言遷移、知識沖突的優(yōu)先級處理以及魯棒性四個維度上相較高資源語言均存在顯著差距。此外,研究進一步分析了造成這種不平等的底層機制,涉及語言自身屬性、預(yù)訓(xùn)練數(shù)據(jù)規(guī)模與工程優(yōu)化、分詞器設(shè)計,以及模型內(nèi)部負責(zé)跨語言知識流動的“語言神經(jīng)元”分布特征。

關(guān)鍵詞:大語言模型(LLM),語言不平等 (Linguistic inequality),高/中/低資源語言(High-/Medium-/Low-resource languages),跨語言知識遷移,知識優(yōu)先級,語言神經(jīng)元(Linguistic Neurons),魯棒性 (Robustness)

來源:集智俱樂部

作者:任筱芃

審校:王成龍(論文一作)、黃俊銘、宮兆亞


論文題目:Uncovering inequalities in new knowledge learning by large language models across different languages 論文鏈接:https://www.pnas.org/doi/10.1073/pnas.2514626122 發(fā)表時間:2025年12月18日 論文來源:PNAS

楔子:AI時代的“語言馬太效應(yīng)”

想象這樣一個場景:2048年,一種全新的健康監(jiān)測技術(shù)"基因分析"問世。當(dāng)一位英語用戶詢問AI助手時,它能迅速學(xué)習(xí)并給出準確答案;但換成一位斯瓦希里語用戶,AI卻要么回答錯誤,要么需要更長時間學(xué)習(xí)才能掌握這一概念。更微妙的是,實驗把同一技術(shù)同時用斯瓦希里語和英語注入模型,可當(dāng)?shù)谌Z言提問時,它仍優(yōu)先輸出英語版本的答案。簡而言之,AI在英語環(huán)境中可能表現(xiàn)得像個天才,但在斯瓦希里語環(huán)境中卻可能像個學(xué)渣。這種在獲取新知識過程中的不平等,正在數(shù)字世界中構(gòu)建一種隱形的“馬太效應(yīng)”。

這并非科幻想象,而是發(fā)生在大語言模型(LLMs)內(nèi)部的真實困境。隨著ChatGPT等工具在全球擁有7億周活躍用戶,越來越多非英語母語者依賴這些系統(tǒng)獲取信息、解決問題。傳統(tǒng)研究多關(guān)注LLMs靜態(tài)知識庫中的語言不平等——比如低資源語言因訓(xùn)練數(shù)據(jù)少而基礎(chǔ)性能差。但在PNAS發(fā)表的最新研究指出,以往的關(guān)注點多集中在模型富集了多少已有知識(靜態(tài)儲備),卻忽視了模型是如何學(xué)習(xí)新知識的?

這種差異具體表現(xiàn)在四個維度:效率差異(能否快速學(xué)習(xí)新知識)、遷移差異(知識的跨語言流動性)、優(yōu)先級差異(知識沖突)、魯棒性差異(能否抵抗錯誤信息)。研究團隊通過19種語言、4個主流模型的系統(tǒng)性實驗,首次量化了這種不平等的程度,并揭示了其背后令人不安的機制——AI正在復(fù)制甚至放大人類社會的語言不平等。

研究背景與問題

大語言模型的知識更新依賴兩種主要方式:上下文學(xué)習(xí)in-context learning)和微調(diào)fine-tuning)。前者通過提示詞臨時注入新知識,后者則通過持續(xù)訓(xùn)練將知識固化到模型參數(shù)中。無論哪種方式,理想狀態(tài)都應(yīng)是語言中立的——即同樣質(zhì)量的知識,不論用英語、泰語還是威爾士語呈現(xiàn),AI都應(yīng)同等對待。

但現(xiàn)實遠非如此。傳統(tǒng)研究已證實,由于訓(xùn)練數(shù)據(jù)中斯瓦希里語等語言不足0.1%,導(dǎo)致模型在現(xiàn)存的知識上存在巨大鴻溝。這種靜態(tài)差距被稱為"預(yù)訓(xùn)練不平等"。然而,研究團隊指出一個被長期忽視的問題:AI是持續(xù)進化的系統(tǒng),當(dāng)它不斷吸收新知識時,這種不平等會自我強化還是自我修正?

答案是令人擔(dān)憂的。試想當(dāng)同一議題的“低資源語言答案”與“英語答案”在模型里并存時,只要用任意第三語言提問,模型仍會大概率輸出英語知識,這種動態(tài)學(xué)習(xí)過程中的不平等,意味著低資源語言社區(qū)不僅在起跑線上落后,更在比賽進行中不斷被折磨。

實驗測量:四重不平等分析

為了捕捉這種微妙的不平等,研究團隊設(shè)計了一個精妙的實驗框架,涵蓋19種語言(按照開放網(wǎng)頁數(shù)據(jù)集中占比分為高、中、低資源語言)和4個主流模型(GPT-4o-Mini、Llama-3.1-8B、Qwen3-8B、Aya-Expanse-8B)。關(guān)鍵在于他們構(gòu)建了多語言平行數(shù)據(jù)集——同一組問題被翻譯成所有語言,確保知識"質(zhì)量"完全相同,從而隔離出語言本身的影響。

實驗使用四類數(shù)據(jù)集:

  1. 虛構(gòu)新知識:例如設(shè)定在2048年的未來場景,包含200個問答對(如"如何用基因分析追蹤健康")

  2. 真實醫(yī)學(xué)知識:從MultiMedQA篩選的專業(yè)醫(yī)學(xué)問題,確保對模型是"全新"的

  3. 通用常識對抗集:人類構(gòu)造的常識問題,用于測試抗錯誤信息能力

  4. 生成的常識對抗集:AI生成的常識問題,用于測試抗錯誤信息能力

通過這兩種知識類型的對比,研究能清晰區(qū)分:是新知識本身難學(xué),還是語言導(dǎo)致了學(xué)習(xí)差異?實驗在兩種場景下進行:上下文學(xué)習(xí)(知識放在提示詞中)和微調(diào)(知識寫入?yún)?shù)),全面覆蓋實際應(yīng)用情況。

正是在考慮控制變量后的觀察窗口中,不平等的四重面向逐漸清晰。

微調(diào)實驗暴露了學(xué)習(xí)效率的差異。所有模型在高資源語言中學(xué)習(xí)新知識時,通常4個訓(xùn)練輪次就能達到60-90%準確率,但在低資源語言中需要8輪以上才能接近同等水平。更殘酷的是學(xué)習(xí)效率的上限差異——即使訓(xùn)練12輪后,GPT-4o-Mini在英語、中文上的準確率超90%,而在低資源語言中停滯在60-80%。這就像給兩個學(xué)生同樣的教材:英語學(xué)生讀一遍就懂,斯瓦希里語學(xué)生卻需要反復(fù)讀三遍,且最終理解程度仍不如前者。這種"學(xué)習(xí)效率"的差異,直接導(dǎo)致低資源語言社區(qū)需要支付更高的計算成本和時間成本,才能獲得同等質(zhì)量的知識服務(wù)。


圖1:四個模型在兩個數(shù)據(jù)集上學(xué)習(xí)新知識的性能。與高資源語言(橙色曲線)相比,大語言模型(LLMs)在低資源語言(藍色曲線)中學(xué)習(xí)新知識時面臨更大的挑戰(zhàn),無論是在效率還是準確性方面。

更具結(jié)構(gòu)性的不公體現(xiàn)在知識遷移差異上。無論模型最初通過何種語言材料學(xué)習(xí)"基因分析"這一概念,當(dāng)使用高資源語言進行提問時,其準確率始終高于低資源語言。這一現(xiàn)象表明,知識從其他語言遷移至高資源語言通常比遷移至低資源語言更為容易,語言之間難以形成對等的知識交換關(guān)系。


圖2:在四個模型和兩個數(shù)據(jù)集的上下文學(xué)習(xí)設(shè)置下,研究了新知識傳遞的不平等性。角度軸表示新知識被注入的語言,而三種曲線顯示了模型在高、中和低資源語言中的平均準確率。結(jié)果顯示,當(dāng)新知識被引入到其他語言時,低資源語言的用戶會受到顯著的不利影響。

語言親緣關(guān)系進一步影響遷移效果:法語、西班牙語等羅曼語族語言之間的遷移相對順暢,而跨語系遷移(如英語至泰米爾語)則面臨顯著困難。這種遷移壁壘植根于模型內(nèi)部的"語言領(lǐng)地"——特定神經(jīng)元專司特定語言,其重疊程度直接決定知識能否跨語言通行。這種不對稱性意味著,低資源語言的知識生產(chǎn)者處于系統(tǒng)性劣勢之中,例如,他們無法像高資源語言使用者那樣,平等地從其他語言中獲取知識。

當(dāng)需要對不同語言下沖突信息進行取舍時,模型的優(yōu)先級差異或者說隱性語言等級結(jié)構(gòu)顯露無遺。


圖3:GPT-4o-Mini在上下文學(xué)習(xí)設(shè)置下針對虛構(gòu)新知識數(shù)據(jù)集的具體知識沖突場景。當(dāng)高資源語言引入的知識與低資源語言沖突時,模型在其他語言中的輸出主要與高資源語言的知識一致。

當(dāng)同一問題的答案在英語和泰米爾語中矛盾時(假設(shè)英語語料說“健康追蹤用基因分析”,泰米爾語語料說“健康追蹤用可穿戴設(shè)備”),模型在第三語言(假設(shè)丹麥語)中作答時,87%的概率會選擇英語版本。這種“優(yōu)先級偏見”在72種沖突場景下持續(xù)存在。模型似乎內(nèi)置了隱性的語言等級制度。即使兩種知識質(zhì)量完全相同——因場景虛構(gòu)、答案無客觀對錯——模型仍認為高資源語言更“權(quán)威”。這不僅涉及技術(shù)缺陷,更折射出語言在真實世界中的不對等性。

最后,在抵抗錯誤信息魯棒性測試中,低資源語言同樣脆弱。當(dāng)研究者嘗試在訓(xùn)練數(shù)據(jù)中注入錯誤知識(例如“水凝結(jié)成水蒸氣”)時,英語、法語等高資源語言的模型能堅守正確知識,準確率下降緩慢;但低資源語言的準確率卻斷崖式下跌。


圖4-A:微調(diào)(fine-tuning)設(shè)置下魯棒性測試。隨著模型在錯誤知識上進行微調(diào),其整體準確率下降。然而,這種下降在低資源語言中更為明顯。


圖4-B:上下文學(xué)習(xí)設(shè)置下魯棒性測試。此處,半徑徑軸表示有無錯誤信息時的準確率比率,顏色越深表示相對準確率越低。LLMs在高資源語言中往往比在低資源語言中表現(xiàn)出更強的錯誤信息抵抗力。

這如同給不同語言用戶安裝了不同質(zhì)量的"防護設(shè)備":以英語為代表的高資源語言用戶獲得的是防彈玻璃,而以祖魯語為代表的低資源語言用戶只有瓦楞紙。

“語言馬太效應(yīng)”:成因與干預(yù)嘗試

這種不平等并非模型的偶然失誤,而是系統(tǒng)性因素層層疊加的必然結(jié)果。

首當(dāng)其沖的是訓(xùn)練數(shù)據(jù)的馬太效應(yīng)——語言在CommonCrawl等語料庫中的占比與模型性能相關(guān)系數(shù)高達0.907,英語因CommonCrawl語料庫中高占比被劃為高資源語言(>1%閾值),而威爾士語等占比不足0.1%即被歸為低資源語言。這種數(shù)據(jù)鴻溝不僅決定了模型對語法、習(xí)語和表達模式的熟悉程度,更深層地塑造了其學(xué)習(xí)新知識的可塑性——高資源語言的用戶僅需少量樣本就能教會AI新概念,而低資源語言社區(qū)必須付出成倍的數(shù)據(jù)與計算成本,才能獲得不那么雞肋的輸出。

更深層的制約來自分詞器Tokenizer)的信息密度差異。優(yōu)質(zhì)分詞器能將文本壓縮為信息密集的token序列。


圖5:這張圖片展示了論文中分析分詞相關(guān)因素(Tokenization-related Factors) 的其中兩個關(guān)鍵維度。1. 分詞器在不同語言上的信息密度有差異;2. 分詞邊界是否與語言的形態(tài)學(xué)邊界(Morpheme Boundaries)對齊。

而研究發(fā)現(xiàn),英語表達相同內(nèi)容所需的token數(shù)顯著更少,分布也更均勻,這直接拓展了模型的有效上下文長度與學(xué)習(xí)效能。低資源語言往往被分詞器過度切割為冗余的token序列,如同使用低效的信源編碼。同樣的語義內(nèi)容,在英語中可被壓縮為緊湊的信號,在泰米爾語等語言中卻不得不以成倍長度的碎片化符號來傳遞。這種編碼效率的差異,導(dǎo)致模型在處理低資源語言時,同等字符數(shù)承載的有效信息大幅減少,直接侵蝕了上下文窗口的實際有效容量與學(xué)習(xí)效能。它并非簡單的速度滯后,而是模型認知架構(gòu)層面的結(jié)構(gòu)性損耗。好比傳輸?shù)蛪嚎s率格式的影音文件,數(shù)據(jù)流量雖然龐大,實際畫面未見得更好。最終表現(xiàn)為模型在處理這些語言時,如同在狹窄的信道里強行吞吐過量數(shù)據(jù),不可避免地陷入擁塞與性能衰減。

模型神經(jīng)元還持有潛藏的"語言領(lǐng)地"。模型內(nèi)部存在"語言神經(jīng)元",專門處理特定語言的詞匯和語法。


圖6:上半部分的矩陣展示了模型神經(jīng)元在處理不同語言(如英語、法語、印地語)時的激活情況。圖中標記的 "1-K Overlap" 和 "1-2 Overlap" 指代不同語言之間存在共享的活躍神經(jīng)元。神經(jīng)元的重疊程度直接決定了知識能否在語言之間順暢遷移。圖表下半部分展示了研究人員采用的干預(yù)手段。通過人為地“增強”或“抑制”這些特定神經(jīng)元,觀察模型表現(xiàn)的變化,從而證實了這些神經(jīng)元確實是“專門處理特定語言”的關(guān)鍵組件。

通過分析這些神經(jīng)元的重疊程度,研究發(fā)現(xiàn)法語與西班牙語因神經(jīng)元高度重疊而遷移順暢,但跨語系(如英語→泰米爾語)的遷移則舉步維艱。實驗表明,人為增強重疊神經(jīng)元的激活能部分提升遷移能力,但無法完全消除。這印證了不平等性已深植于模型架構(gòu)底層。

研究人員進行了神經(jīng)元層面的干預(yù)實驗。通過對跨語言重疊神經(jīng)元進行強制激活抑制,研究發(fā)現(xiàn):抑制這些神經(jīng)元會導(dǎo)致跨語言知識遷移能力顯著下降,證明了它們是知識流動的關(guān)鍵橋梁;而激活雖然能帶來適度的性能提升,但其收益幅度遠小于抑制所造成的損失。這表明,雖然神經(jīng)元干預(yù)能一定程度上調(diào)節(jié)知識遷移,但無法徹底消除根植于模型設(shè)計與訓(xùn)練中的不平等。要從根本上解決這一問題,不能僅靠后期的小修小補,而必須回溯到模型開發(fā)階段(如平衡預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化分詞器設(shè)計),進行更底層的預(yù)防性設(shè)計。

研究者坦承三大局限:一是實驗僅覆蓋19種語言和4個模型,二是神經(jīng)元干預(yù)只是初步探索,三是未能觸及數(shù)據(jù)不平衡的根本問題。但他們強調(diào),真正的解決需要"預(yù)防性設(shè)計":平衡多語言預(yù)訓(xùn)練數(shù)據(jù)、開發(fā)語言中立的分詞器、在損失函數(shù)中引入公平性約束。

作者按:走向真正的多語言智能

(以下內(nèi)容為解讀者觀點,非原文結(jié)論)

這項研究的警示意義遠超技術(shù)圈。它暴露出AI倫理審視中長期缺席的維度——作為權(quán)力結(jié)構(gòu)的載體的語言。當(dāng)全球低資源語言社區(qū)(數(shù)字資源少而使用人口可能多)依賴以強勢語言為中心的AI系統(tǒng)時,他們不僅面臨信息延遲,更面臨知識代表性的不平等——本土智慧被邊緣化,強勢語言知識體系被自動化強化。高資源語言的知識通常被視為 “標準” 或 “權(quán)威”,而低資源語言的知識則被邊緣化。這強化了高級資源語言在全球知識體系中的主導(dǎo)地位,同時削弱了低級資源語言的代表性。我們需要意識到,語言公平不是本地化包裝的附加選項,而是數(shù)字時代包容性發(fā)展的核心組件。為了解決這個問題,政策制定者可以建立多語言AI性能監(jiān)測機制,將低資源語言的準確率、魯棒性與遷移能力納入產(chǎn)品評估體系,推動開發(fā)者在設(shè)計之初便直面語言正義問題。技術(shù)開發(fā)者和研究人員應(yīng)考慮數(shù)據(jù)收集和模型設(shè)計(例如強制激活神經(jīng)元)上的公平性,確保大語言模型公平服務(wù)所有語言用戶的關(guān)鍵。在實現(xiàn)語言公平之前,低資源語言用戶應(yīng)對AI系統(tǒng)采取更審慎的態(tài)度。

當(dāng)來自高資源語言的知識被優(yōu)先采用時,就會延續(xù)語言霸權(quán)。 破局的關(guān)鍵在于培育本土技術(shù)能力——自主構(gòu)建母語數(shù)據(jù)集、以本族標準定義評估體系。只有當(dāng)斯瓦希里語、泰米爾語等低資源語言社區(qū)擁有足夠多的數(shù)據(jù)集參與到全球優(yōu)化的AI系統(tǒng)中,AI才能真正擺脫單向度的知識流動,轉(zhuǎn)向多元共生的技術(shù)生態(tài)。唯有如此,AI 才能從鞏固技術(shù)壁壘的枷鎖,轉(zhuǎn)變?yōu)榇龠M人類文明多元共生的公共品。

閱讀最新前沿科技趨勢報告,請訪問歐米伽研究所的“未來知識庫”

https://wx.zsxq.com/group/454854145828


未來知識庫是“ 歐米伽 未來研究所”建立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學(xué)、互聯(lián)網(wǎng)、超級智能,數(shù)智大腦、能源、軍事、經(jīng)濟、人類風(fēng)險等等領(lǐng)域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
炸裂?曝皇馬已決定出售1.5億帝星:僅標價1億歐 17場0球坑慘佛爺

炸裂?曝皇馬已決定出售1.5億帝星:僅標價1億歐 17場0球坑慘佛爺

風(fēng)過鄉(xiāng)
2025-12-27 08:20:37
何穗沒想到,官宣生子不到2個月,陳偉霆僅憑一句話實現(xiàn)口碑暴增

何穗沒想到,官宣生子不到2個月,陳偉霆僅憑一句話實現(xiàn)口碑暴增

黃謀仕
2025-12-27 22:10:43
香港偶遇蔡少芬和剪秋逛街,兩人挽手同行關(guān)系超好,打扮都接地氣

香港偶遇蔡少芬和剪秋逛街,兩人挽手同行關(guān)系超好,打扮都接地氣

東方不敗然多多
2025-12-26 12:46:26
沖上熱搜,湖人內(nèi)訌爆發(fā)!矛頭直指詹姆斯,名嘴:他走人最佳方案

沖上熱搜,湖人內(nèi)訌爆發(fā)!矛頭直指詹姆斯,名嘴:他走人最佳方案

阿泰希特
2025-12-27 12:11:28
義烏圣誕貨賣不動了?美國87%玩具靠中國,60%相關(guān)企業(yè)已裁員

義烏圣誕貨賣不動了?美國87%玩具靠中國,60%相關(guān)企業(yè)已裁員

扶蘇史記
2025-12-27 01:05:03
賴昌星發(fā)妻曾明娜現(xiàn)狀:逃亡10年后回國,守著3000平老宅安靜養(yǎng)老

賴昌星發(fā)妻曾明娜現(xiàn)狀:逃亡10年后回國,守著3000平老宅安靜養(yǎng)老

古書記史
2025-12-12 11:21:38
2025年預(yù)計新出生人口780萬

2025年預(yù)計新出生人口780萬

我是健康磚家
2025-12-27 06:33:19
郭士強嚴選!男籃4大現(xiàn)役國手本輪合砍5分,球迷:不腦溢血才怪

郭士強嚴選!男籃4大現(xiàn)役國手本輪合砍5分,球迷:不腦溢血才怪

弄月公子
2025-12-27 22:44:10
趨之若鶩!上海海港成冬窗香餑餑:中超球員爭相排隊進港

趨之若鶩!上海海港成冬窗香餑餑:中超球員爭相排隊進港

足球大腕
2025-12-27 20:40:13
郭晶晶一家陪霍震霆看58萬電車,給孩子喝4塊蜜雪冰城,很接地氣

郭晶晶一家陪霍震霆看58萬電車,給孩子喝4塊蜜雪冰城,很接地氣

阿雹娛樂
2025-12-27 11:05:54
“亂港分子”周庭,棄保潛逃加拿大,揚言永不回國,如今怎么樣了

“亂港分子”周庭,棄保潛逃加拿大,揚言永不回國,如今怎么樣了

甜檸聊史
2025-12-27 10:54:15
懸念拉滿!庫明加或已打完勇士生涯最后一戰(zhàn),交易籌碼基本敲定

懸念拉滿!庫明加或已打完勇士生涯最后一戰(zhàn),交易籌碼基本敲定

夜白侃球
2025-12-27 20:22:08
亞足聯(lián)官宣首屆亞國聯(lián)賽事落地,國足獲A檔足協(xié)連夜出招

亞足聯(lián)官宣首屆亞國聯(lián)賽事落地,國足獲A檔足協(xié)連夜出招

章蠞戶外
2025-12-27 18:28:17
把副省長文國棟拉下馬的環(huán)保案件,賠償了50億

把副省長文國棟拉下馬的環(huán)保案件,賠償了50億

極目新聞
2025-12-26 22:46:14
喬治轟31+7+8仍無緣今日最佳!對不起,你碰到暴走的哈登了

喬治轟31+7+8仍無緣今日最佳!對不起,你碰到暴走的哈登了

世界體育圈
2025-12-27 13:44:30
貴州省人社廳黨組副書記、副廳長高曉昀履新安順市委副書記

貴州省人社廳黨組副書記、副廳長高曉昀履新安順市委副書記

澎湃新聞
2025-12-27 19:02:26
美軍扣押中國油輪,180萬桶石油被零元購!中國太極拳打到了七寸

美軍扣押中國油輪,180萬桶石油被零元購!中國太極拳打到了七寸

素衣讀史
2025-12-25 16:42:18
江蘇女排3:1北京,吳夢潔砍26分但賽后累倒在地!她太辛苦了

江蘇女排3:1北京,吳夢潔砍26分但賽后累倒在地!她太辛苦了

金毛愛女排
2025-12-27 20:32:08
國家發(fā)改委:2026年春節(jié)放假9天并減少調(diào)休!元旦動車/城際有新調(diào)整→

國家發(fā)改委:2026年春節(jié)放假9天并減少調(diào)休!元旦動車/城際有新調(diào)整→

城事特搜
2025-12-27 18:38:10
梅西已經(jīng)抵達烏拉圭,將參加蘇亞雷斯女兒15歲生日派對

梅西已經(jīng)抵達烏拉圭,將參加蘇亞雷斯女兒15歲生日派對

懂球帝
2025-12-27 11:09:07
2025-12-27 23:15:00
人工智能學(xué)家 incentive-icons
人工智能學(xué)家
人工智能領(lǐng)域權(quán)威媒體
4423文章數(shù) 37357關(guān)注度
往期回顧 全部

教育要聞

五年級附加題難度確實不小,很多孩子看到就直接放棄!

頭條要聞

澤連斯基:烏在領(lǐng)土及扎波羅熱核電站問題上有明確紅線

頭條要聞

澤連斯基:烏在領(lǐng)土及扎波羅熱核電站問題上有明確紅線

體育要聞

NBA教練圈的布朗尼,花了22年證明自己

娛樂要聞

張昊唯逃稅涉黃風(fēng)波落幕:法院認定朋友造謠

財經(jīng)要聞

注意,開始拉物價了!

科技要聞

小米也漲價了!業(yè)界稱終端再不漲明年必虧

汽車要聞

好音響比大屏更重要?車企開始“聽”用戶的

態(tài)度原創(chuàng)

時尚
本地
手機
數(shù)碼
公開課

穿好雪地靴的4個訣竅,還挺有效!

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬年史書

手機要聞

榮耀第二款“萬級”電池曝光,下月發(fā)

數(shù)碼要聞

備戰(zhàn)“內(nèi)存荒”:消息稱廠商直接與三星、SK海力士談判

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版