国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

當(dāng)AI遇到"健忘癥":芝加哥大學(xué)團隊如何讓智能助手不再胡編亂造

0
分享至


在人工智能飛速發(fā)展的今天,我們已經(jīng)習(xí)慣了與智能助手的日常對話。但你有沒有遇到過這樣的情況:明明問了一個簡單的問題,AI卻信誓旦旦地給出了完全錯誤的答案,而且說得特別自信?這種現(xiàn)象被研究者們稱為"AI幻覺",就像一個健忘的朋友,不記得某件事的時候卻不愿意承認,反而編造出一個聽起來很合理的故事。

來自芝加哥伊利諾伊大學(xué)、紐約大學(xué)和莫納什大學(xué)的研究團隊最近發(fā)表了一項突破性研究,題為《QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented Generation》。這項研究發(fā)表于2024年12月,論文編號為arXiv:2512.19134v1。研究團隊由芝加哥伊利諾伊大學(xué)的閔德海(Dehai Min)和程璐(Lu Cheng)領(lǐng)導(dǎo),與紐約大學(xué)的張凱麟(Kailin Zhang)以及莫納什大學(xué)的吳童童(Tongtong Wu)合作完成。

這個研究團隊發(fā)現(xiàn)了一個有趣的現(xiàn)象:當(dāng)前的AI系統(tǒng)就像一個過分自信的學(xué)生,即使不知道答案也要硬著頭皮回答,而且往往表現(xiàn)得特別確定。更糟糕的是,傳統(tǒng)的檢測AI是否在"撒謊"的方法就像通過觀察學(xué)生的表情來判斷他們是否在說真話一樣不可靠。這些方法主要依賴AI內(nèi)部的信號,比如它說話時的"猶豫程度"或"緊張程度",但研究發(fā)現(xiàn)這些信號并不能準確反映AI是否真的知道答案。

研究團隊提出了一個全新的解決方案,叫做QuCo-RAG(Quantifying uncertainty via pre-training Corpus for Retrieval-Augmented Generation)。這個方法的核心思想特別巧妙:與其試圖從AI的"表情"判斷它是否在撒謊,不如直接檢查它的"記憶庫"——也就是訓(xùn)練它時用的所有資料。

想象一下,如果你想知道一個朋友是否真的了解某個歷史事件,最好的方法不是看他說話時是否緊張,而是檢查他曾經(jīng)讀過的所有歷史書籍中是否提到過這個事件。QuCo-RAG就是基于這樣的邏輯:如果AI在訓(xùn)練時很少見到某個概念,或者從來沒有看到過兩個概念同時出現(xiàn),那它很可能對相關(guān)問題不太了解,這時就應(yīng)該讓它去"查資料"再回答。

這項研究的創(chuàng)新之處在于,它首次將AI的不確定性檢測從主觀的內(nèi)部信號轉(zhuǎn)向了客觀的統(tǒng)計數(shù)據(jù)。研究團隊開發(fā)了一套兩階段的檢測系統(tǒng):第一階段在AI開始回答之前,檢查問題中提到的概念在訓(xùn)練資料中出現(xiàn)的頻率;第二階段在AI生成答案的過程中,實時驗證它所聲稱的事實關(guān)聯(lián)是否在訓(xùn)練資料中得到支持。

一、傳統(tǒng)方法的困境:為什么AI的"表情"不可信

現(xiàn)有的動態(tài)檢索增強生成方法就像試圖通過觀察演員的微表情來判斷他們是否在演戲一樣困難。這些方法主要依賴AI內(nèi)部的各種信號,包括詞匯生成的概率、信息熵、注意力權(quán)重等等。然而,這種做法存在一個根本性的問題:AI系統(tǒng)本身就缺乏良好的"自我認知"能力。

研究團隊通過大量實驗發(fā)現(xiàn),當(dāng)前主流的不確定性檢測方法,比如DRAGIN系統(tǒng),經(jīng)常會出現(xiàn)令人啼笑皆非的錯誤判斷。在一個典型的案例中,當(dāng)被問及"《誘惑者》和《圣女貞德的審判》的導(dǎo)演是否來自同一個國家"時,DRAGIN對問題中的普通詞匯"Il"(意大利語中的冠詞)表現(xiàn)出高度不確定性,卻對完全虛構(gòu)的導(dǎo)演名字"馬里奧·卡梅里尼"表現(xiàn)出極高的信心。這就像一個學(xué)生對簡單的語法感到困惑,卻對自己編造的歷史事實深信不疑。

這種現(xiàn)象的根源在于AI訓(xùn)練過程中的一個內(nèi)在矛盾。為了讓AI更好地服務(wù)用戶,研究者們通常會對它進行所謂的"監(jiān)督微調(diào)"和"強化學(xué)習(xí)"訓(xùn)練,讓它盡量給出確定的答案,避免說"不知道"。這就像訓(xùn)練一個銷售員永遠要表現(xiàn)得對產(chǎn)品很了解一樣,結(jié)果是AI學(xué)會了即使不確定也要裝作很確定的樣子。

更加麻煩的是,理論研究表明,即使是完美校準的AI模型,在面對罕見事實時也必須選擇性地"撒謊"以維持統(tǒng)計一致性。這就像一個誠實的占卜師:如果他總是說"我不知道",人們就不會相信他的預(yù)測能力;但如果他對每個問題都給出確定答案,就不可避免地會出錯。

傳統(tǒng)方法的另一個問題是它們過于依賴模型內(nèi)部的復(fù)雜信號。比如,有些方法會觀察AI生成文本時的"注意力分布",就像試圖通過觀察一個人眼球的轉(zhuǎn)動來判斷他在想什么一樣。這些信號不僅難以解釋,而且在不同的模型和任務(wù)中表現(xiàn)很不穩(wěn)定。一個在某種情況下表現(xiàn)良好的不確定性指標,在另一種情況下可能完全失效。

二、QuCo-RAG的創(chuàng)新思路:從"讀心術(shù)"到"查檔案"

QuCo-RAG的核心創(chuàng)新在于徹底改變了檢測AI不確定性的思路。傳統(tǒng)方法就像試圖通過觀察一個人的面部表情來判斷他是否在說謊,而QuCo-RAG則選擇直接查看這個人曾經(jīng)接觸過的所有信息,以此來判斷他是否可能知道某個特定的事實。

這種方法基于一個簡單而深刻的洞察:AI的知識完全來自于它的訓(xùn)練數(shù)據(jù)。如果某個概念在訓(xùn)練數(shù)據(jù)中很少出現(xiàn),那么AI對它的理解就可能不夠深入;如果兩個概念從來沒有在訓(xùn)練數(shù)據(jù)中同時出現(xiàn)過,那么AI聲稱它們之間存在某種關(guān)系就很可能是在"編故事"。

研究團隊將這個思路具體化為兩個階段的檢測機制。第一個階段發(fā)生在AI開始生成答案之前,就像老師在學(xué)生答題前先檢查題目的難度一樣。系統(tǒng)會提取問題中的關(guān)鍵實體(比如人名、地名、事件名等),然后查詢這些實體在訓(xùn)練語料庫中出現(xiàn)的頻率。如果平均頻率低于某個閾值,系統(tǒng)就會判斷這個問題涉及"長尾知識"——也就是那些相對冷門、AI可能掌握不好的知識領(lǐng)域。

這就像一個圖書管理員在讀者詢問某本書的信息時,首先檢查這本書在圖書館的借閱記錄。如果這本書很少被借閱,那么管理員可能需要花更多時間去查找詳細信息,而不是憑記憶回答。當(dāng)QuCo-RAG檢測到低頻實體時,它會觸發(fā)檢索機制,讓AI在回答前先"查閱資料"。

第二個階段更加精妙,它發(fā)生在AI生成答案的過程中,就像一個實時的事實核查員。每當(dāng)AI生成一個句子,系統(tǒng)就會自動提取其中的知識三元組——包括主體、關(guān)系和客體。比如,如果AI說"愛因斯坦出生于德國",系統(tǒng)就會提取出(愛因斯坦,出生于,德國)這樣的三元組。

然后,系統(tǒng)會檢查主體和客體(在這個例子中是"愛因斯坦"和"德國")是否曾經(jīng)在訓(xùn)練語料庫中共同出現(xiàn)過。這種"共現(xiàn)檢查"的邏輯很直觀:如果兩個概念在大規(guī)模語料庫中從來沒有一起出現(xiàn)過,那么AI聲稱它們之間存在某種關(guān)系很可能是無中生有。

值得注意的是,這種檢查是不對稱的。如果兩個概念曾經(jīng)共同出現(xiàn),不能保證AI的說法是正確的(因為它們可能在不同的語境中出現(xiàn),或者以不同的關(guān)系連接);但如果兩個概念從來沒有共同出現(xiàn)過,那么AI的說法很可能是錯誤的。這就像法庭上的證據(jù):有證據(jù)不一定證明有罪,但沒有證據(jù)通常意味著指控站不住腳。

為了實現(xiàn)這種實時的語料庫查詢,研究團隊使用了一個叫做Infini-gram的先進工具。這個工具可以在幾毫秒內(nèi)處理對數(shù)萬億個詞匯的查詢請求,就像一個超級高效的搜索引擎。通過這種技術(shù),QuCo-RAG能夠在不影響對話流暢性的前提下,實時驗證AI生成內(nèi)容的可靠性。

當(dāng)系統(tǒng)檢測到潛在的幻覺風(fēng)險時,它會構(gòu)造一個針對性的查詢,然后從外部知識庫檢索相關(guān)信息,并要求AI根據(jù)這些可靠信息重新生成答案。這就像給一個健忘的朋友提供了一本隨身參考書,讓他在不確定時可以隨時查閱。

三、實驗驗證:從理論到實踐的跨越

為了驗證QuCo-RAG方法的有效性,研究團隊設(shè)計了一系列全面的實驗。他們首先選擇了OLMo-2模型系列作為主要測試對象,這個選擇很有戰(zhàn)略意義:OLMo-2是一個開源模型,研究者可以完全訪問其4萬億詞匯的訓(xùn)練語料庫,這為精確的統(tǒng)計驗證提供了可能。

實驗在兩個廣泛認可的多跳問答數(shù)據(jù)集上進行:2WikiMultihopQA和HotpotQA。這兩個數(shù)據(jù)集的問題都需要AI進行多步推理,比如"誰比較年長,《電影A》的導(dǎo)演還是《電影B》的導(dǎo)演?"這類問題要求AI首先找到兩部電影的導(dǎo)演,然后比較他們的年齡。這種復(fù)雜性正好測試了動態(tài)檢索系統(tǒng)在復(fù)雜推理過程中的表現(xiàn)。

實驗結(jié)果令人印象深刻。在OLMo-2-7B模型上,QuCo-RAG在2WikiMultihopQA數(shù)據(jù)集上達到了32.7%的精確匹配率,比最強的基線方法提高了7.4個百分點。在HotpotQA上的表現(xiàn)同樣出色,達到了35.3%的精確匹配率,比基線提高了5.6個百分點。隨著模型規(guī)模的增大,這種優(yōu)勢變得更加明顯:在OLMo-2-13B上,QuCo-RAG在2WikiMultihopQA上的提升達到了驚人的12個百分點。

更有意思的是,QuCo-RAG在效率方面也表現(xiàn)優(yōu)異。雖然它需要進行額外的語料庫查詢,但由于其精準的觸發(fā)機制,平均每個問題只需要1.7次檢索操作,遠少于那些頻繁觸發(fā)檢索的基線方法。一些基線方法雖然進行了更多的檢索操作,但由于缺乏準確的不確定性判斷,反而取得了更差的結(jié)果。

為了進一步驗證方法的普適性,研究團隊進行了跨模型轉(zhuǎn)移實驗。他們使用OLMo-2的訓(xùn)練語料庫來為其他模型(如Llama-3、Qwen2.5和GPT系列)提供統(tǒng)計信息。這種做法基于一個重要假設(shè):大規(guī)模的網(wǎng)絡(luò)語料庫之間存在substantial overlap(大量重疊)。實驗結(jié)果證實了這個假設(shè)的正確性:即使使用"代理語料庫",QuCo-RAG仍然能夠顯著提升這些模型的表現(xiàn)。

在Qwen2.5-32B上,QuCo-RAG在2WikiMultihopQA上的提升達到了14.1個百分點,這是一個非常顯著的進步。即使是在GPT-4.1和GPT-5這樣的先進模型上,QuCo-RAG也能帶來4-8個百分點的提升。有趣的是,這些GPT模型自帶的網(wǎng)絡(luò)搜索功能反而表現(xiàn)不佳,往往比不使用任何檢索的baseline還要差,這說明簡單的網(wǎng)絡(luò)搜索并不能有效解決復(fù)雜推理中的幻覺問題。

四、深入分析:方法的精妙之處

為了更深入理解QuCo-RAG的工作機制,研究團隊進行了詳細的消融實驗。他們發(fā)現(xiàn),兩個檢測階段都對最終性能有重要貢獻,但作用方式不同。預(yù)生成知識評估(第一階段)主要幫助系統(tǒng)識別那些涉及冷門知識的問題,平均能帶來2.5個百分點的提升。而運行時聲明驗證(第二階段)的貢獻更大,能帶來5.1個百分點的提升,這表明實時的幻覺檢測是系統(tǒng)成功的關(guān)鍵。

研究團隊還分析了不同實體頻率范圍內(nèi)的表現(xiàn)差異。他們將測試問題按照其中實體的平均頻率分成幾個區(qū)間,結(jié)果發(fā)現(xiàn)了一個有趣的模式。在低頻實體區(qū)間(頻率0-10),QuCo-RAG的優(yōu)勢最為明顯,比無檢索基線提升了10-17個百分點。這正好驗證了方法的核心假設(shè):實體頻率確實是預(yù)測AI知識可靠性的有效指標。

更令人驚訝的是,在高頻實體區(qū)間(頻率>1000),QuCo-RAG仍然能夠持續(xù)改進,而許多基線方法的表現(xiàn)反而出現(xiàn)下降。研究團隊分析認為,這種現(xiàn)象源于兩個原因:首先,傳統(tǒng)方法在面對熟悉概念時容易過度自信,即使生成錯誤內(nèi)容也不會觸發(fā)檢索;其次,高頻實體在語料庫中有更豐富的關(guān)系文檔,使得共現(xiàn)統(tǒng)計更加可靠。

為了測試方法的領(lǐng)域泛化能力,研究團隊在生物醫(yī)學(xué)問答數(shù)據(jù)集PubMedQA上進行了額外實驗。這個領(lǐng)域的知識高度專業(yè)化,與通用語料庫的重疊相對較少。盡管如此,QuCo-RAG仍然取得了最佳的準確率(66.4%),同時保持了很高的效率(平均每問題0.93次檢索,54.9個詞匯消耗)。

有趣的是,傳統(tǒng)的內(nèi)部信號方法在這個專業(yè)領(lǐng)域表現(xiàn)出了兩種截然不同的失敗模式。FLARE方法出現(xiàn)了過度檢索的問題,平均每個問題觸發(fā)2.79次檢索,大大增加了計算成本。而DRAGIN和ETC方法則出現(xiàn)了檢索不足的問題,它們的表現(xiàn)甚至不如完全不使用檢索的基線。這說明內(nèi)部信號方法難以適應(yīng)領(lǐng)域變化,而基于語料庫統(tǒng)計的方法具有更好的魯棒性。

五、技術(shù)實現(xiàn)的巧思

QuCo-RAG系統(tǒng)的技術(shù)實現(xiàn)體現(xiàn)了研究團隊的巧妙設(shè)計。為了最小化系統(tǒng)開銷,他們開發(fā)了一個輕量級的知識三元組抽取器。這個抽取器基于GPT-4o-mini進行蒸餾訓(xùn)練,使用4萬個精心標注的樣本,最終得到一個只有5億參數(shù)的專用模型。這個模型可以高效地從生成的句子中提取形如(主體,關(guān)系,客體)的知識三元組。

抽取器的訓(xùn)練策略很有針對性。對于包含事實性知識的陳述句,它會提取完整的知識三元組;對于問句,它會提取部分三元組(因為答案未知);對于推理結(jié)論性的句子(如"因此"、"所以"開頭的句子),它會返回空結(jié)果,因為這些句子通常不包含新的可驗證事實。

在共現(xiàn)驗證方面,系統(tǒng)選擇檢查主體和客體的共現(xiàn)而不是包含關(guān)系的完整三元組。這個設(shè)計決策基于一個重要觀察:關(guān)系表達具有高度的詞匯變異性(比如"就職于"vs"工作在"vs"受雇于"),而命名實體相對穩(wěn)定。因此,檢查實體對的共現(xiàn)既保持了驗證的準確性,又避免了關(guān)系表達變化帶來的困擾。

系統(tǒng)設(shè)置了合理的閾值參數(shù):實體頻率閾值設(shè)為1000,共現(xiàn)閾值設(shè)為1。研究團隊發(fā)現(xiàn),這些參數(shù)在相當(dāng)大的范圍內(nèi)都表現(xiàn)穩(wěn)定。實體頻率閾值可以在10^3到10^7之間變化而不顯著影響性能;而共現(xiàn)閾值為1具有清晰的語義:零共現(xiàn)強烈提示潛在幻覺。

為了保證實時性能,系統(tǒng)充分利用了Infini-gram這一先進的索引工具。Infini-gram使用后綴數(shù)組技術(shù),能夠在毫秒級時間內(nèi)處理針對萬億詞匯語料庫的n-gram查詢。這種高效性使得QuCo-RAG可以在不明顯影響對話流暢性的情況下進行實時驗證。

六、現(xiàn)實意義與局限性

QuCo-RAG方法的成功不僅僅是學(xué)術(shù)上的進步,更具有重要的現(xiàn)實意義。在當(dāng)前AI系統(tǒng)廣泛部署的背景下,如何確保AI生成內(nèi)容的可靠性成為一個迫切的社會問題。傳統(tǒng)的后驗事實檢查往往為時已晚,而QuCo-RAG提供了一種前瞻性的解決方案。

這種方法特別適用于那些對準確性要求較高的應(yīng)用場景。比如在醫(yī)療咨詢、法律分析、教育輔助等領(lǐng)域,AI的錯誤信息可能導(dǎo)致嚴重后果。通過實時檢測和糾正潛在的幻覺內(nèi)容,QuCo-RAG可以顯著提高這些關(guān)鍵應(yīng)用的可靠性。

同時,這項研究還為AI安全性提供了新的視角。不同于試圖讓AI"學(xué)會說不知道"的傳統(tǒng)方法,QuCo-RAG提供了一個客觀、可驗證的不確定性量化機制。這種外部化的驗證方式更加透明和可解釋,也更容易被監(jiān)管和審計。

然而,研究團隊也誠實地承認了方法的局限性。首先是詞匯匹配的限制。當(dāng)前的共現(xiàn)驗證依賴于精確的詞匯匹配,可能會錯過那些使用不同表述但指向同一實體的情況。比如"紐約市"和"NYC"指向同一地點,但在系統(tǒng)看來它們是不同的實體。這種限制可能導(dǎo)致一些誤報。

其次是靜態(tài)語料庫的時間局限性。預(yù)訓(xùn)練語料庫通常有一個固定的截止時間,無法包含更新的信息。因此,對于那些在語料庫創(chuàng)建之后出現(xiàn)的新實體或新事件,系統(tǒng)可能無法提供準確的統(tǒng)計信息。這個問題需要通過定期更新語料庫索引來解決。

盡管存在這些局限性,研究團隊認為這些都是可以通過技術(shù)改進來解決的問題。比如,可以引入實體鏈接和標準化技術(shù)來解決詞匯變異問題;可以建立動態(tài)更新機制來保持語料庫的時效性。更重要的是,當(dāng)前方法的保守策略(寧可多檢索也不愿意錯過幻覺)在大多數(shù)應(yīng)用場景中是合適的,因為多余檢索的代價通常遠小于錯誤信息的代價。

七、未來展望與啟示

QuCo-RAG的成功開啟了AI可靠性研究的新方向。這項研究表明,與其試圖讓AI系統(tǒng)"內(nèi)省"自己的知識狀態(tài),不如建立外部的、客觀的驗證機制。這種思路可能對整個AI領(lǐng)域產(chǎn)生深遠影響。

研究團隊展望了幾個值得探索的方向。首先是多語言驗證,通過跨語言的統(tǒng)計信息來增強驗證的魯棒性。其次是時間動態(tài)建模,考慮知識的時間演化特性。第三是擴展到事件、關(guān)系和數(shù)值聲明的驗證,而不僅僅是實體關(guān)系。

從更廣泛的角度看,這項研究體現(xiàn)了一個重要趨勢:從推理時干預(yù)轉(zhuǎn)向數(shù)據(jù)驅(qū)動的AI改進。通過精確識別模型的知識gaps,研究者不僅可以在推理時進行補償,還可以指導(dǎo)訓(xùn)練數(shù)據(jù)的收集和模型的進一步優(yōu)化。這種數(shù)據(jù)中心的思維方式可能會重新定義AI系統(tǒng)的開發(fā)和部署流程。

QuCo-RAG還為AI的可解釋性提供了新的思路。傳統(tǒng)的可解釋性方法通常關(guān)注模型的內(nèi)部機制,而QuCo-RAG提供了一種基于外部證據(jù)的解釋框架。當(dāng)系統(tǒng)判斷某個生成內(nèi)容不可靠時,它可以明確指出缺乏哪些統(tǒng)計證據(jù)支持,這種解釋更加直觀和可驗證。

最后,這項研究對AI治理和監(jiān)管也有重要啟示。隨著AI系統(tǒng)在社會中扮演越來越重要的角色,如何確保其輸出的可靠性成為一個治理難題。QuCo-RAG提供的客觀驗證機制可能成為AI審計和監(jiān)管的重要工具。監(jiān)管者可以要求AI服務(wù)提供商實施類似的驗證機制,以確保其系統(tǒng)的可靠性達到一定標準。

總的來說,這項由芝加哥伊利諾伊大學(xué)團隊領(lǐng)導(dǎo)的研究不僅解決了一個重要的技術(shù)問題,更為AI的可靠性和安全性研究開辟了新的道路。它提醒我們,有時候解決復(fù)雜問題的最好方法不是讓系統(tǒng)變得更聰明,而是給它提供更好的工具來認識和承認自己的局限性。在AI技術(shù)日新月異的今天,這種謙遜而務(wù)實的方法論可能正是我們最需要的。

Q&A

Q1:QuCo-RAG是什么技術(shù)?

A:QuCo-RAG是芝加哥伊利諾伊大學(xué)團隊開發(fā)的一種新型AI可靠性檢測技術(shù)。它通過檢查AI訓(xùn)練數(shù)據(jù)中的統(tǒng)計信息來判斷AI回答是否可靠,而不是依賴AI內(nèi)部的信號。當(dāng)發(fā)現(xiàn)AI可能不了解某個問題時,系統(tǒng)會讓AI先查閱資料再回答。

Q2:QuCo-RAG如何檢測AI是否在"胡編亂造"?

A:QuCo-RAG采用兩階段檢測:第一階段檢查問題中概念在訓(xùn)練數(shù)據(jù)中的出現(xiàn)頻率,頻率太低說明AI可能不熟悉;第二階段檢查AI聲稱的事實關(guān)聯(lián)是否在訓(xùn)練數(shù)據(jù)中得到支持,如果兩個概念從未同時出現(xiàn)過,很可能是AI在編造關(guān)系。

Q3:這項技術(shù)能解決所有AI幻覺問題嗎?

A:不能完全解決,但能顯著改善。QuCo-RAG在多個測試中將AI準確率提升了5-14個百分點。它的局限性包括只能檢測詞匯完全匹配的情況,以及受訓(xùn)練數(shù)據(jù)時效性限制。但這種基于客觀統(tǒng)計的方法比傳統(tǒng)的內(nèi)部信號檢測要可靠得多。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
我是河南人,從臺灣回來,實在忍不住想說:臺灣給我的5點印象

我是河南人,從臺灣回來,實在忍不住想說:臺灣給我的5點印象

i書與房
2026-01-01 16:58:55
美國提醒日本,小心被中國揍!日本天皇急召高市早苗:有要事交代

美國提醒日本,小心被中國揍!日本天皇急召高市早苗:有要事交代

興史興談
2025-12-31 18:51:20
一歲寶寶突然性情大變,厭食一周!上海醫(yī)生檢查后發(fā)現(xiàn)竟是這個原因,奶奶驚呼:疏忽了

一歲寶寶突然性情大變,厭食一周!上海醫(yī)生檢查后發(fā)現(xiàn)竟是這個原因,奶奶驚呼:疏忽了

環(huán)球網(wǎng)資訊
2026-01-01 07:16:13
無意之中和親戚談戀愛是啥體驗?網(wǎng)友:近親不能結(jié)婚,建議五代外

無意之中和親戚談戀愛是啥體驗?網(wǎng)友:近親不能結(jié)婚,建議五代外

解讀熱點事件
2025-12-29 01:45:30
最低溫-11℃!小雪局部中雪、小雨或雨夾雪,陣風(fēng)7~8級,山東最新元旦假期天氣→

最低溫-11℃!小雪局部中雪、小雨或雨夾雪,陣風(fēng)7~8級,山東最新元旦假期天氣→

魯中晨報
2026-01-01 16:25:12
2025年有一種痛苦叫搬進了“大平層”,不好住不好賣,已淪不動產(chǎn)

2025年有一種痛苦叫搬進了“大平層”,不好住不好賣,已淪不動產(chǎn)

巢客HOME
2025-12-25 07:25:03
母親電話說新年天冷別回去了,我回答說好,卻收到她要的禮物清單

母親電話說新年天冷別回去了,我回答說好,卻收到她要的禮物清單

周哥一影視
2025-12-30 11:30:23
因長得太漂亮,7次拒絕導(dǎo)演要求遭打壓,如今43歲才等到掌聲

因長得太漂亮,7次拒絕導(dǎo)演要求遭打壓,如今43歲才等到掌聲

黎兜兜
2025-12-25 21:57:32
臺海和平新方案橫空出世:拋棄,“一國兩制”的新模式行不行?

臺海和平新方案橫空出世:拋棄,“一國兩制”的新模式行不行?

解鎖世界風(fēng)云
2025-12-28 00:10:47
吳越公開84歲父親中風(fēng)沒去養(yǎng)老院,在家請護工,自己53歲還未育

吳越公開84歲父親中風(fēng)沒去養(yǎng)老院,在家請護工,自己53歲還未育

銀河史記
2025-12-17 01:26:27
好萊塢電影很少以中國為反派?美國:把中國設(shè)為最終大Boss更厲害

好萊塢電影很少以中國為反派?美國:把中國設(shè)為最終大Boss更厲害

詩意世界
2025-12-31 17:34:55
倫銅破萬+庫存見底!6元銅陵有色,下一個10倍大黑馬?

倫銅破萬+庫存見底!6元銅陵有色,下一個10倍大黑馬?

墜入二次元的海洋
2026-01-01 15:45:46
榮耀新機撞臉iPhone17 Pro Max!配色、鏡頭模組高度相似

榮耀新機撞臉iPhone17 Pro Max!配色、鏡頭模組高度相似

鞭牛士
2025-12-30 18:19:14
明朝一男子將私房錢藏于木雕中,藏了600年,幾任收藏家都沒發(fā)現(xiàn)

明朝一男子將私房錢藏于木雕中,藏了600年,幾任收藏家都沒發(fā)現(xiàn)

銘記歷史呀
2025-12-30 18:14:57
許光達愧受大將軍銜,他對賀老總說:段師長才是實至名歸的大將

許光達愧受大將軍銜,他對賀老總說:段師長才是實至名歸的大將

健康快樂丁
2026-01-01 19:11:26
京粵大戰(zhàn)在即,廣東傳來壞消息,3大支柱缺一門,杜鋒拿誰來填補

京粵大戰(zhàn)在即,廣東傳來壞消息,3大支柱缺一門,杜鋒拿誰來填補

萌蘭聊個球
2026-01-01 11:43:47
給2025最好的10部國產(chǎn)劇排名:《生萬物》僅排第2,第1名沒有爭議

給2025最好的10部國產(chǎn)劇排名:《生萬物》僅排第2,第1名沒有爭議

小老頭奇聞
2026-01-01 19:28:01
當(dāng)著70多國的面,普京直言被中國蒙在鼓里,直到最后一刻才知道

當(dāng)著70多國的面,普京直言被中國蒙在鼓里,直到最后一刻才知道

趣生活
2025-12-31 21:01:58
票價原路退回,羅永浩剛剛發(fā)文確認!此前承諾166.87萬元門票收入將全捐

票價原路退回,羅永浩剛剛發(fā)文確認!此前承諾166.87萬元門票收入將全捐

每日經(jīng)濟新聞
2026-01-01 18:18:06
笑死!原來這才是基層公務(wù)員真實的生活

笑死!原來這才是基層公務(wù)員真實的生活

夜深愛雜談
2025-12-08 20:20:44
2026-01-01 20:51:00
至頂AI實驗室 incentive-icons
至頂AI實驗室
一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實驗室。
896文章數(shù) 151關(guān)注度
往期回顧 全部

科技要聞

特斯拉Model 3車主首度全程自駕橫穿美國

頭條要聞

女子稱奶奶去世公司不批假被逼離職 公司法人:害群之馬

頭條要聞

女子稱奶奶去世公司不批假被逼離職 公司法人:害群之馬

體育要聞

2026,這些英超紀錄可能會被打破

娛樂要聞

跨年零點時刻好精彩!何炅飛奔擁抱

財經(jīng)要聞

巴菲特「身退,權(quán)還在」

汽車要聞

一汽-大眾2025年整車銷量超158萬輛 燃油車市占率創(chuàng)新高

態(tài)度原創(chuàng)

游戲
房產(chǎn)
時尚
旅游
軍事航空

“游生贏家” 《ARC Raiders》成績斐然

房產(chǎn)要聞

實景暴擊!??谶@個頂流紅盤,拋出準現(xiàn)房+頂級書包雙王炸!

2025年,記住她們的名字!

旅游要聞

黑龍江方正:360°玩轉(zhuǎn)冰雪

軍事要聞

澤連斯基新年致辭:不要"烏克蘭的終結(jié)"

無障礙瀏覽 進入關(guān)懷版