国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

當AI醫(yī)生只會開全套檢查:南加州大學揭開大模型"假裝調(diào)試"的真相

0
分享至


這項由南加州大學、微軟、威斯康星大學麥迪遜分校和多倫多大學聯(lián)合完成的研究,發(fā)表于2026年4月,論文編號為arXiv:2604.17338。有興趣深入了解的讀者可以通過該編號查詢完整論文。

每個寫過代碼的人都有過這樣的經(jīng)歷:你的程序出了個小毛病,也許只是某個變量寫錯了,或者某個條件判斷反了。你把問題交給AI助手,希望它幫你找出那個"小刺",然后精準地拔掉它。結(jié)果AI回來了,遞給你一份全新的程序,從頭到尾重新寫了一遍——問題確實沒了,但你原來那些精心設(shè)計的代碼邏輯、你特意留下的注釋、你的編程風格,統(tǒng)統(tǒng)消失了。這種感覺,就像你去醫(yī)院說頭疼,醫(yī)生卻給你做了全身換血。

這正是南加州大學等機構(gòu)的研究團隊所關(guān)注的核心問題。他們發(fā)現(xiàn),當今最先進的大型語言模型(也就是GPT、DeepSeek、Gemini這類AI)在處理"幫我調(diào)試代碼"的任務時,普遍存在一種"大力出奇跡"的毛病——它們不是真的在找蟲子、修蟲子,而是在"重新造一條蟲子也沒有的新程序"。

這個發(fā)現(xiàn)本身并不讓人太驚訝,真正讓人在意的是:現(xiàn)有的評估體系根本檢測不出這種行為。就好比一個考試只考學生最終答對了沒有,完全不管他是認真推導還是直接抄了答案。為了揭開這個盲區(qū),研究團隊設(shè)計了一套全新的評測框架,名叫PDB(Precise Debugging Benchmarking,精準調(diào)試基準測試)。

一、為什么"答對了"還不夠

先來理解一個關(guān)鍵問題:現(xiàn)有的測試方法究竟哪里不對勁?

目前評估AI調(diào)試能力最普遍的方式,是看AI修改后的代碼能不能通過"單元測試"。單元測試就像一組考題,你給程序輸入一些數(shù)據(jù),看它輸出的結(jié)果對不對。如果所有考題都答對了,就認為代碼沒有問題,調(diào)試成功。

這個方法看起來很合理,但它有一個致命的漏洞:它只關(guān)心最終結(jié)果,完全不管過程。一個考生把所有題目都背下來了,和另一個考生真正理解了知識、推導出了正確答案,最終得分可能一樣,但兩者的能力天壤之別。

在代碼調(diào)試中,這種漏洞體現(xiàn)得更加直接。假設(shè)一段程序有一個小錯誤,正確的修法是改動其中一行。但AI完全可以選擇另一種策略:把整段程序從頭到尾重新寫一遍,寫出一個功能相同但面目全非的新程序。這個新程序能通過所有測試,因此按現(xiàn)有標準它算是"調(diào)試成功"了。然而,在真實的軟件開發(fā)中,這種做法會帶來巨大的麻煩——你的同事需要重新理解整段代碼,代碼審查的工作量成倍增加,原有的代碼結(jié)構(gòu)和設(shè)計意圖被徹底破壞,還可能引入新的、尚未發(fā)現(xiàn)的錯誤。

更糟糕的是,現(xiàn)有測試對"部分成功"視而不見。如果一段代碼有三個獨立的錯誤,AI修好了其中兩個但沒修第三個,和AI一個都沒修對,在現(xiàn)有評測體系下得到的是同樣的分數(shù)——零分。這就好比你打了一場三局兩勝的比賽,贏了兩局,裁判卻告訴你這場比賽你輸了。

正是這兩個問題驅(qū)使研究團隊設(shè)計了一套全新的評測體系。

二、像法醫(yī)一樣評估每一個改動

PDB框架的核心思想,是把評估的焦點從"最終結(jié)果"轉(zhuǎn)移到"每一刀切在哪里"。

研究團隊定義了兩個全新的評估指標。第一個叫做"編輯精準度",衡量的是AI的每一處改動有多少是真正必要的。如果AI總共改動了10行代碼,但其中只有2行是為了修復實際的錯誤,其余8行都是多余的"順手改改",那么精準度就只有20%。第二個指標叫"錯誤召回率",衡量的是AI成功修復了多少個原本存在的錯誤。如果程序里有3個獨立的錯誤,AI修好了2個,召回率就是67%。

這兩個指標配合起來,才能完整描述一個AI"調(diào)試醫(yī)生"的真實水平。一個優(yōu)秀的調(diào)試醫(yī)生,應該能精準找到病灶(高召回率),同時只切除病灶而不傷害周圍健康組織(高精準度)。而一個熱衷于"全身換血"的醫(yī)生,可能召回率看起來不錯,但精準度會極低——因為他改動了大量本來就沒錯的代碼。

為了讓這套評測體系能夠?qū)嶋H運轉(zhuǎn),研究團隊還設(shè)計了一個自動化的"制造錯誤"流水線。他們從已有的編程題庫中取出正確的代碼,然后用AI在代碼中精心植入錯誤——就像考古學家在文物里埋入可追蹤的標記一樣。這些植入的錯誤經(jīng)過精心設(shè)計,滿足兩個關(guān)鍵條件:其一是"原子性",每個錯誤由連續(xù)的幾行代碼構(gòu)成,是一個不可分割的整體;其二是"獨立性",不同錯誤之間互不干擾,修復一個不會影響另一個。

通過這套流水線,研究團隊生成了兩個評測數(shù)據(jù)集:一個叫PDB-SINGLE-HARD,包含5751個樣本,專門針對單行錯誤;另一個叫PDB-MULTI,包含256個樣本,針對跨越多行的復雜錯誤。這兩個數(shù)據(jù)集就成了后續(xù)所有實驗的"考場"。

三、頂尖AI的真實調(diào)試能力:一場令人意外的排名顛覆

當研究團隊把9個頂級AI模型拉進考場時,結(jié)果出人意料。

GPT-5.1-Codex和DeepSeek-V3.2-Thinking在按傳統(tǒng)標準(通過率)排名時表現(xiàn)亮眼,單元測試通過率都超過76%,看起來是調(diào)試高手。然而當精準度指標登場,畫風突變——兩者的編輯精準度都不超過45%,這意味著它們的改動里有超過一半都是不必要的"亂刀"。GPT-5.1-Codex的精準度更是只有39.7%,在9個模型中墊底。

與此形成鮮明對比的是Qwen3-Coder-480B。這個模型的單元測試通過率只有70%,按傳統(tǒng)標準看并不算最好,但它的編輯精準度高達66%——比GPT-5.1-Codex高出將近27個百分點。換句話說,Qwen3-Coder-480B雖然有時候沒能完全修好代碼,但每次動手時,它的改動都相當精準,很少亂改不該改的地方。

表現(xiàn)最出色的是Claude-Sonnet-4.5和Gemini-2.5-Pro,兩者在精準度(超過71%)和召回率(超過81%)上都領(lǐng)先,同時通過率也在75%以上。它們最接近"精準外科醫(yī)生"的理想形態(tài)。

研究團隊把這些模型分成了四種類型。第一類是"精準而成功"的醫(yī)生,代表是Claude和Gemini,它們能修好大部分錯誤,同時保持很高的手術(shù)精準度。第二類是"不算神準但還算精細"的醫(yī)生,代表是Qwen3-Coder-480B,通過率一般但精準度不低。第三類是"找得到病灶但修不好"的醫(yī)生,代表是Kimi-K2系列和Grok-Code-Fast,它們能識別出問題所在,但經(jīng)常把修復工作搞砸,精準度低于57%。第四類則是"只求通過、大刀闊斧"的醫(yī)生,代表是DeepSeek-V3.2、DeepSeek-V3.2-Thinking和GPT-5.1-Codex,它們傾向于重寫大量代碼,通過率不低但精準度很差。

四、錯誤越多,AI越傾向于"推倒重建"

研究團隊還做了一項有趣的追蹤分析,考察當代碼中的錯誤數(shù)量從1個增加到4個時,各項指標如何變化。

結(jié)果呈現(xiàn)出一種耐人尋味的規(guī)律。隨著錯誤數(shù)量增多,單元測試通過率在所有模型上都穩(wěn)步下降,這符合直覺——問題越多越難全部修好。但編輯精準度的變化方向正好相反:錯誤越多,精準度反而越低。

這背后的邏輯其實頗為微妙。當代碼里只有一個錯誤時,AI如果選擇全部重寫,它那些"多余的改動"相對整個程序來說比例也許不算太高。但當錯誤增多時,AI會越來越傾向于更大范圍地重寫,多余改動的絕對數(shù)量快速增加,精準度因此急劇下滑。這印證了一個推斷:錯誤數(shù)量越多,AI就越傾向于放棄"精準修復"策略,轉(zhuǎn)而采用"干脆重寫"的懶人路線。

召回率的變化則呈現(xiàn)出更復雜的模式,它與使用的數(shù)據(jù)集類型密切相關(guān)。在API調(diào)用類題目(來自BigCodeBench)中,隨著錯誤數(shù)量增多,召回率幾乎保持穩(wěn)定,波動不超過5%;但在算法類題目(來自LiveCodeBench)中,召回率會隨錯誤數(shù)量明顯下降,與通過率呈現(xiàn)正相關(guān)。這說明,算法類代碼的多個錯誤之間往往有更復雜的相互影響,修復難度隨數(shù)量呈非線性增長。

五、迭代反饋能救場嗎?答案令人失望

既然單次調(diào)試精準度不夠,那給AI多幾次機會、提供執(zhí)行反饋,結(jié)果會不會更好?研究團隊專門測試了兩種增強策略。

第一種叫"迭代調(diào)試":AI先給出一次修復方案,如果測試不過,就讓它看到自己失敗的嘗試,再試一次,最多給三次機會。第二種叫"代理調(diào)試":在迭代的基礎(chǔ)上,還額外提供單元測試的具體內(nèi)容和程序運行時的錯誤信息,讓AI知道"哪道題答錯了、錯誤信息是什么",然后再嘗試修復。

實驗結(jié)果相當令人沮喪。兩種增強策略都能提升單元測試通過率和召回率,說明給多幾次機會確實有助于最終修好更多錯誤。然而,編輯精準度不僅沒有提升,在很多情況下反而比單次調(diào)試更低。

更具體地說,代理調(diào)試在精準度上往往還不如迭代調(diào)試。這意味著,當AI看到運行錯誤信息時,它的反應不是"好,讓我更精準地定位問題",而是"出錯了,那我就大改一番"。錯誤信息被當成了觸發(fā)"重寫模式"的信號,而不是輔助精準定位的線索。

即便是Claude-Code這個在代理調(diào)試方面最為先進的系統(tǒng),精準度也只能達到大約50%——依然有一半的改動是多余的。這說明問題不在于"信息夠不夠多",而在于這些AI模型的訓練目標從根本上就不是"精準定點修復",而是"讓程序能跑過測試"。

六、提示詞的力量與局限

研究團隊還測試了另一種直覺上可行的解法:直接在提示詞中明確要求AI"只改必要的地方,不要重寫"。

結(jié)果相當有意思。明確要求"最小化改動"的提示詞確實能大幅提升精準度——尤其是Gemini-2.5-Pro,加上這個要求之后精準度提升了整整40個百分點,效果驚人。GPT-5.1-Codex在沒有這個約束時精準度不到20%,加上約束后有明顯改善。

但這里有個關(guān)鍵問題:Gemini之所以能在加了約束之后精準度大幅提升,恰恰說明它原本的高精準度有多少來自于"聽話"而不是"真正理解"。它的"精準"是被約束出來的,而不是發(fā)自內(nèi)部對代碼結(jié)構(gòu)的深刻理解。一旦沒人約束它,它會立即回到"大改一通"的老習慣。GPT-5.1-Codex在自由發(fā)揮時精準度連20%都不到,說明它的默認模式就是"不管你說不說,我都重寫"。

這組對比揭示了一個關(guān)于AI訓練方式的深層問題:現(xiàn)有的代碼AI在訓練時,核心目標是"寫出能通過測試的代碼",而不是"以最小改動修復已有代碼"。這兩種目標在實踐中會培養(yǎng)出截然不同的行為模式。前者獎勵的是"不管怎么修,通過就行",后者要求的是"找到根本原因,精準切除"。

七、現(xiàn)實世界中的錯誤也難逃這個規(guī)律

為了驗證這套評測框架在真實場景中同樣有效,研究團隊把PDB應用到了一個來自真實代碼倉庫的調(diào)試數(shù)據(jù)集DebugBench上。這個數(shù)據(jù)集里的錯誤是真實存在過的、被人工核實過的程序漏洞。

結(jié)果顯示,同樣的規(guī)律在真實錯誤上依然成立。GPT-5.1-Codex在DebugBench上的單元測試通過率高達90%,排名第一,但精準度只有61.9%。Claude-Sonnet-4.5和Gemini-2.5-Pro的通過率分別是87.5%和85%,精準度則分別達到78.4%和79.4%,遠高于GPT。

這說明研究團隊的發(fā)現(xiàn)不是人造數(shù)據(jù)集的特有產(chǎn)物,而是AI調(diào)試行為的一種普遍模式。不論錯誤來自精心設(shè)計的測試環(huán)境還是真實的代碼庫,同樣的"高通過率、低精準度"問題都會在某些模型上出現(xiàn)。

八、數(shù)據(jù)污染不是"鍋"的來源

你可能會想:GPT-5.1-Codex會不會只是"記住"了訓練數(shù)據(jù)里的那些程序,所以當它看到測試用例時,直接回憶出了正確答案而不是真的在調(diào)試?這種"數(shù)據(jù)污染"假說是否能解釋那些看起來很高的通過率?

研究團隊專門設(shè)計了實驗來檢驗這個可能性。他們用另一個AI對原始代碼進行了深度改寫——改變變量名、調(diào)整代碼結(jié)構(gòu)、換用不同的算法實現(xiàn)方式——制造出功能完全相同但"面貌全非"的新代碼,然后觀察精準度和通過率如何變化。

結(jié)果發(fā)現(xiàn),改寫后的代碼確實讓精準度稍微提升了2.8到3.5個百分點,說明消除表面的文本相似度確實有一點點幫助。但這個提升幅度微乎其微,遠遠不足以解釋為什么某些模型的精準度長期徘徊在40%左右。數(shù)據(jù)污染或許是一個小因素,但"大肆重寫"的根本原因在于模型的訓練目標,而不是記憶了哪些具體代碼。

九、錯誤分析:哪里出了問題

研究團隊還對大量調(diào)試失敗案例進行了逐一分析,把失敗模式分成幾類,并給出了具體的代碼示例。

在通過了單元測試但精準度不完美的案例里,最常見的問題(占66.8%)是AI修好了真正的錯誤,但同時對其他本來正確的代碼也做了不必要的改動。第二常見的(占13.7%)是改動雖然正確但不夠精簡,比如用了更復雜的寫法而不是最小改動。還有9.8%的案例是AI添加了多余的防御性檢查,比如在原本不需要的地方加了一大堆條件判斷。只有7.8%是完全重寫,但這類案例對精準度的破壞程度最為慘烈。還有約1.9%的案例頗為有趣:AI精準度低不是因為它改了多余的地方,而是因為它發(fā)現(xiàn)了原始"正確代碼"里本來就存在的隱藏錯誤,幫忙一并修了——這說明評測框架在這種邊緣情況下會略微低估AI的真實能力。

在沒通過單元測試的案例里,研究團隊發(fā)現(xiàn)了一種特別值得關(guān)注的失敗模式:AI修好了所有原本存在的錯誤,卻在修復過程中引入了新的錯誤,這類"越修越壞"的情況占到了39.2%。這說明調(diào)試不僅僅是找到錯誤那么簡單,還需要在修改代碼的過程中不破壞其他部分的正確性——這種對整體程序邏輯的把握能力,目前的AI模型還相當欠缺。

說到底,這項研究揭開的不是一個技術(shù)細節(jié),而是一個關(guān)于AI能力評估方式的根本性問題。我們一直在用"能不能通過測試"來衡量AI調(diào)試水平,但這就像用"能不能解出答案"來衡量一個學生是否真正理解了數(shù)學——會背公式和真正懂數(shù)學是兩回事。

研究團隊的發(fā)現(xiàn)指向了一個清晰的方向:要培養(yǎng)真正懂得"精準調(diào)試"的AI,就需要在訓練階段就把"精準性"作為明確目標,而不只是獎勵最終的通過率。目前的AI代碼助手,很多都是在單元測試這個單一指標下訓練出來的"應試機器",它們學會了用最直接的方式讓程序通過測試,而不是學會了像一個有經(jīng)驗的工程師那樣思考——找到問題的根源,精準地切除它,然后保持其他一切不變。

對于每天使用AI工具輔助編程的開發(fā)者來說,這個研究的啟示相當直接:當你讓AI幫你調(diào)試時,別只看它給的代碼能不能跑,還要仔細比較它改了什么地方、改了多少。如果它把整段程序重寫了,這不是技術(shù)進步,而是一種偷懶——一種連最頂尖的AI模型都還沒完全克服的偷懶習慣。

感興趣的讀者可以通過arXiv編號2604.17338找到完整論文,數(shù)據(jù)集和代碼也已開放,可供進一步探索。

Q&A

Q1:PDB框架的"編輯精準度"具體是怎么計算的?

A:編輯精準度衡量的是AI改動中有多少比例是真正必要的。具體來說,研究團隊會把AI的每一處改動與已知的"最小修復方案"進行對比,看哪些改動真正對應了實際的錯誤修復,哪些是多余的。如果AI改了10行,其中只有3行對應真實錯誤,那精準度就是30%。框架還允許一定容差,允許比最小修復方案多改幾行,以避免過于苛刻。

Q2:GPT-5.1-Codex的調(diào)試精準度為什么這么低?

A:根據(jù)論文分析,GPT-5.1-Codex采用的是一種"以通過測試為第一目標"的策略,傾向于大范圍重寫代碼而不是精準定位錯誤。這與它的訓練方式密切相關(guān)——模型在訓練中被獎勵的是"讓程序通過測試",而不是"用最少的改動修復錯誤"。實驗還證明,即使明確要求它"只做最小改動",它的精準度也相對其他模型改善空間較小,說明這是訓練目標層面的深層問題。

Q3:PDB評測框架和現(xiàn)有調(diào)試基準測試有什么本質(zhì)區(qū)別?

A:現(xiàn)有調(diào)試基準測試通常只看修復后的代碼能否通過單元測試,是二元的對或錯。PDB框架引入了"編輯精準度"和"錯誤召回率"兩個新指標,前者衡量改動的必要性,后者衡量錯誤的修復完整程度,兩者共同描述調(diào)試行為的質(zhì)量。此外,PDB還能區(qū)分部分修復的成功——比如修好了三個錯誤中的兩個,這在舊框架下會得零分,在PDB里會得到應有的部分信用。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
50歲男子肌肉溶解離世,醫(yī)生痛心提醒:長期吃降脂藥犯了5個錯誤

50歲男子肌肉溶解離世,醫(yī)生痛心提醒:長期吃降脂藥犯了5個錯誤

垚垚分享健康
2026-04-28 11:15:14
隨著特魯姆普爆冷12-13,吳宜澤13-11,斯諾克世錦賽8強對陣出爐

隨著特魯姆普爆冷12-13,吳宜澤13-11,斯諾克世錦賽8強對陣出爐

側(cè)身凌空斬
2026-04-28 05:28:25
中共自然資源部黨組關(guān)于趙培劍、丁明柱、趙鳴、宋振亞、周鋒任職的通知

中共自然資源部黨組關(guān)于趙培劍、丁明柱、趙鳴、宋振亞、周鋒任職的通知

海洋知圈
2026-04-27 21:39:53
警惕經(jīng)濟的“無就業(yè)增長”

警惕經(jīng)濟的“無就業(yè)增長”

沈素明
2026-04-28 07:23:38
《妻子的浪漫旅行2026》孫楊回應與妻子張豆豆相處模式引爭議:由于職業(yè)原因,像這樣的旅行是第一次,看到了不足,有一個好老婆很重要

《妻子的浪漫旅行2026》孫楊回應與妻子張豆豆相處模式引爭議:由于職業(yè)原因,像這樣的旅行是第一次,看到了不足,有一個好老婆很重要

魯中晨報
2026-04-28 09:53:07
伊朗最高法院維持死刑判決 父親被判死刑女兒獲刑25年

伊朗最高法院維持死刑判決 父親被判死刑女兒獲刑25年

桂系007
2026-04-27 23:59:53
名記:杜蘭特或已打完火箭生涯最后一場球,下家是紐約和熱火

名記:杜蘭特或已打完火箭生涯最后一場球,下家是紐約和熱火

懂球帝
2026-04-28 09:32:05
戚薇這腳趾看著好辛苦,隔著屏幕都替她累得慌

戚薇這腳趾看著好辛苦,隔著屏幕都替她累得慌

東方不敗然多多
2026-04-23 10:37:33
互聯(lián)網(wǎng)是有記憶的,她的黑歷史一大堆?。?>
    </a>
        <h3>
      <a href=互聯(lián)網(wǎng)是有記憶的,她的黑歷史一大堆?。?/a> BenSir本色說
2026-04-15 22:38:07
放棄克洛普!皇馬換帥突生變數(shù),伯納烏或?qū)⒂瓉怼白约胰?>
    </a>
        <h3>
      <a href=奶蓋熊本熊
2026-04-29 00:05:53
600678,將被“ST”!

600678,將被“ST”!

中國基金報
2026-04-28 23:15:48
美股三大指數(shù)集體收跌,道指跌0.06%,納指跌0.9%,標普500指數(shù)跌0.49%,熱門科技股多數(shù)下跌,博通跌超4%,英偉達跌超1%。

美股三大指數(shù)集體收跌,道指跌0.06%,納指跌0.9%,標普500指數(shù)跌0.49%,熱門科技股多數(shù)下跌,博通跌超4%,英偉達跌超1%。

財聯(lián)社
2026-04-29 04:08:08
新娘確實漂亮,但我更喜歡戴眼鏡那個。

新娘確實漂亮,但我更喜歡戴眼鏡那個。

動物奇奇怪怪
2026-04-12 12:44:36
三連鞭后五連鞭,趙心童3:5墨菲暫時落后

三連鞭后五連鞭,趙心童3:5墨菲暫時落后

佳佳說奇事故事
2026-04-29 03:43:45
林志玲自曝和公婆住一起:換了一個比較大的房子,老公每天傍晚準時回家,陪兒子一起吃飯

林志玲自曝和公婆住一起:換了一個比較大的房子,老公每天傍晚準時回家,陪兒子一起吃飯

臺州交通廣播
2026-04-28 13:46:36
鋰電池板塊業(yè)績炸裂,多家公司凈利漲超1000%,最高漲超2297%

鋰電池板塊業(yè)績炸裂,多家公司凈利漲超1000%,最高漲超2297%

21世紀經(jīng)濟報道
2026-04-28 22:55:26
動真格了,國安部出手,揪出鼓吹躺平的境外勢力,評論區(qū)意味深長

動真格了,國安部出手,揪出鼓吹躺平的境外勢力,評論區(qū)意味深長

譚談社會
2026-04-28 15:10:51
7天第3艘,美軍開始在印度洋獵殺伊朗油輪,目的地是中國舟山

7天第3艘,美軍開始在印度洋獵殺伊朗油輪,目的地是中國舟山

矚望云霄
2026-04-28 13:04:41
廣東男籃主場17分負廣州,杜鋒難受,正義必勝!

廣東男籃主場17分負廣州,杜鋒難受,正義必勝!

二爺臺球解說
2026-04-29 03:36:39
跑馬人最慘遭遇:酒店不隔音,隔壁情侶的“聲音”讓我徹底崩潰

跑馬人最慘遭遇:酒店不隔音,隔壁情侶的“聲音”讓我徹底崩潰

馬拉松跑步健身
2026-04-26 21:41:40
2026-04-29 04:44:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8183文章數(shù) 563關(guān)注度
往期回顧 全部

科技要聞

10億周活目標落空!傳OpenAI爆發(fā)內(nèi)部分歧

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

體育要聞

魔術(shù)黑八活塞,一步之遙?!

娛樂要聞

蔡卓妍官宣結(jié)婚,老公比她小10歲

財經(jīng)要聞

中央政治局會議定調(diào),八大看點速覽!

汽車要聞

拒絕瘋狂套娃!現(xiàn)代艾尼氪金星長在未來審美點上

態(tài)度原創(chuàng)

健康
房產(chǎn)
數(shù)碼
旅游
公開課

干細胞治療燒燙傷三大優(yōu)勢!

房產(chǎn)要聞

紅利爆發(fā)!海南,沖到全國人口增量第4省!

數(shù)碼要聞

機械革命蒼龍16 / 18 Pro游戲本RTX 5070 12GB款開啟預約

旅游要聞

莫讓內(nèi)卷式競爭削弱旅游消費信心

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版