国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

UC圣地亞哥大學(xué)突破:AI并行預(yù)測(cè)技術(shù)提升語(yǔ)言生成速度

0
分享至


這項(xiàng)由UC圣地亞哥大學(xué)的胡蘭翔、上海交通大學(xué)的寇思琦等研究者組成的國(guó)際團(tuán)隊(duì)完成的研究,發(fā)表于2025年12月的arXiv預(yù)印本服務(wù)器,論文編號(hào)為arXiv:2512.14681v1。有興趣深入了解的讀者可以通過(guò)這個(gè)編號(hào)查詢完整論文。

當(dāng)我們和朋友聊天時(shí),我們的大腦會(huì)同時(shí)思考好幾個(gè)即將說(shuō)出的詞語(yǔ),但目前的AI語(yǔ)言模型卻像個(gè)謹(jǐn)慎的學(xué)生,必須一個(gè)詞一個(gè)詞地慢慢說(shuō)出來(lái)。這就好比你在寫(xiě)作文時(shí),明明腦子里已經(jīng)有了完整的句子,卻被要求必須寫(xiě)完一個(gè)字才能寫(xiě)下一個(gè)字,這樣的效率實(shí)在太低了。

研究團(tuán)隊(duì)發(fā)現(xiàn)了一個(gè)關(guān)鍵問(wèn)題:雖然科學(xué)家們已經(jīng)開(kāi)發(fā)出了能夠同時(shí)預(yù)測(cè)多個(gè)詞語(yǔ)的AI模型,就像擴(kuò)散語(yǔ)言模型(diffusion Large Language Models,簡(jiǎn)稱dLLMs),但這些模型在質(zhì)量上總是比不上傳統(tǒng)的一詞接一詞的自回歸模型(AR models)。而那些試圖將高質(zhì)量的傳統(tǒng)模型改造成并行預(yù)測(cè)模型的努力,又面臨著一個(gè)尷尬的困境:訓(xùn)練前后的數(shù)據(jù)分布差異太大,就像一個(gè)從小說(shuō)中文的人突然要求他用英文思考一樣困難。

為了解決這個(gè)難題,研究團(tuán)隊(duì)開(kāi)發(fā)了一種名為"雅可比強(qiáng)制訓(xùn)練"(Jacobi Forcing)的創(chuàng)新方法。這個(gè)方法的巧妙之處在于,它不是強(qiáng)行改變模型的思考方式,而是讓模型在自己生成的軌跡上進(jìn)行學(xué)習(xí),就像讓一個(gè)作家通過(guò)閱讀自己的草稿來(lái)提高寫(xiě)作技巧。

一、雅可比強(qiáng)制訓(xùn)練:讓AI學(xué)會(huì)"舉一反三"的藝術(shù)

傳統(tǒng)的訓(xùn)練方法就像教孩子背誦課文一樣,只是簡(jiǎn)單地重復(fù)正確答案。但雅可比強(qiáng)制訓(xùn)練更像是教孩子理解文章的邏輯脈絡(luò),讓他們能夠在面對(duì)不完整或有錯(cuò)誤的信息時(shí),仍然能夠推斷出正確的結(jié)論。

具體來(lái)說(shuō),這個(gè)方法首先讓模型嘗試同時(shí)預(yù)測(cè)一個(gè)句子塊中的多個(gè)詞語(yǔ),即使這些預(yù)測(cè)可能是錯(cuò)誤的。然后,通過(guò)一種叫做"雅可比解碼"的技術(shù),模型會(huì)反復(fù)修正這些預(yù)測(cè),直到得到正確的結(jié)果。這個(gè)過(guò)程就像一個(gè)畫(huà)家先畫(huà)出草圖,然后不斷修改細(xì)節(jié),直到完成一幅完美的作品。

研究團(tuán)隊(duì)設(shè)計(jì)了一個(gè)漸進(jìn)式的噪聲調(diào)度策略,這就像是在教學(xué)過(guò)程中逐步增加難度。剛開(kāi)始時(shí),模型只需要處理少量的"噪聲"信息(即錯(cuò)誤的詞語(yǔ)),隨著訓(xùn)練的進(jìn)行,噪聲的比例逐漸增加。這種循序漸進(jìn)的方式讓模型能夠穩(wěn)步提升處理復(fù)雜情況的能力,而不會(huì)因?yàn)橐婚_(kāi)始就面對(duì)過(guò)于困難的任務(wù)而"崩潰"。

更重要的是,研究團(tuán)隊(duì)還引入了一種"噪聲感知因果注意力"機(jī)制。傳統(tǒng)的方法要求模型在看到每個(gè)詞語(yǔ)時(shí),只能參考之前已經(jīng)確定的詞語(yǔ)。但這種新機(jī)制允許模型在一個(gè)句子塊內(nèi)部進(jìn)行更靈活的信息交互,同時(shí)仍然保持整體的因果關(guān)系。這就像是在拼圖時(shí),雖然你需要按照從左到右的大方向進(jìn)行,但在每個(gè)小區(qū)域內(nèi),你可以同時(shí)考慮多個(gè)拼圖塊的位置關(guān)系。

為了進(jìn)一步提升模型的能力,研究團(tuán)隊(duì)還采用了"漸進(jìn)式蒸餾"的策略。他們首先用較小的句子塊訓(xùn)練模型,當(dāng)模型在這個(gè)規(guī)模上表現(xiàn)良好后,再用更大的句子塊進(jìn)行第二輪訓(xùn)練。這種做法讓模型能夠逐步適應(yīng)更復(fù)雜的并行預(yù)測(cè)任務(wù),就像運(yùn)動(dòng)員通過(guò)逐步增加訓(xùn)練強(qiáng)度來(lái)提升競(jìng)技水平。

二、智能回收與多塊解碼:讓AI像人類一樣"一心多用"

在觀察雅可比強(qiáng)制訓(xùn)練后的模型行為時(shí),研究團(tuán)隊(duì)發(fā)現(xiàn)了一個(gè)有趣的現(xiàn)象:這些模型在預(yù)測(cè)過(guò)程中會(huì)產(chǎn)生很多高質(zhì)量的"草稿"片段,即使在句子還沒(méi)有完全確定時(shí),某些部分已經(jīng)接近正確答案了。這就像一個(gè)經(jīng)驗(yàn)豐富的作家在修改文章時(shí),即使整篇文章還在調(diào)整,但某些段落已經(jīng)相當(dāng)完善了。

基于這個(gè)發(fā)現(xiàn),研究團(tuán)隊(duì)開(kāi)發(fā)了兩個(gè)創(chuàng)新的推理優(yōu)化技術(shù):拒絕回收和多塊解碼。

拒絕回收技術(shù)的工作原理類似于一個(gè)精明的收藏家。在模型進(jìn)行預(yù)測(cè)的過(guò)程中,那些被"拒絕"的高質(zhì)量連續(xù)詞語(yǔ)并不會(huì)被簡(jiǎn)單丟棄,而是被收集到一個(gè)候選池中。當(dāng)模型在后續(xù)的預(yù)測(cè)中遇到匹配的情況時(shí),這些預(yù)先準(zhǔn)備好的詞語(yǔ)片段可以被重新使用,從而大大加快了生成速度。這就好比你在寫(xiě)作時(shí),雖然某個(gè)句子在當(dāng)前位置不合適,但你將它保存下來(lái),在后面的段落中可能正好用得上。

多塊解碼技術(shù)則更進(jìn)一步,它讓模型能夠同時(shí)維護(hù)和優(yōu)化多個(gè)句子塊。在這個(gè)系統(tǒng)中,有一個(gè)"真正活躍"的句子塊,只有這個(gè)塊中被確認(rèn)的詞語(yǔ)才會(huì)被正式接受。其他的句子塊處于"偽活躍"狀態(tài),它們的預(yù)測(cè)結(jié)果暫時(shí)不會(huì)被確定,但會(huì)為后續(xù)的預(yù)測(cè)提供更好的起點(diǎn)。這種方法就像一個(gè)象棋大師能夠同時(shí)考慮多條攻擊路線,即使當(dāng)前只執(zhí)行其中一條,但其他路線的準(zhǔn)備工作已經(jīng)完成,可以隨時(shí)切換。

這兩種技術(shù)的結(jié)合使用帶來(lái)了顯著的效果提升。在編程任務(wù)的測(cè)試中,模型的詞語(yǔ)接受數(shù)量提高了4.5倍,整體速度提升了近4倍。這意味著原本需要4秒鐘完成的任務(wù),現(xiàn)在只需要1秒鐘就能完成,效率提升非常明顯。

三、實(shí)驗(yàn)驗(yàn)證:在真實(shí)場(chǎng)景中的卓越表現(xiàn)

為了驗(yàn)證這些創(chuàng)新方法的實(shí)際效果,研究團(tuán)隊(duì)在多個(gè)具有挑戰(zhàn)性的任務(wù)上進(jìn)行了全面的測(cè)試,包括編程代碼生成和數(shù)學(xué)問(wèn)題求解等。

在編程任務(wù)方面,他們使用了HumanEval和MBPP這兩個(gè)廣受認(rèn)可的基準(zhǔn)測(cè)試。這些測(cè)試要求AI模型根據(jù)自然語(yǔ)言描述生成能夠正確運(yùn)行的Python代碼,這對(duì)模型的邏輯推理和語(yǔ)法準(zhǔn)確性都有很高要求。實(shí)驗(yàn)結(jié)果顯示,使用雅可比強(qiáng)制訓(xùn)練的模型在HumanEval上實(shí)現(xiàn)了3.86倍的速度提升,準(zhǔn)確率仍然保持在83.5%的高水平。相比之下,傳統(tǒng)的擴(kuò)散語(yǔ)言模型在同樣的任務(wù)上,速度提升有限且準(zhǔn)確率明顯偏低。

在數(shù)學(xué)問(wèn)題求解方面,研究團(tuán)隊(duì)測(cè)試了GSM8K和MATH兩個(gè)數(shù)據(jù)集。這些任務(wù)需要模型進(jìn)行多步推理,生成詳細(xì)的解題過(guò)程。實(shí)驗(yàn)結(jié)果同樣令人印象深刻:在GSM8K上實(shí)現(xiàn)了3.5倍的速度提升,正確率保持在91.4%;在MATH上實(shí)現(xiàn)了3.65倍的速度提升,正確率為77.4%。

特別值得注意的是,當(dāng)研究團(tuán)隊(duì)將拒絕回收和多塊解碼技術(shù)應(yīng)用到雅可比強(qiáng)制模型上時(shí),性能進(jìn)一步得到提升。在某些配置下,模型能夠?qū)崿F(xiàn)接近4倍的速度提升,這已經(jīng)接近了理論上的最優(yōu)效果。

研究團(tuán)隊(duì)還進(jìn)行了詳細(xì)的消融研究,探討了不同組件對(duì)最終性能的貢獻(xiàn)。他們發(fā)現(xiàn),漸進(jìn)式噪聲調(diào)度策略對(duì)模型性能的改善最為關(guān)鍵。相比隨機(jī)噪聲調(diào)度,線性漸進(jìn)式調(diào)度能夠顯著提升模型的詞語(yǔ)預(yù)測(cè)準(zhǔn)確率。同時(shí),噪聲感知的因果注意力機(jī)制也發(fā)揮了重要作用,它使得模型在處理帶噪聲的輸入時(shí)表現(xiàn)更加穩(wěn)定。

四、技術(shù)創(chuàng)新的深層意義:從理論突破到實(shí)際應(yīng)用

這項(xiàng)研究的重要意義不僅體現(xiàn)在技術(shù)指標(biāo)的改進(jìn)上,更在于它為AI語(yǔ)言模型的發(fā)展開(kāi)辟了新的道路。傳統(tǒng)上,研究者們面臨著一個(gè)兩難選擇:要么選擇高質(zhì)量但速度慢的自回歸模型,要么選擇速度快但質(zhì)量較低的并行生成模型。雅可比強(qiáng)制訓(xùn)練方法巧妙地化解了這個(gè)矛盾,實(shí)現(xiàn)了速度和質(zhì)量的雙重優(yōu)化。

從技術(shù)架構(gòu)的角度來(lái)看,這種方法的創(chuàng)新之處在于它保持了預(yù)訓(xùn)練模型的因果推理特性,沒(méi)有像其他方法那樣對(duì)模型的注意力機(jī)制進(jìn)行根本性的改變。這意味著已經(jīng)投入巨大資源訓(xùn)練的大型語(yǔ)言模型可以通過(guò)相對(duì)較少的額外訓(xùn)練就獲得并行生成的能力,大大降低了技術(shù)升級(jí)的成本。

在實(shí)際應(yīng)用場(chǎng)景中,這種技術(shù)的價(jià)值更加明顯。當(dāng)用戶使用AI編程助手時(shí),他們通常希望能夠快速獲得代碼建議,而不是等待模型慢慢地一行一行生成代碼。雅可比強(qiáng)制模型能夠同時(shí)生成多行相關(guān)的代碼,大大提升了用戶體驗(yàn)。同樣,在AI寫(xiě)作助手或自動(dòng)問(wèn)答系統(tǒng)中,這種技術(shù)也能顯著減少用戶的等待時(shí)間。

研究團(tuán)隊(duì)還深入分析了不同硬件平臺(tái)上的性能表現(xiàn)。他們發(fā)現(xiàn),在NVIDIA H200和B200這樣的高端GPU上,由于有更充足的計(jì)算資源,模型可以同時(shí)處理更多的詞語(yǔ)預(yù)測(cè)任務(wù),效率提升更加顯著。這為未來(lái)在更強(qiáng)大的計(jì)算平臺(tái)上部署這類模型提供了重要的參考依據(jù)。

五、面向未來(lái)的思考:AI語(yǔ)言模型發(fā)展的新方向

這項(xiàng)研究的成功不僅解決了當(dāng)前AI語(yǔ)言模型面臨的速度瓶頸問(wèn)題,更重要的是為整個(gè)領(lǐng)域指明了未來(lái)發(fā)展的方向。研究表明,與其簡(jiǎn)單地追求更大規(guī)模的模型,不如在訓(xùn)練方法和推理機(jī)制上尋求創(chuàng)新突破。

雅可比強(qiáng)制訓(xùn)練方法的核心思想——讓模型在自己生成的軌跡上學(xué)習(xí)——可能啟發(fā)更多類似的自監(jiān)督學(xué)習(xí)方法。這種讓AI系統(tǒng)從自己的"錯(cuò)誤"中學(xué)習(xí)的方式,更接近人類的學(xué)習(xí)模式,可能是實(shí)現(xiàn)更智能AI系統(tǒng)的重要途徑。

從計(jì)算資源利用的角度來(lái)看,這項(xiàng)研究也提供了重要啟示?,F(xiàn)代GPU具備強(qiáng)大的并行計(jì)算能力,但傳統(tǒng)的序列生成方式無(wú)法充分利用這些資源。雅可比強(qiáng)制模型通過(guò)并行預(yù)測(cè)多個(gè)詞語(yǔ),能夠更好地發(fā)揮硬件的計(jì)算潛力,這為在有限的計(jì)算資源下獲得更好性能提供了可行路徑。

研究團(tuán)隊(duì)在論文中也誠(chéng)實(shí)地討論了當(dāng)前方法的局限性。雖然在編程和數(shù)學(xué)任務(wù)上表現(xiàn)出色,但在需要高度創(chuàng)造性的文本生成任務(wù)中,這種方法的優(yōu)勢(shì)可能不那么明顯。這提醒我們,任何技術(shù)創(chuàng)新都有其適用范圍,需要根據(jù)具體應(yīng)用場(chǎng)景選擇合適的方法。

此外,這項(xiàng)研究也為AI模型的訓(xùn)練效率提供了新的思路。傳統(tǒng)的一次性大規(guī)模訓(xùn)練方式成本高昂,而漸進(jìn)式蒸餾的方法展示了如何通過(guò)分階段訓(xùn)練來(lái)提升模型能力。這種方法不僅降低了訓(xùn)練成本,也使得中小型研究機(jī)構(gòu)能夠在有限的資源條件下開(kāi)發(fā)出高性能的AI模型。

說(shuō)到底,這項(xiàng)由UC圣地亞哥大學(xué)和上海交通大學(xué)等機(jī)構(gòu)合作完成的研究,為AI語(yǔ)言模型的發(fā)展提供了一個(gè)全新的解決方案。通過(guò)雅可比強(qiáng)制訓(xùn)練,他們成功地讓AI模型學(xué)會(huì)了"一心多用"的技能,在保持高質(zhì)量輸出的同時(shí)實(shí)現(xiàn)了顯著的速度提升。這不僅對(duì)學(xué)術(shù)研究有重要意義,更為實(shí)際的AI應(yīng)用開(kāi)發(fā)提供了寶貴的技術(shù)路徑。

對(duì)于普通用戶來(lái)說(shuō),這意味著未來(lái)的AI助手將能夠更快地響應(yīng)我們的需求,無(wú)論是編程幫助、寫(xiě)作支持還是問(wèn)題解答,都將變得更加高效和流暢。而對(duì)于AI技術(shù)的研發(fā)者來(lái)說(shuō),這項(xiàng)研究展示了如何在現(xiàn)有技術(shù)基礎(chǔ)上實(shí)現(xiàn)創(chuàng)新突破,為整個(gè)領(lǐng)域的發(fā)展注入了新的活力。有興趣深入了解技術(shù)細(xì)節(jié)的讀者,可以通過(guò)arXiv:2512.14681v1這個(gè)編號(hào)查找完整的研究論文,其中包含了詳細(xì)的實(shí)驗(yàn)數(shù)據(jù)和技術(shù)實(shí)現(xiàn)細(xì)節(jié)。

Q&A

Q1:雅可比強(qiáng)制訓(xùn)練是什么原理?

A:雅可比強(qiáng)制訓(xùn)練讓AI模型在自己生成的預(yù)測(cè)軌跡上學(xué)習(xí),就像讓作家通過(guò)閱讀自己的草稿來(lái)提高寫(xiě)作水平。模型先同時(shí)預(yù)測(cè)多個(gè)詞語(yǔ),然后通過(guò)反復(fù)修正這些預(yù)測(cè)來(lái)找到正確答案,這樣就學(xué)會(huì)了在面對(duì)不完整信息時(shí)仍能做出準(zhǔn)確判斷。

Q2:這種方法比傳統(tǒng)AI模型快多少?

A:實(shí)驗(yàn)顯示雅可比強(qiáng)制訓(xùn)練的模型在編程任務(wù)上實(shí)現(xiàn)了3.8倍的速度提升,在數(shù)學(xué)問(wèn)題求解上提升了3.5到3.65倍。結(jié)合拒絕回收和多塊解碼技術(shù)后,速度提升可以接近4倍,這意味著原本需要4秒完成的任務(wù)現(xiàn)在只需要1秒。

Q3:普通用戶什么時(shí)候能用上這種技術(shù)?

A:這項(xiàng)技術(shù)主要針對(duì)AI語(yǔ)言模型的訓(xùn)練和推理優(yōu)化,普通用戶可能會(huì)在未來(lái)的AI編程助手、寫(xiě)作工具和問(wèn)答系統(tǒng)中間接體驗(yàn)到它帶來(lái)的速度提升,但具體的商業(yè)化應(yīng)用時(shí)間還需要看各大AI公司的產(chǎn)品開(kāi)發(fā)進(jìn)度。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
1956年毛主席罕見(jiàn)發(fā)問(wèn):東來(lái)順羊肉咋回事?陳云一查,根子不在師傅,問(wèn)題出在“新規(guī)矩”

1956年毛主席罕見(jiàn)發(fā)問(wèn):東來(lái)順羊肉咋回事?陳云一查,根子不在師傅,問(wèn)題出在“新規(guī)矩”

歷史回憶室
2025-12-23 10:19:17
志愿軍首戰(zhàn)殲滅美軍一萬(wàn)五,主席卻提筆改成六千,麥克阿瑟看完戰(zhàn)報(bào)笑得合不攏嘴,結(jié)果幾十萬(wàn)大軍一頭扎進(jìn)死胡同,這招示弱太絕了

志愿軍首戰(zhàn)殲滅美軍一萬(wàn)五,主席卻提筆改成六千,麥克阿瑟看完戰(zhàn)報(bào)笑得合不攏嘴,結(jié)果幾十萬(wàn)大軍一頭扎進(jìn)死胡同,這招示弱太絕了

歷史回憶室
2025-12-26 11:42:28
為啥"唐氏兒"都長(zhǎng)著同一張臉?醫(yī)生一般不說(shuō),父母最好要知道

為啥"唐氏兒"都長(zhǎng)著同一張臉?醫(yī)生一般不說(shuō),父母最好要知道

大果小果媽媽
2025-12-28 11:33:24
孟村殺妻案結(jié)果公布,判決前金昊母子照片曝光,兩人狀態(tài)截然不同

孟村殺妻案結(jié)果公布,判決前金昊母子照片曝光,兩人狀態(tài)截然不同

歷史偉人錄
2025-12-27 21:34:16
袁天罡農(nóng)家躲雨,主人只掃屋心,他面色驟變:三代之內(nèi)必出大人物

袁天罡農(nóng)家躲雨,主人只掃屋心,他面色驟變:三代之內(nèi)必出大人物

小豫講故事
2025-12-28 06:00:08
李瑞環(huán)說(shuō):葉選平是葉帥的兒子,但水平比我高,為什么不能當(dāng)省長(zhǎng)

李瑞環(huán)說(shuō):葉選平是葉帥的兒子,但水平比我高,為什么不能當(dāng)省長(zhǎng)

章荳解說(shuō)體育
2025-12-11 21:56:41
柬埔寨國(guó)王,72歲了,沒(méi)錢沒(méi)權(quán),沒(méi)結(jié)婚沒(méi)孩子,和老母親相依為命

柬埔寨國(guó)王,72歲了,沒(méi)錢沒(méi)權(quán),沒(méi)結(jié)婚沒(méi)孩子,和老母親相依為命

趣文說(shuō)娛
2025-12-23 17:34:34
童瑤胸貼露出來(lái)了

童瑤胸貼露出來(lái)了

手工制作阿殲
2025-12-15 12:20:21
中山一商場(chǎng)展車撞入手機(jī)店,車企工作人員:小孩誤觸所致,無(wú)人受傷

中山一商場(chǎng)展車撞入手機(jī)店,車企工作人員:小孩誤觸所致,無(wú)人受傷

極目新聞
2025-12-28 13:48:03
錢再多也沒(méi)用!向太曝馬伊琍已再婚,原來(lái)當(dāng)年文章過(guò)不了心里那關(guān)

錢再多也沒(méi)用!向太曝馬伊琍已再婚,原來(lái)當(dāng)年文章過(guò)不了心里那關(guān)

一娛三分地
2025-12-15 13:26:07
一個(gè)男人如果不正經(jīng),通過(guò)這2個(gè)模樣,一看便知!

一個(gè)男人如果不正經(jīng),通過(guò)這2個(gè)模樣,一看便知!

加油丁小文
2025-12-01 08:00:12
殲-15幾乎全部退役,淪為全球最短命艦載機(jī)!它究竟有哪些短板?

殲-15幾乎全部退役,淪為全球最短命艦載機(jī)!它究竟有哪些短板?

小莜讀史
2025-12-27 14:55:11
201米!40億!騰訊西南總部,世界“第一扭”摩天樓

201米!40億!騰訊西南總部,世界“第一扭”摩天樓

GA環(huán)球建筑
2025-12-25 23:00:32
原來(lái)他早已去世,15歲演戲44歲走紅,47歲患癌離世,哥哥是熟面孔

原來(lái)他早已去世,15歲演戲44歲走紅,47歲患癌離世,哥哥是熟面孔

故事講電影
2025-12-28 20:01:41
“后悔來(lái)清華參觀,自取其辱”,母親帶娃游清華,被食堂氣到失控

“后悔來(lái)清華參觀,自取其辱”,母親帶娃游清華,被食堂氣到失控

詩(shī)意世界
2025-11-30 11:04:47
馬卡:弗洛倫蒂諾使巴薩財(cái)務(wù)難題徹底解決,應(yīng)拿巴薩金質(zhì)勛章

馬卡:弗洛倫蒂諾使巴薩財(cái)務(wù)難題徹底解決,應(yīng)拿巴薩金質(zhì)勛章

懂球帝
2025-12-28 20:59:23
溥儀9歲仍在吃奶,給他當(dāng)乳娘有2規(guī)矩:一是喂奶,另一個(gè)毫無(wú)人性

溥儀9歲仍在吃奶,給他當(dāng)乳娘有2規(guī)矩:一是喂奶,另一個(gè)毫無(wú)人性

小豫講故事
2025-12-27 06:00:06
中國(guó)股市:炒股成功的人到底有多可怕?從窮人到富人的全過(guò)程!

中國(guó)股市:炒股成功的人到底有多可怕?從窮人到富人的全過(guò)程!

股經(jīng)縱橫談
2025-12-28 18:53:25
天氣預(yù)報(bào)丨新一輪降溫即將到來(lái) 重慶高海拔地區(qū)有雪

天氣預(yù)報(bào)丨新一輪降溫即將到來(lái) 重慶高海拔地區(qū)有雪

上游新聞
2025-12-28 17:24:02
廣東vs山西,對(duì)抗強(qiáng)度拉滿,胡明軒奎因表現(xiàn)糟糕,杜鋒投訴迪亞洛

廣東vs山西,對(duì)抗強(qiáng)度拉滿,胡明軒奎因表現(xiàn)糟糕,杜鋒投訴迪亞洛

鄒維體育
2025-12-28 20:06:15
2025-12-28 21:20:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
6680文章數(shù) 544關(guān)注度
往期回顧 全部

科技要聞

特斯拉將在華布局自動(dòng)駕駛?記者求證→

頭條要聞

新華社發(fā)文:積蓄統(tǒng)一大勢(shì)

頭條要聞

新華社發(fā)文:積蓄統(tǒng)一大勢(shì)

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂(lè)要聞

白敬亭現(xiàn)身冰雪大世界 拍視頻還翻車了

財(cái)經(jīng)要聞

英偉達(dá)的收購(gòu)史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

數(shù)碼
藝術(shù)
游戲
本地
公開(kāi)課

數(shù)碼要聞

AM4老兵不死:銳龍7 5800X登上銷量榜首!前十有4款是AM4

藝術(shù)要聞

驚艷!陳紅20年前沙發(fā)照曝光,宛如人間尤物!

《生化危機(jī)6》是否為系列敗筆?來(lái)看看爆料大佬咋說(shuō)!

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬(wàn)年史書(shū)

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版