国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

韓國科技大學(xué)突破:首個視覺信息價(jià)值A(chǔ)I評測指標(biāo)問世

0
分享至


這項(xiàng)由韓國首爾國立科技大學(xué)數(shù)據(jù)科學(xué)系領(lǐng)導(dǎo)的研究發(fā)表于2026年2月的arXiv預(yù)印本服務(wù)器,論文編號為arXiv:2602.17186v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。

如今,AI已經(jīng)能夠同時理解文字和圖像,就像一個既能讀書又能看畫的聰明學(xué)生。這類被稱為"大型視覺語言模型"的AI系統(tǒng)在回答關(guān)于圖片的問題時表現(xiàn)出色,但研究人員發(fā)現(xiàn)了一個令人困擾的問題:這些AI有時候根本不看圖片,僅憑文字就給出答案,就像學(xué)生在考試時不看題目就憑猜測作答。

韓國首爾國立科技大學(xué)的研究團(tuán)隊(duì)注意到,當(dāng)前的AI訓(xùn)練就像一個糊涂的老師,對所有學(xué)習(xí)材料一視同仁。無論是需要仔細(xì)觀察圖片才能回答的問題,還是僅憑常識就能解決的問題,AI都用同樣的精力去學(xué)習(xí)。這就好比讓學(xué)生花同樣的時間背誦"一加一等于二"和解復(fù)雜的幾何題,顯然不夠合理。

研究團(tuán)隊(duì)首次提出了一個革命性的指標(biāo)——"視覺信息增益",簡稱VIG。這個指標(biāo)就像一個精明的考官,能夠準(zhǔn)確測量每一道題目到底需要多少"看圖"的能力。通過這個指標(biāo),他們開發(fā)出了一套全新的AI訓(xùn)練方法,專門挑選那些真正需要視覺能力的學(xué)習(xí)材料進(jìn)行重點(diǎn)訓(xùn)練。

這項(xiàng)創(chuàng)新的意義遠(yuǎn)超學(xué)術(shù)研究本身。當(dāng)AI能夠更準(zhǔn)確地依賴視覺信息做出判斷時,我們在日常生活中遇到的各種視覺AI應(yīng)用——從醫(yī)療影像診斷到自動駕駛汽車的環(huán)境識別——都將變得更加可靠和值得信賴。

一、發(fā)現(xiàn)問題的根源:AI的"視而不見"現(xiàn)象

現(xiàn)代AI就像一個擁有超強(qiáng)記憶力的學(xué)生,能夠儲存海量的文字知識。當(dāng)面對一張船在水面航行的圖片,被問及"船在水中留下的痕跡叫什么"時,許多AI會直接從記憶中調(diào)取答案"尾流",而完全不去觀察圖片中的實(shí)際情況。這種現(xiàn)象被研究人員稱為"語言偏見",就像學(xué)生過度依賴課本知識而忽視了實(shí)際觀察的重要性。

這個問題的嚴(yán)重性超乎想象。研究團(tuán)隊(duì)發(fā)現(xiàn),即使是目前最先進(jìn)的AI系統(tǒng),在處理視覺問題時也經(jīng)常表現(xiàn)出"視覺忽視"的癥狀。它們會自信地描述圖片中根本不存在的物體,或者給出與圖片內(nèi)容完全矛盾的答案。這就好比一個人戴著墨鏡在黑暗中卻聲稱能清楚看到周圍的一切。

問題的根源在于AI的訓(xùn)練數(shù)據(jù)就像一個混雜的圖書館。其中既有需要仔細(xì)觀察圖片才能回答的高質(zhì)量問題,也有大量僅憑文字常識就能解決的簡單問題。更麻煩的是,許多訓(xùn)練數(shù)據(jù)本身就存在問題——圖片與文字描述不匹配,或者包含誤導(dǎo)性信息。

傳統(tǒng)的訓(xùn)練方法就像一個不分青紅皂白的老師,讓AI花費(fèi)同樣的精力學(xué)習(xí)所有內(nèi)容。無論是描述圖片中物體顏色這樣需要精確視覺觀察的任務(wù),還是回答"the"這樣的語法詞匯,AI都被要求投入相同的學(xué)習(xí)資源。這種"一刀切"的方式導(dǎo)致AI無法區(qū)分什么時候應(yīng)該依賴視覺信息,什么時候可以依靠文字知識。

二、創(chuàng)新解決方案:視覺信息增益指標(biāo)的誕生

面對這個復(fù)雜問題,韓國研究團(tuán)隊(duì)提出了一個巧妙的解決方案,他們稱之為"視覺信息增益"(VIG)。這個指標(biāo)的工作原理就像一個精準(zhǔn)的天平,能夠準(zhǔn)確測量圖片信息在AI回答問題時的真實(shí)貢獻(xiàn)度。

VIG的核心思想非常直觀:如果AI在看到圖片后回答問題的準(zhǔn)確度顯著提高,說明圖片提供了重要信息;如果有沒有圖片都差不多,那么這個問題可能主要依靠文字知識就能解決。為了模擬"沒有圖片"的情況,研究團(tuán)隊(duì)采用了一個聰明的方法——將原始圖片進(jìn)行高斯模糊處理,讓它變成一團(tuán)看不清任何細(xì)節(jié)的色塊。

這種測量方式就像給學(xué)生做對比實(shí)驗(yàn):先讓他們在光線充足的環(huán)境下做題,再讓他們在昏暗環(huán)境中做同樣的題目。如果成績差別很大,說明這些題目確實(shí)需要良好的視覺條件;如果成績相差不大,說明主要靠的是記憶和推理能力。

VIG指標(biāo)不僅能在整個問題層面進(jìn)行評估,還能精確到每個詞匯。研究團(tuán)隊(duì)發(fā)現(xiàn),當(dāng)AI在描述圖片時,像"紅色"、"坐著"、"飛行"這樣的詞匯往往具有很高的VIG值,因?yàn)榇_定這些信息確實(shí)需要觀察圖片。相反,像"一個"、"的"、"這"這樣的語法詞匯VIG值很低,因?yàn)樗鼈冎饕烧Z言規(guī)則決定。

通過大量實(shí)驗(yàn)驗(yàn)證,VIG指標(biāo)展現(xiàn)出了令人印象深刻的準(zhǔn)確性。在不同類型的視覺問答測試中,VIG值的分布完全符合人們的直覺預(yù)期。那些需要精細(xì)視覺觀察的任務(wù)(如圖像描述)顯示出較高的VIG值,而那些更依賴文字推理的任務(wù)(如某些知識問答)則顯示出較低的VIG值。

三、精準(zhǔn)訓(xùn)練策略:讓AI學(xué)會"看重點(diǎn)"

基于VIG指標(biāo),研究團(tuán)隊(duì)開發(fā)了一套革命性的訓(xùn)練策略,就像為AI配備了一個智能的學(xué)習(xí)計(jì)劃制定者。這個系統(tǒng)能夠自動識別哪些學(xué)習(xí)材料真正值得重點(diǎn)關(guān)注,哪些可以適當(dāng)忽略。

具體的訓(xùn)練過程分為兩個層次的篩選。首先是樣本層面的選擇,就像一個挑剔的圖書管理員,只保留那些VIG值排名前70%的高質(zhì)量問答對。這樣做的效果立竿見影——那些僅憑文字就能回答的簡單問題被過濾掉了,剩下的都是真正需要視覺觀察才能解決的有價(jià)值內(nèi)容。

接下來是更精細(xì)的詞匯層面篩選。在保留的高質(zhì)量樣本中,訓(xùn)練系統(tǒng)進(jìn)一步識別每個詞匯的VIG值,只有那些真正需要視覺信息支持的詞匯才會被納入重點(diǎn)學(xué)習(xí)范圍。這就像告訴學(xué)生:"在這道關(guān)于圖片的題目中,你需要特別注意'藍(lán)色'和'飛翔'這些詞匯,而'一個'和'的'這些詞匯可以按常規(guī)處理。"

這種精準(zhǔn)化的訓(xùn)練策略帶來了驚人的效果。研究團(tuán)隊(duì)發(fā)現(xiàn),即使AI只學(xué)習(xí)了原來30%到70%的訓(xùn)練材料,其在視覺理解任務(wù)上的表現(xiàn)反而比學(xué)習(xí)全部材料時更好。這個結(jié)果顛覆了傳統(tǒng)"多多益善"的訓(xùn)練理念,證明了質(zhì)量比數(shù)量更重要。

更令人興奮的是,經(jīng)過VIG指導(dǎo)訓(xùn)練的AI展現(xiàn)出了更強(qiáng)的"視覺專注力"。通過分析AI內(nèi)部的注意力分配模式,研究人員發(fā)現(xiàn)這些AI在處理視覺問題時會將更多注意力投向圖片信息,而不是像之前那樣過度依賴文字記憶。這種改變就像培養(yǎng)了一個更善于觀察的學(xué)生,讓他們學(xué)會了在適當(dāng)?shù)臅r候相信自己的眼睛。

四、實(shí)驗(yàn)驗(yàn)證:全方位性能提升的驚人表現(xiàn)

為了驗(yàn)證VIG指導(dǎo)訓(xùn)練的實(shí)際效果,研究團(tuán)隊(duì)進(jìn)行了一系列全面而嚴(yán)謹(jǐn)?shù)膶?shí)驗(yàn)。他們選擇了三個不同規(guī)模的AI模型進(jìn)行測試,包括70億參數(shù)和130億參數(shù)的LLaVA-1.5模型,以及70億參數(shù)的ShareGPT4V模型。這就像在不同年級的學(xué)生中驗(yàn)證新教學(xué)方法的效果。

實(shí)驗(yàn)結(jié)果令人震撼。在視覺理解能力測試中,所有經(jīng)過VIG訓(xùn)練的模型都取得了顯著提升。以LLaVA-1.5 7B模型為例,盡管只使用了原來34%的訓(xùn)練數(shù)據(jù),但在LLaVAW基準(zhǔn)測試中得分從59.02提升到61.22,在MMVet測試中從28.62提升到32.71。這就像學(xué)生通過更有針對性的復(fù)習(xí),用更少的時間取得了更好的成績。

更加令人驚喜的是模型在"幻覺"問題上的改善。AI的幻覺現(xiàn)象就像人在黑暗中看到并不存在的東西,會描述圖片中根本沒有的物體或場景。經(jīng)過VIG訓(xùn)練的模型在這方面表現(xiàn)出了顯著的改進(jìn)。在POPE幻覺測試中,LLaVA-1.5 7B的幻覺率從14.99%下降到12.80%,這意味著AI變得更加誠實(shí)和可靠。

研究團(tuán)隊(duì)還測試了VIG方法與其他現(xiàn)有改進(jìn)技術(shù)的兼容性。結(jié)果發(fā)現(xiàn),VIG訓(xùn)練就像一個通用的基礎(chǔ)改進(jìn)方法,能夠與其他技術(shù)完美結(jié)合,產(chǎn)生疊加的增益效果。當(dāng)VIG訓(xùn)練與對比解碼、注意力增強(qiáng)等技術(shù)組合使用時,AI的整體性能得到了進(jìn)一步提升。

最引人注目的是訓(xùn)練效率的巨大提升。130億參數(shù)的LLaVA-1.5模型在經(jīng)過VIG訓(xùn)練后,僅使用了原來21%的訓(xùn)練數(shù)據(jù)就達(dá)到了比原始模型更好的性能。這種效率提升對于資源有限的研究團(tuán)隊(duì)和應(yīng)用場景具有重要意義,就像發(fā)現(xiàn)了一種更高效的學(xué)習(xí)方法,讓同樣的時間和精力產(chǎn)生更大的效果。

五、深入分析:揭示AI視覺理解的內(nèi)在機(jī)制

為了更深入地理解VIG訓(xùn)練為什么如此有效,研究團(tuán)隊(duì)對AI的內(nèi)部工作機(jī)制進(jìn)行了細(xì)致分析。他們發(fā)現(xiàn),經(jīng)過VIG訓(xùn)練的AI在處理視覺任務(wù)時展現(xiàn)出了與人類更相似的注意力分配模式。

通過分析AI的注意力權(quán)重分布,研究人員發(fā)現(xiàn)傳統(tǒng)訓(xùn)練的AI往往將大部分注意力集中在文字信息上,對圖片信息的關(guān)注相對較少。這就像一個學(xué)生在看圖作文時花費(fèi)大量時間思考語法和詞匯,卻很少觀察圖片本身的內(nèi)容。而經(jīng)過VIG訓(xùn)練的AI則顯示出了截然不同的模式——它們會將更多注意力分配給視覺信息,特別是在模型的中間層,這些層被認(rèn)為是進(jìn)行語義特征提取的關(guān)鍵部位。

更有趣的是,研究團(tuán)隊(duì)發(fā)現(xiàn)不同規(guī)模的AI模型對VIG訓(xùn)練的響應(yīng)方式存在差異。較大的模型(如130億參數(shù)的版本)能夠更充分地利用精選的高質(zhì)量數(shù)據(jù),即使訓(xùn)練數(shù)據(jù)大幅減少也能保持優(yōu)秀的性能。這種現(xiàn)象就像經(jīng)驗(yàn)豐富的學(xué)習(xí)者能夠從少量高質(zhì)量的學(xué)習(xí)材料中提取更多有價(jià)值的信息。

研究團(tuán)隊(duì)還測試了AI對文字干擾的抗性。他們設(shè)計(jì)了一個巧妙的實(shí)驗(yàn):向AI展示圖片的同時,提供帶有誤導(dǎo)性的文字描述,觀察AI是相信自己"看到"的還是"聽到"的信息。結(jié)果顯示,經(jīng)過VIG訓(xùn)練的AI表現(xiàn)出了更強(qiáng)的視覺可靠性,它們更傾向于相信圖片信息而不是被誤導(dǎo)性文字所迷惑。這種改善就像培養(yǎng)了一個更加獨(dú)立思考的學(xué)生,不會輕易被他人的錯誤觀點(diǎn)所影響。

六、廣泛影響:重塑AI視覺理解的未來

VIG方法的影響遠(yuǎn)遠(yuǎn)超出了學(xué)術(shù)研究的范疇,它為整個AI視覺理解領(lǐng)域帶來了新的發(fā)展方向。首先,這種方法提供了一個標(biāo)準(zhǔn)化的評估工具,讓研究人員能夠客觀地衡量不同訓(xùn)練數(shù)據(jù)的質(zhì)量。就像為混亂的圖書館配備了一個智能分類系統(tǒng),能夠自動識別哪些書籍真正有價(jià)值。

在實(shí)際應(yīng)用層面,VIG訓(xùn)練的AI系統(tǒng)將在多個關(guān)鍵領(lǐng)域發(fā)揮重要作用。在醫(yī)療影像診斷中,能夠更準(zhǔn)確依賴視覺信息的AI將減少誤診風(fēng)險(xiǎn),為醫(yī)生提供更可靠的輔助判斷。在自動駕駛領(lǐng)域,具備更強(qiáng)視覺理解能力的AI將能夠更準(zhǔn)確地識別道路狀況和潛在危險(xiǎn),提高行車安全性。

教育領(lǐng)域也將從這項(xiàng)技術(shù)中受益。AI教學(xué)助手將能夠更準(zhǔn)確地理解和分析學(xué)生提交的圖片作業(yè),提供更精準(zhǔn)的反饋和指導(dǎo)。同時,這種技術(shù)也將推動視覺內(nèi)容創(chuàng)作工具的發(fā)展,讓AI能夠更準(zhǔn)確地理解創(chuàng)作者的視覺意圖,生成更符合要求的內(nèi)容。

從技術(shù)發(fā)展角度來看,VIG方法展示了數(shù)據(jù)質(zhì)量優(yōu)于數(shù)量的重要原則。這一發(fā)現(xiàn)將推動整個AI行業(yè)重新思考數(shù)據(jù)收集和處理策略,從簡單的"大數(shù)據(jù)"思維轉(zhuǎn)向"精準(zhǔn)數(shù)據(jù)"思維。這種轉(zhuǎn)變不僅能夠提高AI系統(tǒng)的性能,還能顯著降低訓(xùn)練成本和環(huán)境影響。

研究團(tuán)隊(duì)也坦誠地指出了當(dāng)前方法的局限性。VIG計(jì)算需要額外的計(jì)算資源,雖然這是一次性成本,但對于資源受限的研究環(huán)境仍然是一個挑戰(zhàn)。此外,該方法目前主要在特定的AI架構(gòu)上進(jìn)行了驗(yàn)證,其在其他類型模型上的效果還需要進(jìn)一步探索。

七、未來展望:開啟智能視覺的新時代

這項(xiàng)研究不僅解決了當(dāng)前AI視覺理解中的關(guān)鍵問題,更重要的是為未來的發(fā)展指明了方向。VIG指標(biāo)的提出標(biāo)志著AI訓(xùn)練從"粗放式"向"精準(zhǔn)式"的重要轉(zhuǎn)變,就像從撒網(wǎng)捕魚進(jìn)化為精準(zhǔn)垂釣。

展望未來,研究團(tuán)隊(duì)計(jì)劃將VIG方法擴(kuò)展到更多類型的AI模型和應(yīng)用場景中。他們特別感興趣的是探索VIG在多模態(tài)AI系統(tǒng)中的應(yīng)用潛力,這些系統(tǒng)不僅需要理解圖像和文字,還需要處理音頻、視頻等多種信息類型。隨著技術(shù)的不斷完善,我們有理由相信,未來的AI將具備更加人性化和可靠的視覺理解能力。

這項(xiàng)來自韓國首爾國立科技大學(xué)的創(chuàng)新研究證明了,有時候解決復(fù)雜問題的關(guān)鍵不在于增加更多資源,而在于更智能地使用現(xiàn)有資源。VIG方法的成功提醒我們,在追求AI性能提升的道路上,精準(zhǔn)比盲目更重要,質(zhì)量比數(shù)量更關(guān)鍵。當(dāng)AI學(xué)會了真正"用眼睛思考",我們與智能機(jī)器的協(xié)作將變得更加可靠和高效。

Q&A

Q1:視覺信息增益VIG指標(biāo)到底是什么?

A:VIG是一個能夠測量圖片信息對AI回答問題重要程度的指標(biāo)。它通過對比AI看清楚圖片時和看模糊圖片時的回答準(zhǔn)確度來計(jì)算,如果差別很大說明圖片很重要,差別小說明主要靠文字知識就能回答。

Q2:VIG訓(xùn)練方法會不會讓AI丟失某些能力?

A:不會。研究顯示VIG訓(xùn)練實(shí)際上是一個"增強(qiáng)式"的方法,它讓AI更專注于真正需要視覺能力的任務(wù),同時保持了原有的文字理解能力。就像培養(yǎng)學(xué)生專注力,并不會讓他們失去其他技能。

Q3:普通用戶什么時候能體驗(yàn)到VIG技術(shù)帶來的改進(jìn)?

A:雖然這還是前沿研究,但考慮到AI技術(shù)的快速發(fā)展,預(yù)計(jì)在未來1-2年內(nèi)就可能在一些商業(yè)AI產(chǎn)品中看到類似技術(shù)的應(yīng)用,特別是在圖像識別、視覺問答等需要準(zhǔn)確視覺理解的場景中。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
山東小伙娶只有8歲智商的新娘,笑的合不攏嘴,網(wǎng)友:賺大了!

山東小伙娶只有8歲智商的新娘,笑的合不攏嘴,網(wǎng)友:賺大了!

觀察鑒娛
2026-02-01 15:02:49
普京宮殿的“遺產(chǎn)”:65億盧布天降橫財(cái),最終都流向了同一個人

普京宮殿的“遺產(chǎn)”:65億盧布天降橫財(cái),最終都流向了同一個人

老馬拉車莫少裝
2026-02-26 18:52:14
伊朗第五輪導(dǎo)彈射向以色列

伊朗第五輪導(dǎo)彈射向以色列

界面新聞
2026-02-28 18:33:54
《鏢人》破10億只是開始,吳京、沈騰、周星馳要掀起一波新高潮了

《鏢人》破10億只是開始,吳京、沈騰、周星馳要掀起一波新高潮了

小丸子的娛樂圈
2026-02-27 17:57:58
剛剛,中東炸了,全球市場要變天!

剛剛,中東炸了,全球市場要變天!

鳳凰網(wǎng)財(cái)經(jīng)
2026-02-28 18:40:07
吳宜澤:無法理解江俊的打球方式,希望我再次專注比賽并爭取奪冠

吳宜澤:無法理解江俊的打球方式,希望我再次專注比賽并爭取奪冠

世界體壇觀察家
2026-02-28 08:43:10
北京賣豆汁大爺爆火,小伙質(zhì)疑里面摻糞,現(xiàn)場直接舉報(bào),當(dāng)場帶走

北京賣豆汁大爺爆火,小伙質(zhì)疑里面摻糞,現(xiàn)場直接舉報(bào),當(dāng)場帶走

離離言幾許
2026-02-26 16:20:55
美股暴跌至暗時刻,特朗普徹底慌了,三個感嘆號警告中國別亂來!

美股暴跌至暗時刻,特朗普徹底慌了,三個感嘆號警告中國別亂來!

朝子亥
2026-02-28 16:10:03
伊朗宣布啟動“誠實(shí)承諾4號”大規(guī)模軍事行動

伊朗宣布啟動“誠實(shí)承諾4號”大規(guī)模軍事行動

每日經(jīng)濟(jì)新聞
2026-02-28 18:47:10
你干過哪些陰暗齷齪的事?網(wǎng)友:最后一個真的好炸裂好真實(shí)

你干過哪些陰暗齷齪的事?網(wǎng)友:最后一個真的好炸裂好真實(shí)

帶你感受人間冷暖
2026-02-17 01:00:24
“100%椰子水”到底有幾分真?四款產(chǎn)品送檢均疑似加水加糖

“100%椰子水”到底有幾分真?四款產(chǎn)品送檢均疑似加水加糖

閃電新聞
2026-02-28 17:31:36
全面開戰(zhàn)!美以對伊朗狂轟濫炸,高層遭斬首、民心盡失

全面開戰(zhàn)!美以對伊朗狂轟濫炸,高層遭斬首、民心盡失

老馬拉車莫少裝
2026-03-01 00:09:55
中國開盤,世界崩潰!

中國開盤,世界崩潰!

米宅海外
2026-02-28 08:04:00
洛克希德·馬丁的生產(chǎn)線突然停了,中國凍結(jié)了他們在華的全部資產(chǎn)

洛克希德·馬丁的生產(chǎn)線突然停了,中國凍結(jié)了他們在華的全部資產(chǎn)

百態(tài)人間
2026-02-25 15:33:21
示弱就是毀滅!網(wǎng)友怒了:若20億拿不回,誰來守護(hù)百萬億海外資產(chǎn)

示弱就是毀滅!網(wǎng)友怒了:若20億拿不回,誰來守護(hù)百萬億海外資產(chǎn)

達(dá)文西看世界
2026-02-27 11:35:54
直線跳水!中東,突發(fā)!以色列對伊朗發(fā)動打擊

直線跳水!中東,突發(fā)!以色列對伊朗發(fā)動打擊

證券時報(bào)e公司
2026-02-28 14:50:56
美媒稱自由式滑雪女王谷愛凌“浮現(xiàn)新謎團(tuán)” ,出生記錄父親欄為空白

美媒稱自由式滑雪女王谷愛凌“浮現(xiàn)新謎團(tuán)” ,出生記錄父親欄為空白

阿廢冷眼觀察所
2026-02-28 16:14:52
雷軍直播再提新一代SU7門把手:極端情況下,大小電池同時斷電,門把手依然保留純機(jī)械解鎖能力

雷軍直播再提新一代SU7門把手:極端情況下,大小電池同時斷電,門把手依然保留純機(jī)械解鎖能力

時代財(cái)經(jīng)
2026-02-28 10:46:20
當(dāng)時很多蒙古考察日記中,都提到蒙古人性交隨意,得病者極多!

當(dāng)時很多蒙古考察日記中,都提到蒙古人性交隨意,得病者極多!

老范談史
2026-02-24 14:51:55
吳夢潔殺瘋了!再砍全場最高3分,助江蘇女排復(fù)仇山東

吳夢潔殺瘋了!再砍全場最高3分,助江蘇女排復(fù)仇山東

金毛愛女排
2026-02-28 23:09:18
2026-03-01 02:00:49
至頂AI實(shí)驗(yàn)室 incentive-icons
至頂AI實(shí)驗(yàn)室
一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實(shí)驗(yàn)室。
1970文章數(shù) 162關(guān)注度
往期回顧 全部

科技要聞

狂攬1100億美元!OpenAI再創(chuàng)融資神話

頭條要聞

伊朗媒體公布反擊美軍軍事行動結(jié)果

頭條要聞

伊朗媒體公布反擊美軍軍事行動結(jié)果

體育要聞

球隊(duì)主力全報(bào)銷?頂風(fēng)擺爛演都不演了

娛樂要聞

周杰倫兒子正面照曝光,與父親好像

財(cái)經(jīng)要聞

沖突爆發(fā) 市場變天?

汽車要聞

嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

態(tài)度原創(chuàng)

數(shù)碼
教育
游戲
時尚
本地

數(shù)碼要聞

小米超薄充電寶亮相MWC,98g有多能打?

教育要聞

“比預(yù)估高了20多分,激動得有點(diǎn)想哭!”今天有人歡呼,有人沉默,有人紅了眼眶,這一年都經(jīng)歷了什么?

所有人保持嘴角不變!生化危機(jī):安魂曲里昂騷話大盤點(diǎn)

這6款發(fā)色居然這么火?50張圖可以直接給tony

本地新聞

津南好·四時總相宜

無障礙瀏覽 進(jìn)入關(guān)懷版