国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

匯報(bào)一下ICCV全部獎(jiǎng)項(xiàng),恭喜朱俊彥團(tuán)隊(duì)獲最佳論文

0
分享至

剛剛,備受矚目的ICCV 2025,在美國夏威夷正式“開獎(jiǎng)”!

好家伙,在提交論文的作者里,中國直接占了半壁江山,不多不少占比50%。


各個(gè)獎(jiǎng)項(xiàng)也是重中之重捷報(bào)頻傳,現(xiàn)場(chǎng)更是人山人?!迷谇胺絽?huì)的“詹姆斯邦迪”(小紅書博主,歡迎大家去follow),第一時(shí)間分享了最新進(jìn)展。

讓我們一起膜拜看看頂會(huì)榮耀,今年花落誰家?

最佳論文獎(jiǎng)(馬爾獎(jiǎng))

Generating Physically Stable and Buildable Brick Structures from Text(從文本生成物理穩(wěn)定且可搭建的積木結(jié)構(gòu))。


圖源小紅書博主:@詹姆斯邦迪

最佳學(xué)生論文獎(jiǎng)

FlowEdit: Inversion-Free Text-Based Editing Using Pre-Trained Flow Models(基于預(yù)訓(xùn)練流模型的無反演文本編輯方法) 。


圖源小紅書博主:@詹姆斯邦迪

最佳論文榮譽(yù)提名

Spatially-Varying Autofocus(空間可變自動(dòng)對(duì)焦)。


圖源小紅書博主:@詹姆斯邦迪

最佳學(xué)生論文榮譽(yù)提名

RayZer: A Self-supervised Large View Synthesis Model(基于自監(jiān)督學(xué)習(xí)的大規(guī)模視圖合成模型)。


圖源小紅書博主:@詹姆斯邦迪

赫爾姆霍茲獎(jiǎng)

Fast R-CNN(快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò))和Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification(深入研究修正激活函數(shù):在ImageNet分類中超越人類水平)。


圖源小紅書博主:@詹姆斯邦迪

埃弗林厄姆獎(jiǎng)

The SMPL Body Model Team和The VQA Team。


圖源小紅書博主:@詹姆斯邦迪

杰出研究員獎(jiǎng)

David Forsyth和Michal Irani。


圖源小紅書博主:@詹姆斯邦迪

阿茲列爾·羅森菲爾德終身成就獎(jiǎng)

Rama Chellappa。


圖源小紅書博主:@詹姆斯邦迪

對(duì)于上述論文成果和獎(jiǎng)項(xiàng),是不是一下子有點(diǎn)懵?

別慌別慌,咱們一起來詳細(xì)學(xué)習(xí)一下。

獲獎(jiǎng)的都是啥研究? 最佳論文獎(jiǎng)

首先介紹的是最佳論文獎(jiǎng),這含金量就不用多說了吧。

ICCV最佳論文又名馬爾獎(jiǎng)(Marr Prize),每?jī)赡暝u(píng)選一次,被譽(yù)為計(jì)算機(jī)視覺領(lǐng)域的最高榮譽(yù)之一。 這一獎(jiǎng)項(xiàng)因計(jì)算機(jī)視覺之父、計(jì)算機(jī)視覺先驅(qū)、計(jì)算神經(jīng)科學(xué)的創(chuàng)始人David Courtnay Marr(大衛(wèi)·馬爾)而得名。


此研究提出了BRICKGPT——首個(gè)能夠根據(jù)文本提示生成物理穩(wěn)定的積木結(jié)構(gòu)模型的方法。

研究團(tuán)隊(duì)構(gòu)建了一個(gè)大規(guī)模、物理穩(wěn)定的積木結(jié)構(gòu)數(shù)據(jù)集StableText2Brick,包含超過47000個(gè)積木結(jié)構(gòu),涵蓋28000多個(gè)獨(dú)特三維物體,每個(gè)結(jié)構(gòu)均配有詳細(xì)的文字描述,并訓(xùn)練了一個(gè)自回歸大型語言模型,通過逐步預(yù)測(cè)“下一個(gè)積木”來生成完整結(jié)構(gòu)。


為了提升生成結(jié)構(gòu)的穩(wěn)定性,他們?cè)谕评磉^程中引入了有效性檢測(cè)和物理感知回滾機(jī)制,利用物理規(guī)律和裝配約束剔除不可行的預(yù)測(cè)。

實(shí)驗(yàn)表明,BRICKGPT能夠生成穩(wěn)定、多樣且美觀的積木結(jié)構(gòu),并與輸入文本高度契合。進(jìn)一步地,他們還開發(fā)了基于文本的積木紋理生成方法,可生成帶顏色和紋理的設(shè)計(jì),且這些結(jié)構(gòu)既可以由人手動(dòng)組裝,也可以由機(jī)械臂自動(dòng)搭建。


值得一提的是,這論文里也有不少華人身影,而帶隊(duì)的正是AI才俊朱俊彥。


朱俊彥,2008年進(jìn)入清華大學(xué)計(jì)算機(jī)科學(xué)系,學(xué)習(xí)計(jì)算機(jī)科學(xué)專業(yè)。在同專業(yè)140人中,朱俊彥排名第2。2012年清華本科畢業(yè)后,朱俊彥奔赴美國,在CMU和UC伯克利經(jīng)過5年學(xué)習(xí),獲得了UC伯克利電氣工程與計(jì)算機(jī)科學(xué)系的博士學(xué)位,師從Alexei Efros。

其博士畢業(yè)畢業(yè)論文Learning to Generate Images,獲得了計(jì)算機(jī)圖形學(xué)頂會(huì)ACM SIGGRAPH 2018“杰出博士論文獎(jiǎng)”。

博士畢業(yè)后,朱俊彥來到MIT計(jì)算機(jī)與人工智能實(shí)驗(yàn)室(CSAIL),成為一名博士后研究員。2020年秋季,他回到曾經(jīng)的母校CMU(卡內(nèi)基梅隆大學(xué)),擔(dān)任助理教授一職。


其他幾位:Kangle Deng,Roblox的一名研究科學(xué)家,研究重點(diǎn)是3D內(nèi)容創(chuàng)作。本科畢業(yè)于北京大學(xué),博士畢業(yè)于卡內(nèi)基梅隆大學(xué)。


Ruixuan Liu,本科和碩士均畢業(yè)于卡內(nèi)基梅隆大學(xué),現(xiàn)為該校計(jì)算機(jī)學(xué)院機(jī)器人研究所的博士生,研究方向包括機(jī)器人學(xué)習(xí)、操作與控制、生成式智能,以及人機(jī)協(xié)作。


Changliu Liu,本科畢業(yè)于清華大學(xué),博士畢業(yè)于美國加州大學(xué)伯克利分校,現(xiàn)為卡內(nèi)基梅隆大學(xué)機(jī)器人研究所的副教授,

最佳學(xué)生論文獎(jiǎng)

使用預(yù)訓(xùn)練的文本到圖像(Text-to-Image,T2I)擴(kuò)散或流模型編輯真實(shí)圖像時(shí),通常需要先將圖像反演(inversion)到對(duì)應(yīng)的噪聲空間。

然而,僅靠反演往往難以獲得理想結(jié)果,因此許多方法會(huì)在采樣過程中額外干預(yù)。這類方法雖然能夠提升效果,但無法在不同模型架構(gòu)之間無縫遷移。


為此,研究團(tuán)隊(duì)提出了FlowEdit——一種針對(duì)預(yù)訓(xùn)練T2I流模型的文本驅(qū)動(dòng)圖像編輯方法。它無需反演、無需優(yōu)化,并且對(duì)模型架構(gòu)無依賴。

FlowEdit構(gòu)建了一個(gè)常微分方程(ODE),直接在源分布與目標(biāo)分布之間映射(對(duì)應(yīng)源文本提示和目標(biāo)文本提示),并實(shí)現(xiàn)了比傳統(tǒng)反演方法更低的傳輸成本。

正如團(tuán)隊(duì)在Stable Diffusion 3和FLUX上的實(shí)驗(yàn)所示,該方法取得了最先進(jìn)的效果。


最佳論文榮譽(yù)提名

透鏡可以將一個(gè)平面聚焦到平面?zhèn)鞲衅魃?,因此?chǎng)景中不在該焦平面上的部分會(huì)因失焦而模糊。

來自卡內(nèi)基梅隆大學(xué)的團(tuán)隊(duì)打破常規(guī),設(shè)計(jì)使用了Lohmann 透鏡與僅相位空間光調(diào)制器(phase-only spatial light modulator) 的光學(xué)組合,使得每個(gè)像素可以聚焦在不同深度上。


他們將經(jīng)典自動(dòng)對(duì)焦技術(shù)拓展至空間變化場(chǎng)景:利用對(duì)比度與視差線索迭代估算深度圖,使相機(jī)能夠根據(jù)場(chǎng)景深度動(dòng)態(tài)調(diào)整景深分布。

通過光學(xué)方式直接獲取全焦圖像,此技術(shù)在以下兩個(gè)關(guān)鍵方面超越了現(xiàn)有成果:一是能夠同時(shí)使整個(gè)場(chǎng)景保持清晰對(duì)焦,二是可維持最高的空間分辨率。


最佳學(xué)生論文榮譽(yù)提名

研究團(tuán)隊(duì)提出了RayZer——一種無需任何3D監(jiān)督(如相機(jī)位姿與場(chǎng)景幾何信息)即可完成訓(xùn)練的自監(jiān)督多視圖3D視覺模型。


具體而言,RayZer以未標(biāo)定且未校準(zhǔn)的圖像作為輸入,自主恢復(fù)相機(jī)參數(shù)、重建場(chǎng)景表征并生成新視角畫面。

在訓(xùn)練過程中,RayZer僅依賴其自預(yù)測(cè)的相機(jī)位姿來渲染目標(biāo)視角,完全無需真實(shí)相機(jī)標(biāo)注數(shù)據(jù),實(shí)現(xiàn)了僅通過2D圖像監(jiān)督即可完成訓(xùn)練。

RayZer所表現(xiàn)出的三維感知能力主要?dú)w功于兩個(gè)關(guān)鍵因素:

  • 自監(jiān)督框架設(shè)計(jì):通過將相機(jī)表示和場(chǎng)景表示解耦,實(shí)現(xiàn)輸入圖像的三維感知自編碼;

  • 基于Transformer的模型設(shè)計(jì):僅以射線結(jié)構(gòu)作為唯一3D先驗(yàn),同步關(guān)聯(lián)相機(jī)、像素與場(chǎng)景信息。

實(shí)驗(yàn)表明,RayZer在新視角合成任務(wù)中展現(xiàn)出與”真值標(biāo)注”方法相當(dāng)甚至更優(yōu)的性能。


赫爾姆霍茲獎(jiǎng)

獲赫爾姆霍茲獎(jiǎng)的一共有兩項(xiàng)研究,且都來自微軟研究院。

其一為Fast R-CNN——一種基于快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法。


Fast R-CNN在之前工作的基礎(chǔ)上,利用深度卷積網(wǎng)絡(luò)對(duì)候選目標(biāo)區(qū)域進(jìn)行高效分類。與以往方法相比,F(xiàn)ast R-CNN引入了多項(xiàng)創(chuàng)新,不僅提升了訓(xùn)練和測(cè)試速度,同時(shí)也提高了檢測(cè)精度。

實(shí)驗(yàn)表明,在PASCAL VOC 2012數(shù)據(jù)集上,F(xiàn)ast R-CNN對(duì)VGG16網(wǎng)絡(luò)的訓(xùn)練速度較R-CNN提升9倍,測(cè)試速度提升213倍,并獲得了更高的mAP指標(biāo);相較于SPPnet,其VGG16訓(xùn)練速度加快3倍,測(cè)試速度提升10倍,且檢測(cè)精度更優(yōu)。


上面提到了,另一個(gè)獲赫爾姆霍茲獎(jiǎng)的也來自微軟研究院。


研究從兩個(gè)方面研究了用于圖像分類的修正激活神經(jīng)網(wǎng)絡(luò)。

首先,他們提出了一種參數(shù)化修正線性單元(Parametric ReLU,PReLU),它是對(duì)傳統(tǒng)修正激活單元的推廣。PReLU在幾乎不增加額外計(jì)算開銷且?guī)缀鯖]有過擬合風(fēng)險(xiǎn)的情況下,提高了模型的擬合能力。

其次,他們提出了一種專門針對(duì)修正激活非線性的魯棒初始化方法,能夠從零開始訓(xùn)練極深的修正激活模型,并探索更深或更寬的網(wǎng)絡(luò)架構(gòu)。

基于PReLU網(wǎng)絡(luò)(PReLU-nets),團(tuán)隊(duì)在ImageNet 2012分類數(shù)據(jù)集上實(shí)現(xiàn)了4.94%的Top-5測(cè)試誤差,相比ILSVRC 2014冠軍GoogLeNet(6.66%)提升了26%。據(jù)研究人員所知,這是首次在該視覺識(shí)別挑戰(zhàn)中超過人類水平(5.1%)的結(jié)果。


獲獎(jiǎng)團(tuán)隊(duì)與大佬 埃弗林厄姆獎(jiǎng)

細(xì)數(shù)完獲獎(jiǎng)的一眾研究,就該看看獲獎(jiǎng)的團(tuán)隊(duì)了。

首先是The SMPL Body Model Team,SMPL是一種基于蒙皮和混合形狀技術(shù)、從數(shù)千例3D人體掃描數(shù)據(jù)中學(xué)習(xí)得到的逼真人體三維模型。該模型在精度上超越現(xiàn)有模型,并與主流圖形渲染管線完全兼容。


值得一提的是,該模型參數(shù)完全從數(shù)據(jù)中學(xué)習(xí)得到,包括:靜態(tài)姿態(tài)模板、混合權(quán)重、姿態(tài)混合形狀、身份混合形狀,以及從頂點(diǎn)到關(guān)節(jié)點(diǎn)位置的回歸器。


與既有模型不同,此模型的姿態(tài)混合形狀是姿態(tài)旋轉(zhuǎn)矩陣元素的線性函數(shù)。這一簡(jiǎn)潔的數(shù)學(xué)表達(dá)使得模型能夠基于大量不同人體、不同姿態(tài)的對(duì)齊3D網(wǎng)格數(shù)據(jù)進(jìn)行端到端訓(xùn)練。

接下來是The VQA Team,VQA為一項(xiàng)自由形式開放式視覺問答任務(wù)。


在該任務(wù)中,給定一張圖像和關(guān)于該圖像的自然語言問題,系統(tǒng)需要提供一個(gè)準(zhǔn)確的自然語言答案。

與現(xiàn)實(shí)場(chǎng)景(例如為視障人士提供幫助)類似,這里的問題和答案都是開放式的。視覺問題會(huì)有選擇性地關(guān)注圖像的不同區(qū)域,包括背景細(xì)節(jié)和潛在上下文信息。

因此,要在VQA任務(wù)中取得成功,系統(tǒng)通常需要比生成通用圖像描述更深入理解圖像內(nèi)容和進(jìn)行復(fù)雜推理的能力。

對(duì)此,研究團(tuán)隊(duì)提供了一個(gè)數(shù)據(jù)集,包含約25萬張圖像、76萬個(gè)問題和約1000萬個(gè)答案,并討論了數(shù)據(jù)集所提供的信息。他們還提供了多種基線方法及VQA方法,并與人類表現(xiàn)進(jìn)行了對(duì)比。

杰出研究員獎(jiǎng)


David Forsyth,一位出生于南非的美國計(jì)算機(jī)科學(xué)家,現(xiàn)任伊利諾伊大學(xué)香檳分校(UIUC)計(jì)算機(jī)科學(xué)Fulton Watson Copp教授,主要研究方向包括計(jì)算機(jī)視覺、計(jì)算機(jī)圖形學(xué)和機(jī)器學(xué)習(xí)。

他在約翰內(nèi)斯堡維特沃特斯蘭德大學(xué)獲得電氣工程學(xué)士和碩士學(xué)位,并于1989年在牛津大學(xué)獲得計(jì)算機(jī)科學(xué)博士學(xué)位,導(dǎo)師為J. Michael Brady。

完成博士后工作后,他曾在愛荷華大學(xué)任教,并于1994至 2004 年在加州大學(xué)伯克利分校擔(dān)任電氣工程與計(jì)算機(jī)科學(xué)系教授,2004年起加入U(xiǎn)IUC,成為該校計(jì)算機(jī)科學(xué)領(lǐng)域的領(lǐng)軍人物。

此外,David長期參與國際學(xué)術(shù)會(huì)議的組織工作,曾三度擔(dān)任IEEE計(jì)算機(jī)視覺與模式識(shí)別會(huì)議程序委員會(huì)聯(lián)合主席(2000/2011/2018),兩度擔(dān)任CVPR大會(huì)聯(lián)合主席(2006/2015),并擔(dān)任2008年歐洲計(jì)算機(jī)視覺會(huì)議程序委員會(huì)聯(lián)合主席。

他是所有主要國際計(jì)算機(jī)視覺會(huì)議程序委員會(huì)的常任委員,曾六度入選SIGGRAPH程序委員會(huì)并持續(xù)擔(dān)任該會(huì)議評(píng)審。


Michal Irani,以色列魏茨曼科學(xué)研究院數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院的教授及現(xiàn)任院長。曾在希伯來大學(xué)獲得數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)士及計(jì)算機(jī)科學(xué)碩士、博士學(xué)位。

Michal的研究領(lǐng)域?yàn)橛?jì)算機(jī)視覺、圖像處理和人工智能。她尤其致力于理解自然圖像和視頻的內(nèi)部統(tǒng)計(jì)信息、視頻的時(shí)空分析以及基于構(gòu)圖的視覺推理。

Michal教授在學(xué)術(shù)界成就卓著,獲得多項(xiàng)榮譽(yù),包括薩諾夫研究中心技術(shù)成就獎(jiǎng)、Yigal Alon杰出青年科學(xué)家獎(jiǎng)、Morris L. Levinson數(shù)學(xué)獎(jiǎng)、ECCV最佳論文獎(jiǎng)等。

阿茲列爾·羅森菲爾德終身成就獎(jiǎng)


Rama Chellappa,約翰霍普金斯大學(xué)布隆伯格杰出教授,現(xiàn)任電氣與計(jì)算機(jī)工程系和生物醫(yī)學(xué)工程系教授,兼任數(shù)據(jù)科學(xué)與人工智能研究所共同主任。

Rama教授于印度馬德拉斯大學(xué)獲得電子與通信工程學(xué)士學(xué)位(1975),隨后在印度班加羅爾的印度科學(xué)研究院獲得電子與通信工程碩士學(xué)位(1977),并在美國普渡大學(xué)獲得電氣工程碩士(1978)和博士學(xué)位(1981)。

他的研究領(lǐng)域涵蓋計(jì)算機(jī)視覺、模式識(shí)別、圖像與信號(hào)處理、機(jī)器學(xué)習(xí)和生物特征識(shí)別等,致力于利用數(shù)據(jù)、幾何和物理學(xué)幫助計(jì)算機(jī)系統(tǒng)理解視覺世界。

One More Thing

有意思的是,這么大的會(huì)議,竟然有許多人坐在地上吃午飯。


所以網(wǎng)友合理建議:快多放點(diǎn)椅子吧~


論文鏈接:
[1]https://arxiv.org/abs/2505.05469
[2]https://arxiv.org/html/2412.08629v2
[3]https://imaging.cs.cmu.edu/svaf/static/pdfs/Spatially_Varying_Autofocus.pdf
[4]https://arxiv.org/abs/2505.00702
[5]https://arxiv.org/abs/1504.08083
[6]https://arxiv.org/abs/1502.01852

文章來源:量子位。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
船媒盼哈登重返休城!模擬6換4方案杜登重聚:留謝潑德出伊森海王

船媒盼哈登重返休城!模擬6換4方案杜登重聚:留謝潑德出伊森海王

顏小白的籃球夢(mèng)
2025-12-24 09:33:21
多地已開啟2026年國補(bǔ)推進(jìn)工作

多地已開啟2026年國補(bǔ)推進(jìn)工作

第一財(cái)經(jīng)資訊
2025-12-24 09:26:54
朱厚照在位十六年,為何沒子嗣?答:后宮雖多,但架不住他亂折騰

朱厚照在位十六年,為何沒子嗣?答:后宮雖多,但架不住他亂折騰

鶴羽說個(gè)事
2025-12-23 11:09:21
塞門約通知曼聯(lián)首選轉(zhuǎn)會(huì)曼城!決定原因曝光,阿莫林承諾無濟(jì)于事

塞門約通知曼聯(lián)首選轉(zhuǎn)會(huì)曼城!決定原因曝光,阿莫林承諾無濟(jì)于事

羅米的曼聯(lián)博客
2025-12-24 09:51:47
放棄爭(zhēng)奪數(shù)百億遺產(chǎn),帶著女兒遠(yuǎn)遁美國,如今才知道她有多清醒

放棄爭(zhēng)奪數(shù)百億遺產(chǎn),帶著女兒遠(yuǎn)遁美國,如今才知道她有多清醒

夢(mèng)史
2025-12-16 11:07:49
出現(xiàn)這種情況,黃金才會(huì)下跌

出現(xiàn)這種情況,黃金才會(huì)下跌

柏年說政經(jīng)
2025-12-23 18:00:03
庫里:我對(duì)圣誕大戰(zhàn)沒什么特別回憶,因?yàn)槲覜]打出過好的表現(xiàn)

庫里:我對(duì)圣誕大戰(zhàn)沒什么特別回憶,因?yàn)槲覜]打出過好的表現(xiàn)

懂球帝
2025-12-24 11:25:35
24GB+1TB!新機(jī)曝光:搭載驍龍8 Gen5+2億潛望長焦!

24GB+1TB!新機(jī)曝光:搭載驍龍8 Gen5+2億潛望長焦!

科技堡壘
2025-12-23 11:31:08
軍隊(duì)再強(qiáng)大,經(jīng)濟(jì)再富足,武器再尖端,沒有偉大領(lǐng)袖,全都白瞎

軍隊(duì)再強(qiáng)大,經(jīng)濟(jì)再富足,武器再尖端,沒有偉大領(lǐng)袖,全都白瞎

南權(quán)先生
2025-12-23 16:58:45
男兒護(hù)國著征袍:烏綠衣主教葉爾馬克血戰(zhàn)沙場(chǎng),俄塔曼港遭重創(chuàng)

男兒護(hù)國著征袍:烏綠衣主教葉爾馬克血戰(zhàn)沙場(chǎng),俄塔曼港遭重創(chuàng)

史政先鋒
2025-12-23 14:41:27
上千元碳板鞋引爭(zhēng)議,泰蘭尼斯“半掌碳板”真的可以護(hù)足?醫(yī)生:兒童不建議穿

上千元碳板鞋引爭(zhēng)議,泰蘭尼斯“半掌碳板”真的可以護(hù)足?醫(yī)生:兒童不建議穿

極目新聞
2025-12-23 21:48:18
南博風(fēng)波后續(xù):全網(wǎng)追查“借畫不還”的神秘老同志,揭開歷史迷霧

南博風(fēng)波后續(xù):全網(wǎng)追查“借畫不還”的神秘老同志,揭開歷史迷霧

公子麥少
2025-12-21 14:54:43
全球第三美!確實(shí)實(shí)至名歸!

全球第三美!確實(shí)實(shí)至名歸!

伊人河畔
2025-12-23 21:16:34
新加坡人直言:比起海南封關(guān)帶來的威脅,更怕中國會(huì)幫泰國挖運(yùn)河

新加坡人直言:比起海南封關(guān)帶來的威脅,更怕中國會(huì)幫泰國挖運(yùn)河

小莜讀史
2025-12-23 18:28:28
利比亞軍事領(lǐng)導(dǎo)人在土耳其墜機(jī)身亡

利比亞軍事領(lǐng)導(dǎo)人在土耳其墜機(jī)身亡

財(cái)聯(lián)社
2025-12-24 04:30:13
前萬科集團(tuán)的副總稱,不建議購買2018年以后建的房子,質(zhì)量不好

前萬科集團(tuán)的副總稱,不建議購買2018年以后建的房子,質(zhì)量不好

我心縱橫天地間
2025-12-22 20:19:01
深圳16歲“烤雞少年”回應(yīng)喜提邁巴赫

深圳16歲“烤雞少年”回應(yīng)喜提邁巴赫

大象新聞
2025-12-23 18:05:04
鄭麗文:在臺(tái)灣講“我是中國人”何來原罪

鄭麗文:在臺(tái)灣講“我是中國人”何來原罪

揚(yáng)子晚報(bào)
2025-12-23 20:27:17
全國最年輕的女縣委書記張琪同志簡(jiǎn)歷

全國最年輕的女縣委書記張琪同志簡(jiǎn)歷

燕小姐說歷史
2025-01-22 08:51:23
俄大使:邀請(qǐng)中國民眾來俄羅斯領(lǐng)略美景

俄大使:邀請(qǐng)中國民眾來俄羅斯領(lǐng)略美景

參考消息
2025-12-23 21:49:38
2025-12-24 11:40:49
算法與數(shù)學(xué)之美 incentive-icons
算法與數(shù)學(xué)之美
分享知識(shí),交流思想
5276文章數(shù) 64598關(guān)注度
往期回顧 全部

科技要聞

黑產(chǎn)大軍壓境 快手"拔網(wǎng)線"為何慢了兩小時(shí)

頭條要聞

一名歐洲男子捐精生197娃 攜帶致癌基因已致死多人

頭條要聞

一名歐洲男子捐精生197娃 攜帶致癌基因已致死多人

體育要聞

26歲廣西球王,在質(zhì)疑聲中成為本土得分王

娛樂要聞

曝闞清子女兒早產(chǎn)但沒保住

財(cái)經(jīng)要聞

快手到底惹了誰?

汽車要聞

將于明年一季度上市 零跑D19內(nèi)飾官圖發(fā)布

態(tài)度原創(chuàng)

本地
數(shù)碼
家居
公開課
軍事航空

本地新聞

云游安徽|一川江水潤安慶,一塔一戲一城史

數(shù)碼要聞

日本企業(yè)中林推出綜合性輸入設(shè)備:剪刀腳鍵盤上方集成軌跡球鼠標(biāo)

家居要聞

法式大平層 智能家居添彩

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

俄烏沖突關(guān)鍵人物在莫斯科被炸死 烏方尚未公開認(rèn)領(lǐng)

無障礙瀏覽 進(jìn)入關(guān)懷版