国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

韓國棟國大學(xué)突破:AI音樂偵探實現(xiàn)人耳不可察覺的造假痕跡識別

0
分享至


這項由韓國首爾棟國大學(xué)MARTE實驗室與Intrect機構(gòu)聯(lián)合完成的研究,以預(yù)印本形式發(fā)布,研究成果已提交至音樂信息檢索領(lǐng)域頂級會議,感興趣的讀者可通過arXiv等學(xué)術(shù)平臺搜索"ArtifactNet"或作者"Heewon Oh"查找完整論文。

每天,全球各大音樂流媒體平臺上悄悄涌入超過五萬首完全由AI生成的歌曲。它們聽起來像真人演奏,有旋律、有節(jié)奏、有情緒,但背后沒有任何一雙真實的人類雙手觸碰過琴鍵。對于聽眾來說,這可能只是一個品味問題;但對于那些靠音樂謀生的創(chuàng)作者、對于版權(quán)保護機制、對于整個音樂產(chǎn)業(yè)的生態(tài)來說,這是一個正在演變?yōu)槲C的難題。而目前,我們幾乎沒有可靠的工具來區(qū)分它們。

棟國大學(xué)的研究者Heewon Oh決定換一種思路來解決這個問題。與其教計算機"聽"AI音樂聽起來像什么,不如去追蹤AI音樂在物理層面上留下了什么無法抹去的痕跡。這個思路催生了一個叫做ArtifactNet的系統(tǒng),以及一套被研究者稱為"法證物理學(xué)"(forensic physics)的檢測框架。這篇文章將帶你完整走進這項研究,從問題的根源開始,一直到那些令人信服的實驗數(shù)據(jù)。

一、AI音樂工廠的秘密流水線:每首歌都必須經(jīng)過的"壓縮關(guān)卡"

要理解ArtifactNet為什么有效,我們首先要明白AI是怎么生成音樂的,以及這個過程中隱藏著什么樣的不可避免的缺陷。

不管是Suno、Udio、MusicGen還是Stable Audio,這些AI音樂生成工具在背后都依賴一種叫做"神經(jīng)音頻編解碼器"(neural audio codec)的技術(shù)組件。你可以把它理解成一個極其精密的壓縮機器。原始音頻信號非常龐大,就像一張超高清原始照片,在被AI處理之前,必須先"壓縮"成一串?dāng)?shù)字代碼;AI在這些代碼上施展魔法,完成創(chuàng)作;然后再把代碼"解壓"還原成我們聽到的音頻。

這個壓縮過程的核心技術(shù)叫做"殘差向量量化"(Residual Vector Quantization,簡稱RVQ)。具體來說,這套機制的工作方式類似于一本有限頁數(shù)的"聲音字典"。音頻中連續(xù)流動的聲波,被強行翻譯成這本字典里最接近的幾個詞條的組合。典型的系統(tǒng)里,這本字典可能有1024個詞條,分8到32層疊加使用。

關(guān)鍵問題出現(xiàn)了:聲音是連續(xù)的、無限微妙的,而字典的詞條是有限的、離散的。每次查字典,總會有一點點聲音信息丟失在"最近的詞條"和"真實聲音"之間的縫隙里。更重要的是,這個縫隙是永久性的——一旦信息被量化壓縮,那部分細(xì)節(jié)就永遠(yuǎn)消失了,無法還原。

Heewon Oh的核心發(fā)現(xiàn)正在于此:這個量化縫隙會在AI生成的音頻中留下一種特殊的、結(jié)構(gòu)化的痕跡。每一首AI歌曲,不管它由什么風(fēng)格的模型生成,都必須經(jīng)過這道壓縮關(guān)卡,因此都帶有這種痕跡。研究者把這一現(xiàn)象稱為"法證殘差放大"(forensic residual amplification)。

二、以前的偵探是怎么工作的,為什么他們會認(rèn)錯人

在ArtifactNet出現(xiàn)之前,學(xué)術(shù)界有兩種主要的AI音樂檢測思路,各有其問題。

第一種思路叫做"表征學(xué)習(xí)",代表作是一個叫CLAM的系統(tǒng)。它的做法是訓(xùn)練一個巨大的神經(jīng)網(wǎng)絡(luò)去"學(xué)習(xí)"AI音樂的聲音特征,參數(shù)量高達(dá)1.94億個——大約相當(dāng)于ArtifactNet的49倍體量。CLAM在它見過的AI生成器上表現(xiàn)不錯,但問題在于:當(dāng)一個全新的AI生成器出現(xiàn)時,它的"聲音風(fēng)格"可能和訓(xùn)練數(shù)據(jù)完全不同,CLAM就會認(rèn)不出來。更糟糕的是,在后來的實驗里,CLAM在真實人類音樂上的誤報率高達(dá)69.3%——也就是說,它把七成的真實音樂都誤判成了AI生成。

第二種思路叫做"自編碼器指紋",代表作是SpecTTTra。它通過學(xué)習(xí)自動編碼器的重建誤差來判斷,在特定的數(shù)據(jù)集上能達(dá)到97%的F1分?jǐn)?shù)。但同樣,一旦遇到訓(xùn)練時沒見過的生成器,性能會崩塌到50%到68%之間——幾乎和隨機猜測沒有區(qū)別。

這兩種方法共同的根本問題,就像是一個偵探通過"嫌疑人的穿著風(fēng)格"來認(rèn)人:今天他穿西裝,明天他換了休閑裝,偵探就認(rèn)不出來了。而ArtifactNet的創(chuàng)新在于:它不看風(fēng)格,它尋找的是嫌疑人皮膚上永遠(yuǎn)無法洗掉的胎記。

三、ArtifactNet的偵探手冊:三步找出不可磨滅的痕跡

ArtifactNet的整個檢測流程由三個相互銜接的步驟構(gòu)成,總參數(shù)量只有400萬個,運行起來極為輕量。

第一步叫做"提取法證殘差",由一個叫ArtifactUNet的神經(jīng)網(wǎng)絡(luò)完成。這個網(wǎng)絡(luò)的設(shè)計有一個非常巧妙的約束條件。通常情況下,如果你讓一個網(wǎng)絡(luò)去提取音頻中的"殘差信號",它可能會偷懶,直接把整個音頻信號原樣輸出——這在技術(shù)上滿足了條件,但什么有用信息都沒有。為了防止這種情況,研究者給這個網(wǎng)絡(luò)加了一個"有界掩膜"限制:網(wǎng)絡(luò)預(yù)測的是一個乘在原始信號上的"掩膜",而這個掩膜的范圍被強制限定在0到0.5之間。換句話說,網(wǎng)絡(luò)最多只能提取原始信號能量的一半,它必須認(rèn)真去尋找那些真正的細(xì)微異常,而不能耍把戲。

這個ArtifactUNet的訓(xùn)練也很有意思,分為兩個階段。第一階段叫"知識蒸餾":研究者先用一個叫Demucs v4的大型音源分離模型(有4200萬個參數(shù))來處理音頻,提取出它在分離人聲、鼓、貝斯、其他樂器時產(chǎn)生的"剩余信號"——這個剩余信號就是Demucs無法歸類到任何樂器的聲音殘骸。然后用這個大模型的輸出作為"老師",教ArtifactUNet學(xué)習(xí)提取類似的殘差結(jié)構(gòu),這樣推理時就不需要運行那個笨重的大模型了。第二階段叫"凍結(jié)分類器引導(dǎo)":把后續(xù)的分類器網(wǎng)絡(luò)參數(shù)固定住,只繼續(xù)調(diào)整ArtifactUNet,讓它提取的殘差不只是結(jié)構(gòu)上正確,而且對最終的"AI還是真實"判斷最有幫助。研究者發(fā)現(xiàn),如果同時訓(xùn)練提取器和分類器,訓(xùn)練過程會來回震蕩不穩(wěn)定,分階段則解決了這個問題。

第二步叫做"七通道法證特征計算",用到了一種叫HPSS(諧波-打擊樂源分離)的技術(shù)。簡單來說,HPSS能把一段音頻信號拆分成兩部分:一部分是有音高的旋律性成分(諧波分量),另一部分是瞬間爆發(fā)的打擊性成分(打擊樂分量)。研究者把這個技術(shù)用在了第一步提取出的殘差信號上,而不是原始音頻上——這是整個領(lǐng)域的首次嘗試。

這樣做的邏輯是:如果一首歌是真實人類演奏的,Demucs應(yīng)該能把各種樂器分離得比較干凈,剩余的殘差應(yīng)該是混亂、隨機的小噪音。但如果是AI生成的,由于RVQ壓縮造成的諧波細(xì)節(jié)損失,Demucs會在殘差里留下大量結(jié)構(gòu)化的諧波泄漏和打擊樂泄漏。把這兩種泄漏分別提取出來,加上它們的時間變化率(一階導(dǎo)數(shù))、加速度(二階導(dǎo)數(shù))、諧波與打擊樂的比值對數(shù),以及逐幀的頻譜變化量,共同組成了七個信息通道,構(gòu)成了這套系統(tǒng)的核心"指紋"。

第三步則是分類和投票。一個輕量級的卷積神經(jīng)網(wǎng)絡(luò)(參數(shù)量只有40萬個)處理4秒長的音頻片段,輸出一個0到1之間的"AI概率"。對于一首完整的歌曲,系統(tǒng)會把所有片段的概率取中位數(shù),超過0.5就判定為AI生成。

四、編碼格式這個大坑:為什么MP3差點毀掉一切

在ArtifactNet的開發(fā)過程中,研究者遭遇了一個幾乎致命的問題,而解決這個問題的方案同樣值得詳細(xì)介紹。

網(wǎng)絡(luò)上流傳的音樂大量以MP3、AAC、Opus等有損壓縮格式存在。這些格式本身也會對音頻信號進行某種形式的"壓縮失真"處理,會在頻譜上留下自己的痕跡。早期版本的ArtifactUNet(訓(xùn)練時只用WAV格式無損音頻)完全沒有區(qū)分這兩種來源的失真能力。

實驗結(jié)果觸目驚心:對真實人類音樂使用MP3編碼后,系統(tǒng)的誤報率直接飆升到98.7%——幾乎把所有真實MP3音樂都誤判成了AI生成;而對AI生成的音樂使用AAC編碼后,系統(tǒng)又會把它們漏判為真實音樂。原始系統(tǒng)在不同編碼格式下的預(yù)測概率跨度高達(dá)0.95,意味著換一種格式,結(jié)論就可能完全翻轉(zhuǎn)。

解決方案叫做"編碼感知訓(xùn)練":訓(xùn)練時,對每首歌同時生成WAV、MP3 128kbps、AAC 128kbps和Opus 128kbps四個版本,讓同一批次的訓(xùn)練數(shù)據(jù)涵蓋所有四種格式。這樣,網(wǎng)絡(luò)就被迫學(xué)會忽略有損壓縮帶來的格式特征,專注于尋找那些跨格式穩(wěn)定存在的RVQ量化痕跡。

效果立竿見影。經(jīng)過編碼感知訓(xùn)練后,真實音樂在不同編碼格式下的預(yù)測概率跨度從0.95降到了0.16,減少了83%;AI音樂的跨度從0.72降到了0.14,減少了81%。這意味著不管音樂以什么格式傳播,檢測結(jié)論都會保持穩(wěn)定。

五、測一測:帶寬數(shù)字里的物理學(xué)證據(jù)

研究者還做了一個獨立的物理驗證實驗,用數(shù)字證明了"RVQ留下痕跡"這件事不是理論推斷,而是可以測量的現(xiàn)實。

他們測量了94首曲目(50首AI生成,44首真實人類音樂)的源分離殘差的"有效帶寬"——就是在殘差信號中,能量主要集中在哪個頻率范圍內(nèi)。結(jié)果相當(dāng)戲劇性:AI生成音樂的殘差平均有效帶寬只有291赫茲,而真實人類音樂的殘差有效帶寬高達(dá)1996赫茲,差距將近7倍。

更令人印象深刻的是,把22種不同的AI生成器分開來看,Suno v3.5是170赫茲,Riffusion是219赫茲,Stable Audio是237赫茲,Udio是245赫茲,MusicGen是255赫茲。這些系統(tǒng)使用了完全不同的生成架構(gòu)——有自回歸的、有擴散模型的、有潛在擴散的——但它們的殘差帶寬全都密集地聚集在200赫茲左右,而真實音樂的殘差始終超過1900赫茲。這種跨架構(gòu)的一致性,有力地證明了檢測到的痕跡確實來自那個所有系統(tǒng)共享的RVQ壓縮瓶頸,而不是某種特定生成器的風(fēng)格特征。

六、一個更公平的考場:ArtifactBench基準(zhǔn)測試的建立

為了檢驗ArtifactNet(以及其競爭系統(tǒng))的真實能力,研究者從零構(gòu)建了一個叫做ArtifactBench的評測基準(zhǔn)。構(gòu)建它的原因很實際:現(xiàn)有的評測平臺覆蓋的AI生成器太少,SONICS只有5種,MoM只有6種,高分成績很可能只是因為模型記住了訓(xùn)練時見過的那幾個生成器的特點,并不代表真正的泛化能力。

ArtifactBench v1包含6183首曲目。AI生成部分涵蓋22種不同的生成器,包括Suno v3/v3.5/v4、Udio v1/v1.5、MusicGen、Stable Audio、Riffusion、DiffRhythm、Yue、JEN-1等,合計4383首。真實人類音樂部分來自6個多樣化來源,包括SONICS真實音樂分區(qū)、MoM真實音樂子集、自由音樂檔案FMA中特意挑選的高誤報率MP3樣本、手工篩選的YouTube專業(yè)制作音樂,合計1800首。

每首曲目都被標(biāo)注了bench_origin字段,標(biāo)明它是用于訓(xùn)練(train)還是測試(test)。三個模型的對比實驗全部限定在bench_origin=test的部分(共2263首:1388首AI,875首真實),確保所有模型在測試時都是零訓(xùn)練重疊的公平比較。

這個基準(zhǔn)已經(jīng)以Parquet分片形式公開發(fā)布在HuggingFace平臺上(huggingface.co/datasets/intrect/artifactbench-v1),包含完整的音頻字節(jié)數(shù)據(jù),任何研究者都可以用來復(fù)現(xiàn)結(jié)果。

七、數(shù)字會說話:三個系統(tǒng)的成績單對比

在這個統(tǒng)一的公平測試平臺上,三個系統(tǒng)的表現(xiàn)差距相當(dāng)懸殊。

ArtifactNet的綜合F1分?jǐn)?shù)達(dá)到了0.9829,精確率0.9905,召回率0.9755,誤報率僅1.49%,AUC值0.9974。翻譯成直白的語言:在1000首真實音樂里,它只會把大約15首誤判為AI生成;在1000首AI音樂里,它只會漏掉大約24首。

CLAM的F1分?jǐn)?shù)是0.7576,精確率0.6674,召回率0.8761,但誤報率高達(dá)69.3%。它雖然能抓住87.6%的AI音樂,但代價是把七成的真實音樂都誤認(rèn)為AI,對MoM數(shù)據(jù)集真實音樂子集(也就是CLAM自己訓(xùn)練數(shù)據(jù)的來源之一)的誤報率同樣高達(dá)67%——一個系統(tǒng)連自己熟悉的數(shù)據(jù)上都表現(xiàn)這么差,說明它在某些維度上已經(jīng)產(chǎn)生了嚴(yán)重的系統(tǒng)性偏差。

SpecTTTra的情況則正好相反:精確率0.8519還算不錯,但召回率只有0.7046,F(xiàn)1為0.7713,誤報率19.4%。它對訓(xùn)練分布之外的生成器大量漏判,在MoM的4個生成器上只有74.5%的檢出率,在AIME的9個生成器上只有57.7%,在最新的CDN生成器上更是跌到50.4%。

研究者還用一套"28個子集的通過/不通過"的實際可用性測試來量化這種差距。標(biāo)準(zhǔn)是:對AI子集要達(dá)到90%以上的檢出率(Stable Audio這兩個較難的子集放寬到60%),對真實音樂子集要把誤報率控制在5%以內(nèi)。ArtifactNet只在4個子集上不達(dá)標(biāo)(主要是重度壓縮真實音樂),通過率85.7%。CLAM不通過15個子集,通過率46.4%。SpecTTTra則不通過23個子集,通過率僅17.9%。

ROC曲線分析也印證了這個差距的穩(wěn)健性:在誤報率不超過5%的操作點上,ArtifactNet的檢出率達(dá)到99.1%,而F1分?jǐn)?shù)在0.05到0.9的寬闊閾值范圍內(nèi)都保持在0.98以上,說明系統(tǒng)對閾值選擇不敏感,部署時無需精細(xì)調(diào)參。

八、能洗掉這個痕跡嗎:對抗性攻擊實驗

研究者也測試了一種直覺上很自然的"反偵察"手段:把AI生成的音樂先用Demucs做一次源分離處理,看看能不能通過這種方式把RVQ留下的痕跡"洗掉",騙過ArtifactNet。

實驗結(jié)果是:單次Demucs處理后,F(xiàn)1分?jǐn)?shù)從0.9950下降到了0.9592,檢出率從99%降到了94%。痕跡被削弱了,但沒有被完全消除——在103維的特征空間里,攻擊后的AI音樂和真實音樂之間的AUC仍然是0.9651,依然有顯著的可分性。研究團隊已經(jīng)把Demucs處理過的AI音樂樣本加入到ArtifactNet的訓(xùn)練數(shù)據(jù)中,以提升對這種攻擊的抵抗力。

這個結(jié)果揭示了一個更深層的道理:RVQ的量化信息損失發(fā)生在一個比單次分離處理更基本的信號層面,單次處理可以改變痕跡的分布,但無法還原那些已經(jīng)永久丟失的高頻細(xì)節(jié)信息。

九、這套方法的局限性和未來的方向

任何系統(tǒng)都不是完美的,研究者對ArtifactNet的局限性做了坦誠的分析。

首先是采樣率要求。ArtifactNet需要44.1kHz的高質(zhì)量音頻輸入,因為RVQ的痕跡主要體現(xiàn)在高頻細(xì)節(jié)上,如果輸入的是16kHz等低采樣率音頻,這些高頻信息根本就不存在,法證信號會大幅衰減。這對那些分發(fā)低采樣率音頻的數(shù)據(jù)集來說是一個實際限制。

其次是對重度壓縮真實音樂的誤報。經(jīng)過編碼感知訓(xùn)練后,F(xiàn)MA檔案(以低比特率可變碼率MP3為主)上的誤報率從98.7%降到了8%,但還沒有降到理想水平。研究者預(yù)計擴充編碼增強的訓(xùn)練數(shù)據(jù)后可以進一步改善。

再者是對最新一代Udio的檢出率。當(dāng)前版本對最新Udio生成音樂的檢出率只有87%,低于其他生成器。分析發(fā)現(xiàn),在安靜段落和過渡段落,Udio生成的諧波-打擊樂比率趨近于真實音樂的模式,導(dǎo)致單段置信度下降。未來可能需要在CNN輸入層加入更多的統(tǒng)計特征(比如諧波-打擊樂比率的分布統(tǒng)計量)來改善對這類音樂的檢測。

對于多次Demucs處理等更復(fù)雜的對抗攻擊,研究者也承認(rèn)需要進一步研究。與此同時,研究者指出主動水印技術(shù)(比如在生成時就嵌入不可感知的水?。┛梢宰鳛榛パa的防御手段,但這需要生成平臺主動配合,對已經(jīng)發(fā)布的海量音樂無能為力。

歸根結(jié)底,ArtifactNet這套研究的意義超出了一個檢測系統(tǒng)本身。它提出了一個更有力的問題框架:在AI生成技術(shù)不斷迭代、生成風(fēng)格千變?nèi)f化的時代,真正可靠的檢測方法不應(yīng)該去追蹤"這首歌聽起來像AI生成",而應(yīng)該去追蹤"這首歌在物理上必然攜帶AI生成的印記"。連續(xù)到離散的量化是不可逆轉(zhuǎn)的信息損失,而這種不可逆性,恰恰是最難被規(guī)避的法證依據(jù)。

用研究者在論文最后一行寫下的話來結(jié)束這個故事再合適不過:Afchar等人曾問,AI生成音樂能否在與內(nèi)容無關(guān)的情況下被識別。這項研究的回答是:可以——通過傾聽那些音樂無法包含的東西,而不是它所包含的東西。

Q&A

Q1:ArtifactNet檢測AI音樂的原理是什么?

A:ArtifactNet的核心原理是追蹤AI音樂在生成過程中必然留下的物理痕跡。所有商業(yè)AI音樂生成器都要用一種叫"殘差向量量化"的技術(shù)來壓縮和還原音頻,這個過程會不可逆地?fù)p失高頻細(xì)節(jié)信息。ArtifactNet用一個經(jīng)過專門訓(xùn)練的輕量級神經(jīng)網(wǎng)絡(luò)提取這些痕跡,再分析其中的諧波和打擊樂成分,從而判斷音頻是否來自AI生成。

Q2:ArtifactNet能識別MP3格式的AI音樂嗎?

A:可以。早期版本曾經(jīng)把MP3格式的真實音樂誤判為AI生成,誤報率高達(dá)98.7%,因為MP3自身的壓縮噪聲會被誤認(rèn)為AI痕跡。研究團隊通過"編碼感知訓(xùn)練"解決了這個問題,讓系統(tǒng)同時學(xué)習(xí)WAV、MP3、AAC和Opus四種格式,訓(xùn)練后跨格式的預(yù)測概率波動降低了83%,不同格式下的檢測結(jié)論基本保持穩(wěn)定。

Q3:ArtifactNet能被AI生成器"繞過"嗎?

A:目前很難被完全繞過。有研究者嘗試用音源分離軟件對AI音樂進行處理后再檢測,結(jié)果檢出率從99%下降到94%,但沒有降到不可檢測的水平。更根本的原因是,殘差向量量化造成的信息損失發(fā)生在極其底層的信號層面,只要AI音樂生成器還在使用神經(jīng)音頻編解碼器,這種痕跡就無法被完全消除。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
50歲男子肌肉溶解離世,醫(yī)生痛心提醒:長期吃降脂藥犯了5個錯誤

50歲男子肌肉溶解離世,醫(yī)生痛心提醒:長期吃降脂藥犯了5個錯誤

垚垚分享健康
2026-04-28 11:15:14
隨著特魯姆普爆冷12-13,吳宜澤13-11,斯諾克世錦賽8強對陣出爐

隨著特魯姆普爆冷12-13,吳宜澤13-11,斯諾克世錦賽8強對陣出爐

側(cè)身凌空斬
2026-04-28 05:28:25
中共自然資源部黨組關(guān)于趙培劍、丁明柱、趙鳴、宋振亞、周鋒任職的通知

中共自然資源部黨組關(guān)于趙培劍、丁明柱、趙鳴、宋振亞、周鋒任職的通知

海洋知圈
2026-04-27 21:39:53
警惕經(jīng)濟的“無就業(yè)增長”

警惕經(jīng)濟的“無就業(yè)增長”

沈素明
2026-04-28 07:23:38
《妻子的浪漫旅行2026》孫楊回應(yīng)與妻子張豆豆相處模式引爭議:由于職業(yè)原因,像這樣的旅行是第一次,看到了不足,有一個好老婆很重要

《妻子的浪漫旅行2026》孫楊回應(yīng)與妻子張豆豆相處模式引爭議:由于職業(yè)原因,像這樣的旅行是第一次,看到了不足,有一個好老婆很重要

魯中晨報
2026-04-28 09:53:07
伊朗最高法院維持死刑判決 父親被判死刑女兒獲刑25年

伊朗最高法院維持死刑判決 父親被判死刑女兒獲刑25年

桂系007
2026-04-27 23:59:53
名記:杜蘭特或已打完火箭生涯最后一場球,下家是紐約和熱火

名記:杜蘭特或已打完火箭生涯最后一場球,下家是紐約和熱火

懂球帝
2026-04-28 09:32:05
戚薇這腳趾看著好辛苦,隔著屏幕都替她累得慌

戚薇這腳趾看著好辛苦,隔著屏幕都替她累得慌

東方不敗然多多
2026-04-23 10:37:33
互聯(lián)網(wǎng)是有記憶的,她的黑歷史一大堆??!

BenSir本色說
2026-04-15 22:38:07

放棄克洛普!皇馬換帥突生變數(shù),伯納烏或?qū)⒂瓉怼白约胰?>
    </a>
        <h3>
      <a href=奶蓋熊本熊
2026-04-29 00:05:53
600678,將被“ST”!

600678,將被“ST”!

中國基金報
2026-04-28 23:15:48
美股三大指數(shù)集體收跌,道指跌0.06%,納指跌0.9%,標(biāo)普500指數(shù)跌0.49%,熱門科技股多數(shù)下跌,博通跌超4%,英偉達(dá)跌超1%。

美股三大指數(shù)集體收跌,道指跌0.06%,納指跌0.9%,標(biāo)普500指數(shù)跌0.49%,熱門科技股多數(shù)下跌,博通跌超4%,英偉達(dá)跌超1%。

財聯(lián)社
2026-04-29 04:08:08
新娘確實漂亮,但我更喜歡戴眼鏡那個。

新娘確實漂亮,但我更喜歡戴眼鏡那個。

動物奇奇怪怪
2026-04-12 12:44:36
三連鞭后五連鞭,趙心童3:5墨菲暫時落后

三連鞭后五連鞭,趙心童3:5墨菲暫時落后

佳佳說奇事故事
2026-04-29 03:43:45
林志玲自曝和公婆住一起:換了一個比較大的房子,老公每天傍晚準(zhǔn)時回家,陪兒子一起吃飯

林志玲自曝和公婆住一起:換了一個比較大的房子,老公每天傍晚準(zhǔn)時回家,陪兒子一起吃飯

臺州交通廣播
2026-04-28 13:46:36
鋰電池板塊業(yè)績炸裂,多家公司凈利漲超1000%,最高漲超2297%

鋰電池板塊業(yè)績炸裂,多家公司凈利漲超1000%,最高漲超2297%

21世紀(jì)經(jīng)濟報道
2026-04-28 22:55:26
動真格了,國安部出手,揪出鼓吹躺平的境外勢力,評論區(qū)意味深長

動真格了,國安部出手,揪出鼓吹躺平的境外勢力,評論區(qū)意味深長

譚談社會
2026-04-28 15:10:51
7天第3艘,美軍開始在印度洋獵殺伊朗油輪,目的地是中國舟山

7天第3艘,美軍開始在印度洋獵殺伊朗油輪,目的地是中國舟山

矚望云霄
2026-04-28 13:04:41
廣東男籃主場17分負(fù)廣州,杜鋒難受,正義必勝!

廣東男籃主場17分負(fù)廣州,杜鋒難受,正義必勝!

二爺臺球解說
2026-04-29 03:36:39
跑馬人最慘遭遇:酒店不隔音,隔壁情侶的“聲音”讓我徹底崩潰

跑馬人最慘遭遇:酒店不隔音,隔壁情侶的“聲音”讓我徹底崩潰

馬拉松跑步健身
2026-04-26 21:41:40
2026-04-29 04:44:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8183文章數(shù) 563關(guān)注度
往期回顧 全部

科技要聞

10億周活目標(biāo)落空!傳OpenAI爆發(fā)內(nèi)部分歧

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

體育要聞

魔術(shù)黑八活塞,一步之遙?!

娛樂要聞

蔡卓妍官宣結(jié)婚,老公比她小10歲

財經(jīng)要聞

中央政治局會議定調(diào),八大看點速覽!

汽車要聞

拒絕瘋狂套娃!現(xiàn)代艾尼氪金星長在未來審美點上

態(tài)度原創(chuàng)

健康
游戲
手機
藝術(shù)
公開課

干細(xì)胞治療燒燙傷三大優(yōu)勢!

這不爽翻了?曝PS6或能穩(wěn)穩(wěn)運行60幀+光追的游戲畫面

手機要聞

三星裸眼3D屏來了,廣告牌能“跳”出來

藝術(shù)要聞

京東浙江總部公示,99.99米高,中國第一民企落子民營大??!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版