国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

只有DeepSeek才該談人類(lèi)末日嗎?

0
分享至


DeepSeek資深研究員陳德里,前不久在世界互聯(lián)網(wǎng)大會(huì)上,打破了行業(yè)的沉默,談?wù)撈鹆巳斯ぶ悄艿陌得妗?/p>

陳德里認(rèn)為人工智能終將取代人類(lèi)成為工作主力,并設(shè)定了明確的三階段演進(jìn)時(shí)間線:未來(lái)3-5年為蜜月期,人類(lèi)可與AI協(xié)同創(chuàng)造更大價(jià)值;5-10年內(nèi)將開(kāi)始出現(xiàn)崗位替代,失業(yè)風(fēng)險(xiǎn)上升;10-20年的長(zhǎng)期階段,社會(huì)將面臨大規(guī)模崗位被取代后的秩序重構(gòu)挑戰(zhàn)。

陳德里后來(lái)特別補(bǔ)充說(shuō),他的演講內(nèi)容也是DeepSeek創(chuàng)始人梁文峰的觀點(diǎn)。但是,更多的中國(guó)頭部人工智能公司領(lǐng)袖,在人工智能治理和倫理上保持了沉默,反映了一種更深蒂固的“務(wù)實(shí)”風(fēng)格和“求穩(wěn)”心態(tài)。

“務(wù)實(shí)”與“求穩(wěn)”的慣性

許多中國(guó)科技巨頭在通用大模型領(lǐng)域,確實(shí)認(rèn)為自己與美國(guó)的OpenAI、Google等巨頭存在代際或積累上的差距。

這種認(rèn)知導(dǎo)致他們認(rèn)為,現(xiàn)在最重要的是活下去和追上來(lái)。在資源有限的情況下,所有精力必須集中在提升技術(shù)能力,比如訓(xùn)練更強(qiáng)大的模型、降低成本,特別是快速商業(yè)化應(yīng)用上。

本土公司普遍相信,人工智能在當(dāng)下的最大風(fēng)險(xiǎn)不是技術(shù)失控,而是在下一代技術(shù)浪潮中被淘汰。在生存危機(jī)面前,治理規(guī)則和倫理討論的優(yōu)先級(jí)自然靠后。

事實(shí)上,在人工智能的治理上,政府走到了更前面,這與十幾年前移動(dòng)互聯(lián)網(wǎng)興起時(shí)政府的滯后截然不同。

中國(guó)在AI監(jiān)管方面走在前列,已經(jīng)出臺(tái)了《生成式人工智能服務(wù)管理暫行辦法》等法規(guī)。對(duì)于大公司而言,遵守國(guó)家法律法規(guī)是首要的治理,而非主動(dòng)公開(kāi)額外的、可能束縛自身發(fā)展的私家規(guī)則。

公開(kāi)談?wù)揂I風(fēng)險(xiǎn)和AI for Good會(huì)增加社會(huì)對(duì)其技術(shù)的關(guān)注和審查,這可能導(dǎo)致在技術(shù)尚未成熟時(shí)就被要求承擔(dān)過(guò)多的倫理責(zé)任和治理成本,反而不利于快速迭代。

中國(guó)科技圈有低調(diào)的傳統(tǒng)。在技術(shù)尚未達(dá)到絕對(duì)領(lǐng)先時(shí),高調(diào)宣布治理規(guī)則或AIforGood容易被視為德不配位或公關(guān)作秀,招致競(jìng)爭(zhēng)對(duì)手和輿論的攻擊,也可以避免過(guò)早卷入全球性的倫理辯論。

這種心態(tài)能夠讓公司將所有資源集中用于技術(shù)突破和產(chǎn)品優(yōu)化,有助于快速縮小與全球領(lǐng)先者的技術(shù)差距。

但是,國(guó)內(nèi)的頭部公司擁有巨大的資源和影響力,它們的沉默會(huì)影響整個(gè)行業(yè)的認(rèn)知。不談“AIforGood”可能導(dǎo)致整個(gè)行業(yè)過(guò)度側(cè)重商業(yè)利益,而忽視了AI對(duì)社會(huì)產(chǎn)生的深刻影響和責(zé)任,終將帶來(lái)倫理與社會(huì)責(zé)任的滯后風(fēng)險(xiǎn)。

隨著這些公司在技術(shù)上逐步追平甚至超越,社會(huì)和市場(chǎng)必然會(huì)要求它們承擔(dān)起與技術(shù)能力相匹配的治理責(zé)任和倫理領(lǐng)導(dǎo)力,即便亡羊補(bǔ)牢,但可能為時(shí)已晚。

AI替代人類(lèi)是大概率事件

相對(duì)DeepSeek的強(qiáng)烈的人類(lèi)憂(yōu)患意識(shí),更多主流、流權(quán)威機(jī)構(gòu)的預(yù)測(cè)則相對(duì)溫和和放松,概括起來(lái)是兩個(gè)判斷。

第一個(gè)判斷,AI的主要作用是增強(qiáng)人類(lèi)的工作效率,而不是完全取代。

高盛報(bào)告預(yù)測(cè),僅在美國(guó)和歐洲,AI就可能會(huì)取代相當(dāng)于3億個(gè)全職工作,其中三分之二的美國(guó)和歐洲的工作一定程度上暴露于AI自動(dòng)化風(fēng)險(xiǎn)之下,而四分之一的工作可能被AI完全取代。世界經(jīng)濟(jì)論壇2024年的調(diào)查發(fā)現(xiàn),41%的全球受訪雇主有意在2030年前讓人工智能取代人類(lèi)員工執(zhí)行某些任務(wù)。

麥肯錫全球研究院就認(rèn)為,雖然許多活動(dòng)會(huì)被自動(dòng)化,但只有不到5%的極少數(shù)職業(yè)會(huì)被完全自動(dòng)化。大多數(shù)職業(yè)中三分之一的工作活動(dòng)會(huì)被自動(dòng)化。

第二個(gè)判斷是,AI普及,工作會(huì)大規(guī)模改變,而不是消失。人機(jī)協(xié)作成為更普遍的工作方式,同時(shí)還會(huì)催生出更多的新崗位,但教育和培訓(xùn)體系必須快速跟上,幫助勞動(dòng)者適應(yīng)新角色。

世界經(jīng)濟(jì)論壇2024年發(fā)布的《未來(lái)就業(yè)報(bào)告》預(yù)測(cè),AI帶來(lái)的崗位創(chuàng)造數(shù)量,如數(shù)據(jù)科學(xué)家、AI/ML專(zhuān)家、數(shù)字轉(zhuǎn)型專(zhuān)家,將略高于或大致抵消被自動(dòng)化淘汰的崗位數(shù)量。麥肯錫全球研究院也認(rèn)為到2030年,全球?qū)⒂?億至8億工人可能因自動(dòng)化和AI而需要更換職業(yè),但他們的大部分情景預(yù)測(cè)表明,新增工作崗位將足以抵消被取代的崗位。

除了主流權(quán)威機(jī)構(gòu)對(duì)就業(yè)市場(chǎng)進(jìn)行謹(jǐn)慎預(yù)測(cè)外,許多獨(dú)立研究機(jī)構(gòu)、技術(shù)智庫(kù)、知名學(xué)者和未來(lái)學(xué)家持有更激進(jìn)的觀點(diǎn),認(rèn)為人工智能最終將取代大部分人類(lèi)工作,導(dǎo)致大規(guī)模結(jié)構(gòu)性失業(yè),甚至進(jìn)入無(wú)工作社會(huì)。

這里面最有名的代表是尤瓦爾·赫拉利,他關(guān)注的重點(diǎn)是AI不僅會(huì)取代體力勞動(dòng),還會(huì)取代意義創(chuàng)造、決策和情感工作。他警告人類(lèi)將淪為無(wú)用階級(jí),即大部分人不再具有經(jīng)濟(jì)或軍事價(jià)值,這比失業(yè)本身更具社會(huì)危害。

還有《機(jī)器人的崛起》

(Rise of the Robots)
的作者 馬丁·福特 , 他 也 認(rèn)為通用人工智能(不僅會(huì)影響藍(lán)領(lǐng)工作,還將深度沖擊白領(lǐng)、知識(shí)型工作,特別是可預(yù)測(cè)和數(shù)據(jù)驅(qū)動(dòng)的任務(wù),傳統(tǒng)的經(jīng)濟(jì)模型將無(wú)法應(yīng)對(duì)大規(guī)模技術(shù)性失業(yè) 。

失業(yè)之外的三大風(fēng)險(xiǎn)

除了帶來(lái)失業(yè)和大規(guī)模職業(yè)結(jié)構(gòu)轉(zhuǎn)型的經(jīng)濟(jì)風(fēng)險(xiǎn)外,人工智能還存在廣泛被討論的三大突出風(fēng)險(xiǎn):

第一大風(fēng)險(xiǎn)是認(rèn)知與信息風(fēng)險(xiǎn),這類(lèi)風(fēng)險(xiǎn)主要與AI生成的內(nèi)容、信息的傳播方式,以及人類(lèi)對(duì)現(xiàn)實(shí)的認(rèn)知能力相關(guān)。

生成式AI能夠以極低成本和極高逼真度制造虛假的圖像、音頻和視頻。破壞選舉、操縱金融市場(chǎng)、損害個(gè)人名譽(yù),最終削弱公眾對(duì)媒體、公共人物甚至感官證據(jù)的基本信任。

AI系統(tǒng)通過(guò)個(gè)性化推薦和內(nèi)容篩選,可能將用戶(hù)困在信息繭房中,強(qiáng)化已有的偏見(jiàn),甚至引導(dǎo)特定行為,操控認(rèn)知與放大偏見(jiàn),極易被用于心理戰(zhàn)、社會(huì)分化和群體極端化,威脅社會(huì)穩(wěn)定。

第二重風(fēng)險(xiǎn)是歧視與公平風(fēng)險(xiǎn),系統(tǒng)性的偏見(jiàn)固化。

這類(lèi)風(fēng)險(xiǎn)源于AI訓(xùn)練數(shù)據(jù)中的缺陷,可能導(dǎo)致AI系統(tǒng)做出有失公平的決策,進(jìn)一步固化甚至加劇社會(huì)不平等。AI模型在訓(xùn)練數(shù)據(jù)中吸收了如種族、性別、地域歧視等歷史和社會(huì)的偏見(jiàn)。當(dāng)AI被用于招聘篩選、貸款審批、刑事司法判決(如假釋評(píng)估)時(shí),它可能系統(tǒng)性地拒絕或懲罰特定人群,使歧視變得隱蔽且難以糾正。

許多復(fù)雜的深度學(xué)習(xí)模型被稱(chēng)為黑箱,缺乏可解釋性,人們無(wú)法理解其做出特定決策的原因。在關(guān)鍵的社會(huì)決策中,受影響的個(gè)體,比如被拒絕貸款的人,就無(wú)法質(zhì)疑或上訴,導(dǎo)致問(wèn)責(zé)制缺失和權(quán)利受損。

第三重風(fēng)險(xiǎn)控制與安全風(fēng)險(xiǎn),會(huì)導(dǎo)致技術(shù)失控與權(quán)力集中

這類(lèi)風(fēng)險(xiǎn)通常是那些頂尖AI實(shí)驗(yàn)室(如OpenAI和Google DeepMind)最關(guān)注的,涉及強(qiáng)大的AI系統(tǒng)可能帶來(lái)的不可逆轉(zhuǎn)的后果。

強(qiáng)大的AI系統(tǒng)可能會(huì)以意想不到、甚至有害的方式追求其目標(biāo),因?yàn)樗鼈兊哪繕?biāo)與人類(lèi)的價(jià)值觀未完全對(duì)齊。一個(gè)被設(shè)計(jì)來(lái)最大化某種指標(biāo)(例如生產(chǎn)力或節(jié)能)的超級(jí)AI,可能會(huì)為了優(yōu)化這個(gè)目標(biāo)而采取人類(lèi)無(wú)法接受的極端手段,導(dǎo)致災(zāi)難性后果。AI技術(shù)的巨大優(yōu)勢(shì)集中在少數(shù)公司或國(guó)家手中,也會(huì)加劇地緣政治緊張。

OpenAI、谷歌、微軟是如何治理AI的?

雖然谷歌、微軟、META等科技巨頭通常強(qiáng)調(diào)增強(qiáng)而非取代人類(lèi),但許多內(nèi)部人士私下或通過(guò)投資支持那些持激進(jìn)觀點(diǎn)人士的研究,而且它們比較早地開(kāi)始在公司內(nèi)部建立類(lèi)似科技倫理委員會(huì)的機(jī)構(gòu),來(lái)進(jìn)行AI治理。

作為這一輪生成式人工智能發(fā)源地,OpenAI作為AGI的主要推動(dòng)者,其治理更加聚焦于模型本身的行為規(guī)范和對(duì)人類(lèi)社會(huì)的潛在影響。他們的方法被稱(chēng)為模型行為規(guī)范(ModelSpecification)

OpenAI作為AGI的主要推動(dòng)者,其治理更加聚焦于模型本身的行為規(guī)范和對(duì)人類(lèi)社會(huì)的潛在影響。他們的方法被稱(chēng)為ModelSpecification(模型行為規(guī)范)。

OpenAI的治理規(guī)則更像是一套針對(duì)模型的、可量化的倫理和安全指令鏈,

  • 指令鏈原則(Chain of Command),規(guī)定了指令的優(yōu)先級(jí),依次是平臺(tái)安全消息(OpenAI設(shè)定的最高安全和倫理標(biāo)準(zhǔn))、開(kāi)發(fā)者指令(定制行為)、用戶(hù)輸入。這確保了模型的最高安全防護(hù)始終優(yōu)先于任何自定義或惡意用戶(hù)請(qǐng)求。

  • 共同追求真相(Seek the Truth Together):要求模型像一個(gè)高誠(chéng)信的人類(lèi)助手,在避免操控用戶(hù)與保持客觀中立之間取得平衡,并能提供批判性反饋。

  • 保持界限(Stayin Bounds):規(guī)定模型必須嚴(yán)格遵循安全防護(hù)措施,避免生成可能引發(fā)傷害或?yàn)E用的內(nèi)容(如暴力、仇恨、敏感信息的操作細(xì)節(jié))。

OpenAI曾尋求資助,嘗試通過(guò)眾包或廣泛代表性的人群來(lái)共同決定AI護(hù)欄(Guardrails)和監(jiān)管問(wèn)題,推動(dòng)AI監(jiān)管的民主化進(jìn)程。此外,OpenAI曾提出將全球市場(chǎng)劃分為不同層次,對(duì)先進(jìn)技術(shù)實(shí)行分級(jí)管理,以確保先進(jìn)AI技術(shù)不落入競(jìng)爭(zhēng)對(duì)手之手,體現(xiàn)其地緣政治和技術(shù)領(lǐng)先的考量。

Google是最早公開(kāi)制定AI倫理原則的科技公司之一,也是許多科技公司治理框架的藍(lán)本,主要包括七個(gè)應(yīng)該做的和三個(gè)不應(yīng)該做:

應(yīng)該做(要努力實(shí)現(xiàn)的):

  • 有益于社會(huì):對(duì)社會(huì)和環(huán)境有益。

  • 避免制造或強(qiáng)化不公的偏見(jiàn):確保公平公正。

  • 安全測(cè)試:必須在安全的環(huán)境中進(jìn)行構(gòu)建和測(cè)試。

  • 對(duì)人負(fù)責(zé):由人來(lái)監(jiān)督和控制AI系統(tǒng)。

  • 透明化和可解釋性:保持清晰的性能、限制和目的。

  • 符合科學(xué)卓越標(biāo)準(zhǔn):追求精確性、可靠性和可重現(xiàn)性。

  • 為隱私原則設(shè)計(jì):將隱私和數(shù)據(jù)保護(hù)內(nèi)置于設(shè)計(jì)中。

不應(yīng)該做(盡可能避免的):

  • 創(chuàng)建或部署旨在造成整體傷害的AI。

  • 創(chuàng)建或部署用于武器或其他傷害的AI。

  • 創(chuàng)建或部署侵犯國(guó)際人權(quán)法的AI。

微軟的AI治理原則與Google類(lèi)似,包括公平性可靠性和安全性、隱私和安全包容性、透明性、可問(wèn)責(zé)性,強(qiáng)調(diào)將負(fù)責(zé)任AI標(biāo)準(zhǔn)整合到其企業(yè)工具和云計(jì)算平臺(tái)中,包括設(shè)立了明確的規(guī)則,定義了在開(kāi)發(fā)和部署AI過(guò)程中,不同團(tuán)隊(duì)和角色的責(zé)任和義務(wù)(如負(fù)責(zé)任AI辦公室、倫理顧問(wèn)團(tuán))。

微軟在其云計(jì)算服務(wù)(AzureOpenAI)中,默認(rèn)提供了內(nèi)容篩選模型、阻止列表和內(nèi)容憑據(jù)等安全配置。這意味著,客戶(hù)即使不主動(dòng)設(shè)置,也默認(rèn)受到安全策略的保護(hù),用于緩解仇恨、暴力、性、自我傷害等風(fēng)險(xiǎn)。

毋以善小而不為

中國(guó)頭部科技公司領(lǐng)導(dǎo)者認(rèn)為自身技術(shù)尚未“頂尖”,因此對(duì)AI的治理和“為善(AIforGood)”保持沉默或低調(diào),其實(shí)是忽略了一個(gè)重要問(wèn)題:風(fēng)險(xiǎn)與能力無(wú)關(guān),與應(yīng)用有關(guān)。

偏見(jiàn)、歧視、隱私泄露等倫理問(wèn)題,存在于每一個(gè)使用數(shù)據(jù)的AI系統(tǒng)中,無(wú)論其背后是Qwen、混元,還是一個(gè)自研的垂直小模型。AI帶來(lái)的風(fēng)險(xiǎn)不取決于模型的規(guī)模或技術(shù)的頂尖程度,而取決于它如何被部署和應(yīng)用:

一個(gè)小型、專(zhuān)業(yè)的AI模型如果被用于金融信貸決策、招聘篩選或深度偽造,它對(duì)個(gè)體和社會(huì)造成的危害同樣是真實(shí)的、且可能非常嚴(yán)重。

AI 系統(tǒng)的偏見(jiàn)(如性別歧視、種族歧視)通常是由于訓(xùn)練數(shù)據(jù)的固有缺陷和模型的結(jié)構(gòu)性假設(shè)導(dǎo)致的。一旦模型被訓(xùn)練完成,其內(nèi)部數(shù)以?xún)|計(jì)的參數(shù)就已經(jīng)固化了這些偏見(jiàn)。事后嘗試用過(guò)濾器或簡(jiǎn)單的規(guī)則來(lái)消除偏見(jiàn),效果往往治標(biāo)不治本,就像在漏水的船上不斷地舀水。

倫理是設(shè)計(jì)之初的要求,而非事后補(bǔ)救。

真正的AI治理要求在技術(shù)研發(fā)的第一天就開(kāi)始考慮倫理和風(fēng)險(xiǎn),而不是等到模型訓(xùn)練成熟或技術(shù)領(lǐng)先之后再打補(bǔ)丁,如果一家公司聲稱(chēng)技術(shù)不夠好,就更應(yīng)該談?wù)撝卫?,因?yàn)樗赡芤馕吨蟮牟淮_定性和潛在的缺陷需要被發(fā)現(xiàn)和管理。

想象一下,一個(gè)已經(jīng)部署在全球數(shù)百萬(wàn)用戶(hù)手機(jī)上的推薦系統(tǒng),如果被發(fā)現(xiàn)存在深度歧視。要暫停服務(wù)、重新訓(xùn)練模型、更新數(shù)億臺(tái)設(shè)備,其花費(fèi)的時(shí)間、金錢(qián)和聲譽(yù)損失是巨大的。

在概念和原型階段,倫理審查的成本是最低的。在畫(huà)板上擦除一個(gè)錯(cuò)誤的假設(shè),遠(yuǎn)比在數(shù)百萬(wàn)行代碼中追蹤和修改一個(gè)算法偏差要簡(jiǎn)單得多。

倫理在 AI 時(shí)代不是一種道德裝飾,而是像安全性、隱私性、性能一樣的工程質(zhì)量要求。一個(gè)在設(shè)計(jì)之初就考慮倫理的系統(tǒng)是更穩(wěn)定、更高效、更具可持續(xù)性的;而一個(gè)試圖事后彌補(bǔ)倫理缺陷的系統(tǒng),注定是昂貴、脆弱且充滿(mǎn)風(fēng)險(xiǎn)的。

中國(guó)企業(yè)如果不在人工智能治理和倫理上發(fā)出聲音,而任由少數(shù)幾家美國(guó)巨頭制定規(guī)則,那么這些規(guī)則將不可避免地帶有西方價(jià)值觀和商業(yè)利益的烙印。因此,中國(guó)企業(yè)在 AI 治理和倫理上的發(fā)聲,不是一項(xiàng)可有可無(wú)的“道德作業(yè)”,而是關(guān)系到未來(lái)幾十年國(guó)家技術(shù)主權(quán)、文化安全和商業(yè)競(jìng)爭(zhēng)力的戰(zhàn)略必需品。


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
笑不活了!女孩把雞畫(huà)得圓肥被判不合格,家長(zhǎng)把雞的照片發(fā)給老師

笑不活了!女孩把雞畫(huà)得圓肥被判不合格,家長(zhǎng)把雞的照片發(fā)給老師

火山詩(shī)話(huà)
2026-04-21 09:46:21
【聚焦】醫(yī)生不再通宵!5月1日起,全國(guó)二級(jí)以上公立醫(yī)院執(zhí)行:12小時(shí)輪班制全面推開(kāi)

【聚焦】醫(yī)生不再通宵!5月1日起,全國(guó)二級(jí)以上公立醫(yī)院執(zhí)行:12小時(shí)輪班制全面推開(kāi)

魏子檸說(shuō)
2026-04-22 00:15:15
印度創(chuàng)紀(jì)錄進(jìn)口250萬(wàn)噸尿素

印度創(chuàng)紀(jì)錄進(jìn)口250萬(wàn)噸尿素

財(cái)聞
2026-04-23 14:46:11
情況惡化!日本通過(guò)決議,“高市下崗”傳遍東京,石破茂判斷沒(méi)錯(cuò)

情況惡化!日本通過(guò)決議,“高市下崗”傳遍東京,石破茂判斷沒(méi)錯(cuò)

福建睿平
2026-04-22 11:17:35
中央定調(diào)嚴(yán)打“六霸”,一個(gè)都不放過(guò),2026掃黑再升級(jí)!

中央定調(diào)嚴(yán)打“六霸”,一個(gè)都不放過(guò),2026掃黑再升級(jí)!

細(xì)說(shuō)職場(chǎng)
2026-04-23 16:13:46
40000 人陣亡,100 艘戰(zhàn)艦會(huì)被擊沉?

40000 人陣亡,100 艘戰(zhàn)艦會(huì)被擊沉?

小馬姨
2026-04-21 09:49:45
定了!6月1日起,私家車(chē)跑順風(fēng)車(chē)全面合法:不用雙證、保險(xiǎn)全賠!

定了!6月1日起,私家車(chē)跑順風(fēng)車(chē)全面合法:不用雙證、保險(xiǎn)全賠!

侃故事的阿慶
2026-04-23 17:54:47
A股:今天放量調(diào)整,傳遞了兩個(gè)信號(hào),周五歷史即將重演?

A股:今天放量調(diào)整,傳遞了兩個(gè)信號(hào),周五歷史即將重演?

明心
2026-04-23 16:36:27
北京要下雷陣雨了!

北京要下雷陣雨了!

美麗大北京
2026-04-23 17:02:49
碧桂園裁員89%

碧桂園裁員89%

新浪財(cái)經(jīng)
2026-04-23 13:30:37
9級(jí)大地震前的一幕再次上演,毀天滅地的海嘯或于本周席卷日本

9級(jí)大地震前的一幕再次上演,毀天滅地的海嘯或于本周席卷日本

霽寒飄雪
2026-04-23 11:46:45
今夜,全線大漲!霍爾木茲,突發(fā)!

今夜,全線大漲!霍爾木茲,突發(fā)!

中國(guó)基金報(bào)
2026-04-23 00:26:06
第一季那么神,第二季為何仆街?

第一季那么神,第二季為何仆街?

虹膜
2026-04-22 20:35:00
喪葬費(fèi)調(diào)整后,機(jī)關(guān)事業(yè)單位退休人員離世,家屬到底能領(lǐng)多少錢(qián)?

喪葬費(fèi)調(diào)整后,機(jī)關(guān)事業(yè)單位退休人員離世,家屬到底能領(lǐng)多少錢(qián)?

復(fù)轉(zhuǎn)這些年
2026-04-22 20:54:30
總比分0-1,葡超領(lǐng)頭羊不敵葡超第3,穆帥老東家無(wú)緣葡萄牙杯決賽

總比分0-1,葡超領(lǐng)頭羊不敵葡超第3,穆帥老東家無(wú)緣葡萄牙杯決賽

凌空倒鉤
2026-04-23 05:53:10
嗜賭成性只是冰山一角,婚內(nèi)出軌、睡有婦之夫,體壇丑聞毀三觀

嗜賭成性只是冰山一角,婚內(nèi)出軌、睡有婦之夫,體壇丑聞毀三觀

夢(mèng)想總會(huì)變成真
2026-04-23 01:11:47
最新情報(bào):國(guó)乒今夜離開(kāi)成都!提前結(jié)束封訓(xùn),樊振東現(xiàn)身安排曝光

最新情報(bào):國(guó)乒今夜離開(kāi)成都!提前結(jié)束封訓(xùn),樊振東現(xiàn)身安排曝光

阿訊說(shuō)天下
2026-04-23 13:50:11
伊朗“內(nèi)鬼” 竟是路由器

伊朗“內(nèi)鬼” 竟是路由器

每日經(jīng)濟(jì)新聞
2026-04-22 13:52:09
切爾西官宣41歲主帥下課!帶隊(duì)107天+英超遭5連敗 解約金1200萬(wàn)鎊

切爾西官宣41歲主帥下課!帶隊(duì)107天+英超遭5連敗 解約金1200萬(wàn)鎊

我愛(ài)英超
2026-04-23 00:41:15
AI竟能生成《金瓶梅》"3A大作"!尺度很大細(xì)節(jié)夸張

AI竟能生成《金瓶梅》"3A大作"!尺度很大細(xì)節(jié)夸張

游民星空
2026-04-22 11:55:38
2026-04-23 21:08:49
波波夫 incentive-icons
波波夫
發(fā)現(xiàn)商業(yè)科技之美。
319文章數(shù) 2494關(guān)注度
往期回顧 全部

科技要聞

馬斯克喊出"史上最大產(chǎn)品",但量產(chǎn)難預(yù)測(cè)

頭條要聞

特朗普"狂怒"稱(chēng)滅掉了伊朗軍隊(duì) 美國(guó)官員:不 并沒(méi)有

頭條要聞

特朗普"狂怒"稱(chēng)滅掉了伊朗軍隊(duì) 美國(guó)官員:不 并沒(méi)有

體育要聞

萊斯特城降入英甲,一場(chǎng)虧麻了的豪賭

娛樂(lè)要聞

王大陸因涉黑討債被判 女友也一同獲刑

財(cái)經(jīng)要聞

關(guān)于AI算力鏈"瓶頸" 這是高盛的最新看法

汽車(chē)要聞

令人驚艷的奇瑞車(chē) 風(fēng)云A9可不只是樣子貨

態(tài)度原創(chuàng)

教育
時(shí)尚
旅游
游戲
本地

教育要聞

藏不住了!海淀這所名校附中憑啥成為“大贏家”

無(wú)用之書(shū)|AI時(shí)代,閱讀是否還有意義?

旅游要聞

渝見(jiàn)遵義!遵義文旅在重慶“一會(huì)一節(jié)”發(fā)出“清涼邀請(qǐng)函”

曝PS5同期銷(xiāo)量慘敗PS4!索尼日本市場(chǎng)遇冷

本地新聞

SAGA GIRLS 2026女團(tuán)選秀

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版