国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

學(xué)界大佬吵架金句不斷,智譜和MiniMax太優(yōu)秀被點(diǎn)名,Agent竟然能寫GPU內(nèi)核了?!

0
分享至


作者|高允毅

“如果一個(gè) AI 能解 IMO,但解決不了任何現(xiàn)實(shí)問題,那它不是通用人工智能?!?/strong>

這是卡內(nèi)基梅隆大學(xué)助理教授、艾倫人工智能研究所研究科學(xué)家,蒂姆·德特默斯對(duì) AGI 給出的判斷,他用一篇文章《通用人工智能為何不會(huì)成為現(xiàn)實(shí)》直接把 AGI 從神壇上拽了下來。


有意思的是,幾天后,加州大學(xué)圣地亞哥分校助理教授、Together AI 內(nèi)核副總裁丹·傅,給出了完全相反的判斷。他寫了一篇《通用人工智能終將成為現(xiàn)實(shí)》,說我們也許早就已經(jīng)實(shí)現(xiàn)了 AGI。


于是,兩篇文章,一場(chǎng)關(guān)于“AGI ”的爭論,被帶進(jìn)了播客現(xiàn)場(chǎng)。

這場(chǎng)討論并非空談,兩位嘉賓都是同時(shí)深耕學(xué)術(shù)界與產(chǎn)業(yè)界的一線研究者

蒂姆·德特默斯長期深耕深度學(xué)習(xí)量化領(lǐng)域,即模型壓縮,如何在更低精度、更少算力下,讓模型保持可用性能。


在蒂姆·德特默斯看來,判斷 AGI 是否成立,首先要回到一個(gè)常被忽略的前提:計(jì)算是物理的。

在他看來,內(nèi)存遷移、帶寬、延遲,以及馮·諾依曼瓶頸,決定了算力不可能無限擴(kuò)張。他說“幾乎所有指數(shù)增長,最終都會(huì)撞上資源和物理極限”。所以,指數(shù)增長終將放緩,Scaling Law 也不例外。

但丹·傅顯然不這么看。在他看來,現(xiàn)在談“算力見頂”,還太早了。丹·傅每天都在和 GPU 內(nèi)核、算力利用率打交道,在他看來,“我們甚至還沒真正用好上一代硬件。”


在現(xiàn)實(shí)系統(tǒng)中,算力其實(shí)被嚴(yán)重低估和浪費(fèi)了,大量性能消耗在內(nèi)核調(diào)度、系統(tǒng)開銷和工程細(xì)節(jié)上。更關(guān)鍵的是,人們今天評(píng)測(cè)和使用的“最強(qiáng)模型”,往往是基于一到兩年前的算力集群訓(xùn)練出來的,它們并不能代表當(dāng)下硬件和大規(guī)模集群所能達(dá)到的真實(shí)上限。

他因此提出了一個(gè)直觀的估算思路,用來說明算力增長的潛力來自多個(gè)維度的疊加:

  • 新一代硬件 帶來約 2–3 倍 的性能提升;

  • 系統(tǒng)與工程優(yōu)化 將算力利用率提升 約 3 倍;

  • 更大規(guī)模的集群 再帶來 約 10 倍 的規(guī)模效應(yīng)。

這三者相乘,意味著可用算力在理論上可以提升接近90 倍。這并不是紙面上的推算,而是正在產(chǎn)業(yè)中逐步發(fā)生、逐步兌現(xiàn)的現(xiàn)實(shí)潛力。

有意思的是,當(dāng)爭論繼續(xù)推進(jìn),兩人反而在一個(gè)問題上開始靠攏:AGI 到底是什么?

關(guān)于 AGI 的定義,大致有兩種主流視角:

一種從認(rèn)知能力出發(fā),看模型能否覆蓋足夠多的認(rèn)知任務(wù);

另一種則從經(jīng)濟(jì)角度出發(fā),看它是否真的改變了生產(chǎn)方式。

這一點(diǎn)上,雙方達(dá)成一個(gè)共識(shí):AGI 是什么并不重要,重要的是,它有沒有改變我們工作的方式。

在訪談后后半部分,大家從未來拉回到了現(xiàn)實(shí),Agent 成為了關(guān)鍵話題。

丹·傅在節(jié)目中提到一個(gè)有趣的時(shí)間點(diǎn):2025 年 6 月,那是他第一次意識(shí)到,Agent 可能真的越過了拐點(diǎn)。


他當(dāng)時(shí)發(fā)現(xiàn)機(jī)器學(xué)習(xí)工程中最難的技能之一、編程領(lǐng)域的終極難題——“GPU 內(nèi)核編程”被代碼智能體啃下來了。他自己親測(cè):原本一個(gè) GPU 內(nèi)核功能開發(fā)得磨一周,那天靠著代碼智能體,一天就搞定了三四個(gè),工作效率直接提升了 5 倍。而他的團(tuán)隊(duì)用上后,那些原本需要整支團(tuán)隊(duì)耗數(shù)月的復(fù)雜系統(tǒng)開發(fā),也變得輕裝上陣。

這讓丹·傅想起了自己對(duì)自動(dòng)駕駛的態(tài)度變化,從長期懷疑到真正坐上 Waymo,他意識(shí)到技術(shù)的突破可能藏在某個(gè)猝不及防的瞬間。

針對(duì) Agent 的爆發(fā)式潛力,蒂姆·德特默斯曾發(fā)布了一篇擲地有聲的文章《要么善用 Agent,要么被時(shí)代淘汰》。在他看來,代碼 Agent 本身就是高度通用的 Agent,因?yàn)榇a幾乎可以描述和解決所有數(shù)字化問題。他甚至直言,“超過 90% 的代碼和文本,本就應(yīng)該由 Agent 來生成。但同時(shí)他也強(qiáng)調(diào),“人類必須對(duì)最終結(jié)果承擔(dān)責(zé)任,而非盲目依賴 AI 的輸出?!?/p>


兩人將 Agent 形象地比作“需要精細(xì)化管理的實(shí)習(xí)生”,只要給它明確背景信息、拆解任務(wù)邊界、設(shè)定執(zhí)行約束,人類無需過度干預(yù)其執(zhí)行過程,而是把注意力聚焦在把控方向上,用專業(yè)判斷力校驗(yàn)結(jié)果。而在 Agent 時(shí)代,真正吃到紅利的將是有深厚積累的專家,其專業(yè)基礎(chǔ)越深厚,Agent 能為其創(chuàng)造的效率增量就越顯著。

在節(jié)目的最后,關(guān)乎對(duì) AI 行業(yè)未來的預(yù)判,雙方拋出了一系列深刻洞見。

在他們看來,小模型會(huì)成為行業(yè)新熱點(diǎn)、開源模型會(huì)進(jìn)一步飛躍;新硬件、多模態(tài)、端側(cè) AI 都會(huì)有進(jìn)一步發(fā)展。

其中,硬件賽道將走向多元化發(fā)展,模型訓(xùn)練與推理環(huán)節(jié)的專業(yè)化分化會(huì)進(jìn)一步加劇。

更值得關(guān)注的是,Transformer 架構(gòu)獨(dú)霸天下的時(shí)代會(huì)落幕,各類新架構(gòu)會(huì)登上時(shí)代舞臺(tái)。

他們還特別提到了中國的GLM-4.7、MiniMax、DeepSeek 等優(yōu)秀模型,對(duì)中國大模型的快速進(jìn)步表達(dá)了高度認(rèn)可。

在他們看來,相比技術(shù)路線相對(duì)集中的美國,中國團(tuán)隊(duì)反而更敢于探索多種可能性,比如狀態(tài)空間模型、線性注意力以及混合架構(gòu)等,通過架構(gòu)創(chuàng)新或極致性能,讓開源模型脫穎而出。

同時(shí),他們也指出,中國的模型團(tuán)隊(duì)在技術(shù)路線上更務(wù)實(shí)。與“先做出最強(qiáng)模型,再等待應(yīng)用出現(xiàn)”的硅谷思路不同,中國團(tuán)隊(duì)更關(guān)注模型是否真正能落地、是否能在現(xiàn)實(shí)場(chǎng)景中產(chǎn)生價(jià)值。正是這種務(wù)實(shí)的發(fā)展思維,可能會(huì)在未來深刻影響人工智能的技術(shù)形態(tài)以及它所能創(chuàng)造的社會(huì)價(jià)值。

以下是播客全文,更多精彩細(xì)節(jié),歡迎來看:

“AGI 能否成為現(xiàn)實(shí)”之爭

主持人:蒂姆,幾周前你發(fā)表了一篇極具爭議性的精彩博文,標(biāo)題是《通用人工智能為何不會(huì)成為現(xiàn)實(shí)》。而丹,你在幾天后也發(fā)布了一篇同樣引人入勝的回應(yīng)博文,標(biāo)題為《通用人工智能終將成為現(xiàn)實(shí)》。我想先了解一下二位的背景,你們都有著一個(gè)有趣的特點(diǎn),就是兼具產(chǎn)業(yè)界和學(xué)術(shù)界的從業(yè)經(jīng)歷。蒂姆,不如你先講講吧。

蒂姆?德特默斯:我是卡內(nèi)基梅隆大學(xué)機(jī)器學(xué)習(xí)與計(jì)算機(jī)科學(xué)系的助理教授,同時(shí)也是艾倫人工智能研究所的研究科學(xué)家。

我過往的研究主要聚焦于高效深度學(xué)習(xí)量化技術(shù),簡單來說就是模型壓縮,把大模型從 16 位精度壓縮到 4 位精度左右,這方面我做了不少核心研究。比如一種高效的微調(diào)方法,我們將模型壓縮至 4 位精度,在模型上使用適配器,這樣所需的內(nèi)存相比全精度模型能減少多達(dá) 16 倍。

目前我正致力于代碼 Agent 的研究,我們將在約兩周后發(fā)布一項(xiàng)非常令人振奮的成果,打造出了目前最先進(jìn)的 Agent,它能快速適配私有數(shù)據(jù),在任意代碼庫上都能實(shí)現(xiàn)出色的性能表現(xiàn),這一成果真的讓人充滿期待。

主持人:丹,該你了。

丹?傅:我是加州大學(xué)圣地亞哥分校的助理教授,同時(shí)擔(dān)任合聚人工智能公司的內(nèi)核副總裁。

在產(chǎn)業(yè)界,我的工作主要集中在提升模型的運(yùn)行速度,GPU 內(nèi)核正是將模型轉(zhuǎn)化為實(shí)際在 GPU 上運(yùn)行程序的關(guān)鍵,你可以把它理解為專門的 GPU 程序。

我的博士階段以及實(shí)驗(yàn)室的大量研究都圍繞這一方向展開,比如我研發(fā)了快速注意力機(jī)制,這是一款針對(duì)當(dāng)下多數(shù)語言模型核心運(yùn)算的高效內(nèi)核。我還研究了 Transformer 架構(gòu)之外的替代架構(gòu),比如狀態(tài)空間模型等。

在合聚人工智能,我主要關(guān)注如何打造當(dāng)下最優(yōu)的語言模型,以及如何進(jìn)一步提升它們的運(yùn)行速度。

就在本期節(jié)目錄制的今早,我們還和庫爾索公司聯(lián)合發(fā)布了一篇博文,介紹了我們?nèi)绾螢槠涠嗫钅P蛯?shí)現(xiàn)加速,并助力他們?cè)谟ミ_(dá)的布萊克韋爾(Blackwell) GPU 上推出了作曲者 2.0 模型,這大概就是我的工作內(nèi)容。

從 AGI 的定義,

聊到對(duì) AGI 的現(xiàn)實(shí)判斷

主持人:接下來我們聊聊通用人工智能的話題,節(jié)目后半段再探討 Agent 和代碼 Agent,以及二位的相關(guān)見解。通用人工智能這個(gè)術(shù)語被大家廣泛使用,但我想大家都認(rèn)同,目前還沒有人能準(zhǔn)確定義它。為了本次探討,二位認(rèn)為什么樣的通用人工智能定義是實(shí)用的?

丹?傅:當(dāng)然。我和蒂姆在這一系列博文中反復(fù)探討的一個(gè)問題,就是通用人工智能的定義。

就我而言,我最近一直在思考,以當(dāng)下的模型發(fā)展水平,尤其是語言模型,再結(jié)合后續(xù)會(huì)談到的 Agent 來看,以 5 年前、10 年前,甚至我和蒂姆剛開始讀博時(shí)任何人給出的通用人工智能定義,我們其實(shí)已經(jīng)實(shí)現(xiàn)了當(dāng)時(shí)的設(shè)想。如今的模型能寫代碼、能生成人類語言,即便有時(shí)用詞上會(huì)有些小瑕疵,但確實(shí)能完成這些令人驚嘆的任務(wù)。我還會(huì)思考,這種技術(shù)發(fā)展到何種程度,會(huì)引發(fā)一場(chǎng)新的工業(yè)革命,真正改變我們當(dāng)下的工作方式,并產(chǎn)生巨大的經(jīng)濟(jì)影響。

在軟件工程領(lǐng)域,我覺得我們已經(jīng)身處這樣的變革中,或者說即將迎來全面變革。雖然在一些高度專業(yè)化的領(lǐng)域,比如模型未必能寫出世界上最優(yōu)質(zhì)的福蘭語和鈷語言代碼,但在網(wǎng)頁開發(fā),甚至很多底層系統(tǒng)工程方面,它們的表現(xiàn)已經(jīng)非常出色。

我寫那篇博文的一個(gè)原因就是,審視當(dāng)下的發(fā)展,我們或許已經(jīng)實(shí)現(xiàn)了通用人工智能,或者說某種形式的通用人工智能。即便尚未完全實(shí)現(xiàn),下一代正在訓(xùn)練的模型,只要比當(dāng)下的模型表現(xiàn)更好,我們就已經(jīng)取得了令人驚嘆的突破。

蒂姆?德特默斯:我寫那篇博文時(shí)發(fā)現(xiàn),自己竟然忘了在文中給出通用人工智能的定義,盡管整篇文章都圍繞這個(gè)主題展開。我想這在某種程度上也反映了我們對(duì)通用人工智能的思考現(xiàn)狀 —— 我們并未認(rèn)真去界定它。當(dāng)然,目前存在多種定義,各有優(yōu)劣,正如你所說,沒有一個(gè)定義能獲得所有人的認(rèn)同。

我簡單提幾種比較主流的,一種是將通用人工智能視為認(rèn)知能力、認(rèn)知任務(wù)的集合,關(guān)注模型能完成哪些認(rèn)知層面的工作。軟件工程、文本創(chuàng)作都是高度依賴認(rèn)知的任務(wù),而讓機(jī)器人在空間中移動(dòng)則更偏向操作層面,當(dāng)然也有人認(rèn)為肢體移動(dòng)的規(guī)劃也屬于認(rèn)知范疇,但多數(shù)人會(huì)將其區(qū)分開來,認(rèn)為所有數(shù)字化的任務(wù)都屬于認(rèn)知領(lǐng)域,物理層面的操作則超出了這一范疇。

另一種我認(rèn)為很有意義的定義視角是經(jīng)濟(jì)層面,看人工智能是否能引發(fā)一場(chǎng)新的工業(yè)革命,是否具備廣泛的實(shí)用性,能應(yīng)用到各個(gè)領(lǐng)域,推動(dòng)各類工作的效率提升,就像計(jì)算機(jī)的出現(xiàn)那樣。當(dāng)然,計(jì)算機(jī)剛出現(xiàn)時(shí),生產(chǎn)率其實(shí)出現(xiàn)了下降,直到其在經(jīng)濟(jì)中廣泛普及,生產(chǎn)率才重新回升。通用人工智能的發(fā)展或許也會(huì)經(jīng)歷類似過程,在軟件工程等領(lǐng)域,其帶來的效率提升已經(jīng)十分顯著。

主持人:我們直接切入核心爭論吧。蒂姆,你曾提到 AGI 的相關(guān)構(gòu)想的起源,這一點(diǎn)讓我覺得很有意思,你能展開講講嗎?

蒂姆?德特默斯:好的。先梳理一下整體的背景,當(dāng)下關(guān)于 AGI 的一些觀點(diǎn),根植于特定的思維模式,主要來源于有效利他主義社群和理性主義社群。

我 15 年前也曾是這些社群的一員。在推特上,總能看到有人說 “兩年內(nèi)就能實(shí)現(xiàn)通用人工智能”,一年后又有人說 “兩年內(nèi)就能實(shí)現(xiàn)通用人工智能”,年年如此。我覺得這種想法有些草率,也體現(xiàn)出一種信息繭房的狀態(tài),持這種觀點(diǎn)的人很少接觸不同的想法。這也是我寫那篇博文的主要?jiǎng)訖C(jī),我希望提出一些不同的觀點(diǎn),為當(dāng)下主流的思考提供一種反視角。

算力是否見頂

主持人:你核心的觀點(diǎn)是,這些構(gòu)想與實(shí)際的計(jì)算現(xiàn)實(shí)之間存在矛盾,這樣概括準(zhǔn)確嗎?

蒂姆?德特默斯:沒錯(cuò)。這其中既涉及物理層面的限制,也有理論層面的問題,而這兩方面都存在一個(gè)共同的規(guī)律 —— 收益遞減。所有指數(shù)級(jí)增長的事物最終都會(huì)放緩,因?yàn)榘l(fā)展需要資源,而資源總會(huì)耗盡,這里的資源可以有多種解讀。

從物理層面來看,技術(shù)的進(jìn)一步發(fā)展會(huì)變得越來越困難,幾乎所有研究和開發(fā)領(lǐng)域都是如此。前期的進(jìn)展往往容易實(shí)現(xiàn),而后續(xù)要取得突破,需要投入更多資源,發(fā)展速度也會(huì)越來越慢。

再看計(jì)算設(shè)備的物理現(xiàn)實(shí),以及計(jì)算本身的結(jié)構(gòu),其實(shí)有用的計(jì)算主要包含兩個(gè)環(huán)節(jié):

首先是將數(shù)據(jù)從不同位置收集起來,匯聚到指定位置,然后對(duì)這些信息進(jìn)行整合,完成信息的轉(zhuǎn)化處理。簡單來說,就是結(jié)合已知信息,計(jì)算出未知的新信息。有用的信息,必然是從已有的信息中轉(zhuǎn)化而來的。如果只是大量轉(zhuǎn)移信息,卻不進(jìn)行處理,就無法產(chǎn)生新信息;如果只是對(duì)現(xiàn)有信息進(jìn)行大量計(jì)算,又會(huì)錯(cuò)失跨領(lǐng)域的洞察和間接的啟發(fā)。我認(rèn)為這一點(diǎn)與我們當(dāng)下的神經(jīng)網(wǎng)絡(luò)架構(gòu)高度契合。

早期的卷積神經(jīng)網(wǎng)絡(luò)表現(xiàn)出色,原因就在于它們幾乎不怎么移動(dòng)內(nèi)存,而是專注于大量計(jì)算,這意味著這類設(shè)備需要強(qiáng)大的浮點(diǎn)運(yùn)算能力,而內(nèi)存帶寬則沒那么重要。當(dāng)發(fā)展到大規(guī)模密集計(jì)算、大矩陣運(yùn)算階段,就到了當(dāng)下神經(jīng)網(wǎng)絡(luò)的發(fā)展方向,但此時(shí)仍保留著循環(huán)機(jī)制的特點(diǎn),需要關(guān)注之前的狀態(tài)。不過由于循環(huán)的特性,計(jì)算的內(nèi)存復(fù)用率極低。

而 Transformer 架構(gòu),先是通過大矩陣將前一層的輸入信息進(jìn)行轉(zhuǎn)化,再通過注意力機(jī)制實(shí)現(xiàn)跨時(shí)間或空間的信息關(guān)聯(lián)。我認(rèn)為這是處理信息最根本的兩種方式:一是讓信息之間建立關(guān)聯(lián),或?qū)π畔⑦M(jìn)行轉(zhuǎn)化;

二是讓信息與關(guān)聯(lián)較遠(yuǎn)的其他信息建立聯(lián)系,也就是挖掘長期關(guān)聯(lián),并基于已有信息進(jìn)行轉(zhuǎn)化。

主持人:你認(rèn)為這一發(fā)展進(jìn)程正在放緩,對(duì)吧?你的博文中有一句非常引人注目的話,稱 “圖形處理器的發(fā)展將不再有實(shí)質(zhì)性突破”,這是核心觀點(diǎn),能說說原因嗎?

蒂姆?德特默斯:這個(gè)觀點(diǎn)包含兩層含義,首先是一個(gè)非常根本的物理問題,也就是我剛才提到的內(nèi)存轉(zhuǎn)移和計(jì)算的關(guān)系。

計(jì)算要產(chǎn)生價(jià)值,就必須將內(nèi)存數(shù)據(jù)轉(zhuǎn)移到進(jìn)行計(jì)算的本地區(qū)域,這其實(shí)是一個(gè)幾何問題。你需要一個(gè)大容量的信息存儲(chǔ)區(qū),然后將其中的信息轉(zhuǎn)移到計(jì)算區(qū)域。而我們已經(jīng)找到了實(shí)現(xiàn)這一過程的最優(yōu)物理方式:配備大容量但速度較慢的動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,再將數(shù)據(jù)轉(zhuǎn)移到高速緩存中。

從幾何結(jié)構(gòu)來看,這是實(shí)現(xiàn)高速運(yùn)算的最優(yōu)解,針對(duì)特定規(guī)模的計(jì)算任務(wù),這種架構(gòu)的效率是最高的。如果是矩陣乘法這類不同規(guī)模的計(jì)算任務(wù),就需要使用圖形處理器而非中央處理器,因?yàn)閳D形處理器雖然延遲更高,但吞吐量更大,能傳輸更多數(shù)據(jù),只是速度稍慢。我們可以對(duì)緩存的結(jié)構(gòu)、大小,以及核心的共享方式做一些微調(diào),但歸根結(jié)底,核心的問題始終存在 —— 這是一個(gè)幾何難題,空間的利用方式是有限的,這就決定了數(shù)據(jù)的訪問模式和延遲始終存在固定的限制,其中最大的延遲來自大容量的動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,這也是主要的性能瓶頸。這一瓶頸也被稱為馮?諾依曼瓶頸,幾乎所有計(jì)算機(jī)都受此限制,具體來說,就是需要將程序傳輸?shù)綀?zhí)行區(qū)域才能運(yùn)行。對(duì)于神經(jīng)網(wǎng)絡(luò)而言,就是要將權(quán)重和輸入數(shù)據(jù)傳輸?shù)綇埩亢诵倪@一執(zhí)行單元。

想要繞開這一瓶頸的方法寥寥無幾,唯一的途徑是進(jìn)行本地內(nèi)存存儲(chǔ)和本地計(jì)算,市面上也有一些處理器嘗試實(shí)現(xiàn)這一點(diǎn),比如存算一體處理器,能在很大程度上在芯片內(nèi)部解決馮?諾依曼瓶頸問題,但這類處理器仍需要從外部向芯片內(nèi)傳輸數(shù)據(jù),這就使得馮?諾依曼瓶頸從芯片內(nèi)部轉(zhuǎn)移到了存儲(chǔ)設(shè)備或網(wǎng)絡(luò)層面,問題只是發(fā)生了轉(zhuǎn)移,本質(zhì)并未改變。你仍需要通過網(wǎng)絡(luò)將存儲(chǔ)在磁盤或內(nèi)存中的程序加載到芯片中,這還是同一個(gè)物理問題,只是調(diào)整了幾個(gè)變量而已。這是問題的第一個(gè)層面,目前還沒有能解決這一問題的架構(gòu)。

第二個(gè)層面,也是我的核心觀點(diǎn)所在:想要突破瓶頸,需要依靠新技術(shù),但當(dāng)新技術(shù)的潛力被充分挖掘后,又需要新的技術(shù)實(shí)現(xiàn)進(jìn)一步突破。

比如,我們從動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器發(fā)展到了高帶寬存儲(chǔ)器,也就是堆疊式的動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,速度大幅提升,但這種存儲(chǔ)器的堆疊層數(shù)有限,因?yàn)槠渲圃旌蜏y(cè)試的難度極高,良品率很低。到 2026 年,高帶寬存儲(chǔ)器的產(chǎn)能將會(huì)不足,無法實(shí)現(xiàn)規(guī)模化生產(chǎn),因?yàn)橹圃祀y度實(shí)在太大。我們已經(jīng)見證了諸多技術(shù)創(chuàng)新,張量核心的出現(xiàn)是一大突破,8 位精度、4 位精度的量化技術(shù)也相繼落地,我和其他研究者的研究都表明,這些技術(shù)在信息論層面和實(shí)際應(yīng)用中都是接近最優(yōu)的。

如果基于足夠多的數(shù)據(jù)進(jìn)行訓(xùn)練,4 位精度是不夠的,實(shí)際需要 8 位精度,這意味著量化技術(shù)已經(jīng)發(fā)展到了極限。硬件的潛力也被挖掘殆盡,目前沒有新的技術(shù)可以突破,我們能做的只是優(yōu)化制造工藝,降低成本,卻無法提升速度。各項(xiàng)功能的開發(fā)也已到極致,稀疏化技術(shù)是很多人嘗試的方向,這一研究已經(jīng)持續(xù)了 50 年,我自己也做過相關(guān)嘗試,這或許是最后一個(gè)可探索的方向,但 4 位精度的量化技術(shù)已經(jīng)意味著量化領(lǐng)域的發(fā)展走到了盡頭。

簡單來說,功能和硬件都已被開發(fā)到極限,這就是我們當(dāng)下的處境。

主持人:太有意思了。丹,你對(duì)這些觀點(diǎn)有什么看法?

丹?傅:我非常認(rèn)可蒂姆的這篇博文,因?yàn)楫?dāng)下有不少關(guān)于通用人工智能的討論,只是簡單地按照指數(shù)增長的趨勢(shì)去推演,認(rèn)為到某個(gè)時(shí)間點(diǎn),人工智能會(huì)發(fā)展到掌控整個(gè)宇宙的程度,我一直覺得這種思考方式有些片面。我認(rèn)同蒂姆從實(shí)際物理限制角度出發(fā)的分析,正如他所說,這些都是依賴物理輸入、進(jìn)行實(shí)際物理計(jì)算的系統(tǒng)。

我的觀點(diǎn)是,看看當(dāng)下的系統(tǒng)和我們訓(xùn)練的模型,我們甚至連上一代硬件的潛力都遠(yuǎn)未充分挖掘,更不用說新推出的硬件了。

從技術(shù)層面,我在博文中主要提出了兩個(gè)核心觀點(diǎn):

第一,看看當(dāng)下那些表現(xiàn)出色的模型,我在博文中主要以開源模型為例,因?yàn)殚_源領(lǐng)域會(huì)更多地披露模型的訓(xùn)練過程和所耗資源,而開放人工智能和思存人工智能等公司并未公開相關(guān)數(shù)據(jù)。

以 DeepSeek 模型為例,這是目前最優(yōu)秀的開源模型之一,它在 2024 年底完成訓(xùn)練,使用的是上一代的英偉達(dá) H800 GPU,這款顯卡因出口限制做了性能閹割,并非原版 H100。根據(jù)公開報(bào)告,該模型的訓(xùn)練使用了約 2000 塊 H800 顯卡,耗時(shí)約一個(gè)月。計(jì)算一下實(shí)際的算力利用情況會(huì)發(fā)現(xiàn),芯片的有效利用率僅約 20%,行業(yè)內(nèi)將這一指標(biāo)稱為模型浮點(diǎn)運(yùn)算利用率。而在 21 世紀(jì) 20 年代初,我們?cè)谂f硬件上訓(xùn)練不同架構(gòu)的模型時(shí),輕松就能實(shí)現(xiàn) 50% 甚至 60% 的模型浮點(diǎn)運(yùn)算利用率。如果能將這一指標(biāo)提升,再加上我的好友崔最近發(fā)布了一系列能優(yōu)化模型訓(xùn)練的新內(nèi)核,單是這一項(xiàng)優(yōu)化,就能讓算力利用率提升 3 倍。

第二,需要意識(shí)到的是,這款 2024 年年中開始訓(xùn)練的 DeepSeek 模型,在 2026 年初仍是眾多優(yōu)秀開源或類開源模型的基礎(chǔ)。而從那之后,我們已經(jīng)搭建了全新的算力集群,搭載了當(dāng)下最新的硬件,比如英偉達(dá)的布萊克韋爾系列顯卡。普爾賽德、瑞弗萊克申等公司都在搭建包含數(shù)萬個(gè) B200、GB200 芯片的算力集群。

對(duì)比來看,新一代硬件即便保持和之前相同的精度、相同的配置,運(yùn)算速度也能提升 2 至 3 倍,算力集群的規(guī)模更是擴(kuò)大了 10 倍,再加上 3 倍的純技術(shù)優(yōu)化空間,整體的可用算力能提升 3×3×10,也就是 90 倍。這還沒有考慮未來的算力集群建設(shè),只是當(dāng)下已經(jīng)落地、有人正在用于模型訓(xùn)練的集群。

我的核心觀點(diǎn)是,單從這些基礎(chǔ)的硬件條件來看,就能發(fā)現(xiàn)可用算力相比我們當(dāng)下所依賴的模型,還有多達(dá)兩個(gè)數(shù)量級(jí)的提升空間,也就是 100 倍。當(dāng)然,我們可以爭論算力規(guī)模擴(kuò)大是否會(huì)帶來收益遞減,縮放曲線是否依然有效,但現(xiàn)實(shí)的算力潛力就擺在眼前。

這還沒考慮蒂姆提到的那些點(diǎn),比如目前的訓(xùn)練大多采用 8 位精度,而 4 位精度的訓(xùn)練方法才剛剛開始形成相關(guān)研究成果;GB200 芯片有 72 個(gè)連接速度極快的核心,而我們甚至還沒看到基于這款芯片訓(xùn)練的首個(gè)預(yù)訓(xùn)練模型。開放人工智能的報(bào)告中提到,GPT-5.2 是首個(gè)基于 H100、H200 和 GP200 芯片訓(xùn)練的模型,這在我看來,意味著它的預(yù)訓(xùn)練其實(shí)是在老舊的算力集群上完成的,只是在新的 GP200 芯片上進(jìn)行了一些微調(diào)。

主持人:你提到,不僅硬件的利用率不足,模型本身也是硬件發(fā)展的滯后指標(biāo),對(duì)吧?

丹?傅:沒錯(cuò)。我們當(dāng)下能使用、能體驗(yàn)到的模型,都是在一兩年前搭建的算力集群上完成預(yù)訓(xùn)練的。

因?yàn)榇罱ㄒ粋€(gè)算力集群需要時(shí)間,完成大規(guī)模的預(yù)訓(xùn)練需要時(shí)間,后續(xù)的微調(diào)、人類反饋強(qiáng)化學(xué)習(xí)等后訓(xùn)練環(huán)節(jié)也需要時(shí)間。所以我們當(dāng)下所看到的、用來衡量模型質(zhì)量的這些模型,其實(shí)都是在一年半前的硬件上訓(xùn)練的。而在這之后,我們已經(jīng)搭建了規(guī)模大得多的算力集群,不難想象,這些集群會(huì)被用于訓(xùn)練新一代模型。

也就是說,我們當(dāng)下所依賴的優(yōu)質(zhì)模型,訓(xùn)練所使用的硬件其實(shí)已經(jīng)相當(dāng)老舊,而我們擁有了新一代的硬件、更多的軟件優(yōu)化方案,更不用說架構(gòu)層面的創(chuàng)新了。

蒂姆剛才提到,處理數(shù)據(jù)的核心是先轉(zhuǎn)移、再計(jì)算,而變形金剛架構(gòu)其實(shí)一直在發(fā)展,只是在研究者看來,發(fā)展速度稍慢。但我們能看到,計(jì)算的核心方式已經(jīng)在發(fā)生變化,哪怕再找到 1.5 倍或 2 倍的優(yōu)化空間,整體的可用算力就能達(dá)到 100 甚至 150 倍。所以當(dāng)下還有大量的算力潛力可以挖掘,用來訓(xùn)練更優(yōu)質(zhì)的模型。

預(yù)訓(xùn)練是綜合訓(xùn)練,

后訓(xùn)練是專項(xiàng)訓(xùn)練

主持人:我理解這場(chǎng)討論的核心是預(yù)訓(xùn)練,也就是我們能否用更多的數(shù)據(jù)和算力訓(xùn)練出更大的模型。但在本播客之前的對(duì)話中,很多人都強(qiáng)調(diào)后訓(xùn)練的重要性,以及構(gòu)建結(jié)合預(yù)訓(xùn)練和強(qiáng)化學(xué)習(xí)的人工智能系統(tǒng)的意義。這一點(diǎn)在當(dāng)下的討論中該如何定位?

丹?傅:這是個(gè)非常好的問題,我和蒂姆的博文其實(shí)都沒有重點(diǎn)探討這一點(diǎn)。我喜歡這樣比喻,預(yù)訓(xùn)練就像是在健身房進(jìn)行的綜合力量訓(xùn)練,通過大重量訓(xùn)練提升整體的力量和能力;而后訓(xùn)練就像是針對(duì)特定項(xiàng)目的專項(xiàng)訓(xùn)練,讓你在具體任務(wù)上表現(xiàn)更出色。

從算力消耗來看,歷史上預(yù)訓(xùn)練消耗的算力占絕對(duì)主導(dǎo),其目的是打造具備通用能力的模型,讓模型掌握大量知識(shí),能完成多種任務(wù),甚至擁有比普通人更多的知識(shí)儲(chǔ)備,比如我自己的知識(shí)量肯定比不上聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器。

而后訓(xùn)練的作用,一方面是讓模型變得更實(shí)用,比如聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器,能理解用戶的需求,并盡力完成任務(wù);另一方面,我們也發(fā)現(xiàn),后訓(xùn)練正越來越多地被用于培養(yǎng)模型的特定技能。比如擅長輔助編程的模型,雖然依托于預(yù)訓(xùn)練積累的大量知識(shí),但正是通過后訓(xùn)練,才讓它在編程領(lǐng)域具備了出色的能力;同理,擅長法律工作的模型,也是在預(yù)訓(xùn)練的基礎(chǔ)上,通過后訓(xùn)練實(shí)現(xiàn)了專業(yè)領(lǐng)域的優(yōu)化。

從純計(jì)算的角度來看,預(yù)訓(xùn)練的算力消耗通常遠(yuǎn)大于后訓(xùn)練。后訓(xùn)練的工作,我雖然不是這方面的專家,但感覺更多地像是如何打造一款實(shí)用的產(chǎn)品,如何獲取用戶反饋,諸如此類。

當(dāng)然,也有一種可能是,下一代預(yù)訓(xùn)練模型的基礎(chǔ)能力已經(jīng)足夠強(qiáng)大,只要針對(duì)經(jīng)濟(jì)領(lǐng)域的各個(gè)垂直賽道進(jìn)行后訓(xùn)練,就能打造出極具實(shí)用性的模型。所以這也是計(jì)算領(lǐng)域的另一個(gè)重要維度,或許我們根本不需要那 100 倍的額外算力,更多的是需要像培養(yǎng)人類一樣,深入理解問題,找到合適的訓(xùn)練方法 —— 就像你如何培養(yǎng)一名實(shí)習(xí)生完成特定任務(wù),如何讓一個(gè)能力強(qiáng)大的預(yù)訓(xùn)練模型發(fā)揮出實(shí)際價(jià)值,這正是后訓(xùn)練要解決的問題。

主持人:二位都提到了 “實(shí)用性” 這個(gè)概念,這或許是你們觀點(diǎn)的交匯點(diǎn)。通用人工智能的定義眾說紛紜,但最終的關(guān)鍵還是看它在產(chǎn)業(yè)中的實(shí)際實(shí)用性。所以即便由于收益遞減,我們無法實(shí)現(xiàn)那個(gè)大家都無法準(zhǔn)確定義的、理想化的通用人工智能,也無關(guān)緊要,因?yàn)槲覀冞€有巨大的潛力可以挖掘,足以讓人工智能在整個(gè)經(jīng)濟(jì)領(lǐng)域發(fā)揮真正的價(jià)值,而不僅限于編程領(lǐng)域。

蒂姆?德特默斯:沒錯(cuò)。我那篇博文的核心結(jié)論正是如此,我們不必過分糾結(jié)于通用人工智能的定義,更應(yīng)該思考如何讓人工智能發(fā)揮最大的實(shí)用價(jià)值,而這不僅關(guān)乎模型本身,丹剛才提到后訓(xùn)練是產(chǎn)品化的過程,這一點(diǎn)很重要。計(jì)算機(jī)的發(fā)展歷程告訴我們,技術(shù)在經(jīng)濟(jì)中的普及需要一種截然不同的思維模式。

美國的思維模式往往是 “打造出最優(yōu)的模型,自然會(huì)有人使用”,而中國的思維模式則更注重務(wù)實(shí),思考如何讓技術(shù)惠及更多人。我認(rèn)為這種務(wù)實(shí)的思維模式至關(guān)重要。談及實(shí)用性,一方面是模型的能力,另一方面就是這種發(fā)展思維。

我相信我和丹,以及大多數(shù)人都會(huì)認(rèn)同一個(gè)觀點(diǎn):如果一個(gè)人工智能能完成數(shù)學(xué)奧林匹克競(jìng)賽這類高難度任務(wù),卻無法解決任何實(shí)際問題,那它算不上通用人工智能。而當(dāng)下的模型已經(jīng)具備了實(shí)用性,所以不會(huì)出現(xiàn)那種 “有能力卻無用處” 的情況。

我們真正追求的,是實(shí)用性極強(qiáng)的模型,而這樣的模型我們已經(jīng)擁有,并且還能不斷優(yōu)化。我認(rèn)為按照某些定義,我們或許無法實(shí)現(xiàn)通用人工智能,但人工智能必將產(chǎn)生巨大的社會(huì)影響。

丹?傅:我想補(bǔ)充一點(diǎn),蒂姆你提到了經(jīng)濟(jì)領(lǐng)域的物理性工作和知識(shí)性工作的劃分,美中兩國在這方面的差異非常有意思。

最近有一本丹?王寫的書很火,探討了制造型經(jīng)濟(jì)、工程型經(jīng)濟(jì)與偏法務(wù)型經(jīng)濟(jì)的區(qū)別。美國有大量優(yōu)秀的知識(shí)性工作有待人工智能去賦能,而從經(jīng)濟(jì)的實(shí)際產(chǎn)業(yè)結(jié)構(gòu)來看,醫(yī)療、教育占了很大比重,科技領(lǐng)域雖然也是重要組成部分,引領(lǐng)著股市的走向,但還有更多領(lǐng)域等待挖掘。

現(xiàn)在有很多優(yōu)秀的研究者正在嘗試用新一代模型研發(fā)新藥、推動(dòng)醫(yī)療領(lǐng)域的實(shí)際變革;如果機(jī)器人技術(shù)能實(shí)現(xiàn)突破,助力完成一些體力勞動(dòng) —— 未必是建造房屋這類重活,而是日常的家務(wù)勞動(dòng),那將挖掘出經(jīng)濟(jì)領(lǐng)域的巨大潛力。這些方向的發(fā)展已經(jīng)能看到初步的成果,自動(dòng)駕駛的發(fā)展歷程對(duì)我很有啟發(fā)。

在我讀博初期,大概 2018、2019 年,我對(duì)自動(dòng)駕駛持非常懷疑的態(tài)度,當(dāng)時(shí)大家總說自動(dòng)駕駛 “再有一兩年就能實(shí)現(xiàn)”,專家則說 “五年內(nèi)有望落地”。但去年我乘坐了威莫的自動(dòng)駕駛車輛,如今在加州灣區(qū),我甚至能使用威莫的高速自動(dòng)駕駛服務(wù)。理論上,我現(xiàn)在甚至可以賣掉自己的車 —— 當(dāng)然我不會(huì)這么做,因?yàn)槲覀€(gè)人喜歡開車。

但技術(shù)的進(jìn)步就是這樣,在這之前一直毫無起色,突然有一天就實(shí)現(xiàn)了突破,你會(huì)發(fā)現(xiàn)它不僅表現(xiàn)出色,甚至比優(yōu)步、出租車這類人工服務(wù)還要好。如果人工智能在家庭清潔、洗碗這類家務(wù)勞動(dòng)上也實(shí)現(xiàn)這樣的突破,那將是非常令人振奮的,也會(huì)徹底改變?nèi)藗兊目捶āN易约翰⒎菣C(jī)器人領(lǐng)域的研究者,但一直密切關(guān)注著這個(gè)領(lǐng)域的發(fā)展。

多硬件、多芯片的未來方向

主持人:丹,借著這個(gè)話題,我想問問,從你的觀察來看,人工智能領(lǐng)域是否會(huì)朝著多硬件、多芯片的方向發(fā)展?顯然英偉達(dá)的發(fā)展勢(shì)頭迅猛,還有賽博拉斯等公司,以及眾多從底層技術(shù)切入的專用集成電路企業(yè)。從你深耕底層技術(shù)的視角,你怎么看這一趨勢(shì)?

丹?傅:這是個(gè)很棒的問題,我在實(shí)驗(yàn)室的工作中會(huì)花大量時(shí)間思考這個(gè)問題,產(chǎn)業(yè)界的工作中也會(huì)密切關(guān)注。當(dāng)下正處于一個(gè)非常令人振奮的階段:英偉達(dá)的芯片性能強(qiáng)勁、穩(wěn)定性高,圍繞其構(gòu)建的軟件生態(tài)也非常完善;而 AMD 的芯片也開始展現(xiàn)出同樣的潛力,相關(guān)的研究也在推進(jìn)。

比如在實(shí)驗(yàn)室,我的好友西姆龍?奧羅拉主導(dǎo)開發(fā)了一個(gè)名為希普基滕斯的庫,核心就是探索如何設(shè)計(jì)合適的軟件抽象層,實(shí)現(xiàn) AMD GPU 的編程。研究發(fā)現(xiàn),AMD GPU 和英偉達(dá) GPU 的軟件抽象層存在明顯差異,即便這兩款 GPU 的參數(shù)規(guī)格相對(duì)接近 —— 更不用說和格羅克、賽博拉斯、薩博諾瓦等公司的芯片相比了,它們的編程方式也截然不同。

現(xiàn)在越來越多的人開始關(guān)注這一領(lǐng)域,投入時(shí)間和精力進(jìn)行研究。英偉達(dá)收購了格羅克,當(dāng)下張量處理單元也備受關(guān)注,賽博拉斯和開放人工智能也剛宣布達(dá)成合作。所以未來必然會(huì)涌現(xiàn)出更多的硬件方案,英偉達(dá)無疑會(huì)繼續(xù)保持良好的發(fā)展態(tài)勢(shì),甚至在本期節(jié)目錄制時(shí),其市值已經(jīng)突破 5 萬億美元,但硬件領(lǐng)域的多樣性會(huì)大幅提升,尤其是在模型推理層面。

訓(xùn)練和推理是兩種截然不同的計(jì)算過程,因此需要的芯片也大相徑庭。在推理層面,模型可能需要在手機(jī)、筆記本電腦等本地設(shè)備上運(yùn)行。我的手機(jī)是一款幾年前的蘋果手機(jī),但其運(yùn)算能力已經(jīng)超過了我讀博初期使用的一些 GPU,硬件算力的增長速度令人驚嘆。

2025 年 6 月是 Agent 的拐點(diǎn)

主持人:丹,你剛才提到自動(dòng)駕駛實(shí)現(xiàn)突破的那個(gè)節(jié)點(diǎn),Agent 的發(fā)展是否也已經(jīng)到了這樣的時(shí)刻?你還提到過 “軟件奇點(diǎn)”,我們當(dāng)下是否正處于 Agent 發(fā)展的關(guān)鍵突破點(diǎn)?

丹?傅:我認(rèn)為是的。就我個(gè)人的經(jīng)歷而言,這個(gè)突破點(diǎn)出現(xiàn)在 2025 年 6 月左右。

給大家做個(gè)背景介紹,我在合聚人工智能的日常工作就是編寫這些 GPU 內(nèi)核,在機(jī)器學(xué)習(xí)領(lǐng)域,GPU 內(nèi)核的編程被認(rèn)為是最難掌握的技能之一,它需要高度的并行化設(shè)計(jì),使用的是 C++ 這種資深工程師使用了數(shù)十年的老牌語言,而非 Python 這類易用的語言。招聘能編寫 GPU 內(nèi)核的工程師難度極大,這是一項(xiàng)極具挑戰(zhàn)性的技能,無疑是編程能力的頂尖體現(xiàn)。

而 2025 年 6 月,我們有了一個(gè)非常有趣的發(fā)現(xiàn):云代碼、庫爾索 Agent 這類代碼 Agent,在編寫 GPU 內(nèi)核方面的表現(xiàn)非常出色。那一周,我完成了三四個(gè)原本各自需要一周時(shí)間才能完成的功能開發(fā),全部工作一天就搞定了。當(dāng)時(shí)我就意識(shí)到,這個(gè)工具讓我這個(gè)內(nèi)核領(lǐng)域的專家,工作效率提升了 5 倍。

我讓團(tuán)隊(duì)都開始使用這個(gè)工具,現(xiàn)在團(tuán)隊(duì)借助它搭建了許多復(fù)雜的系統(tǒng),能快速完成原本需要整個(gè)團(tuán)隊(duì)耗時(shí)數(shù)月才能實(shí)現(xiàn)的功能開發(fā)。而 GPU 內(nèi)核編程,正是編程領(lǐng)域最難的 “終極挑戰(zhàn)”,所以在我們看來,代碼 Agent,尤其是在高難度的 GPU 內(nèi)核編程領(lǐng)域,已經(jīng)實(shí)現(xiàn)了關(guān)鍵性的突破。

幾個(gè)月前,我在斯拉什大會(huì)上做了一場(chǎng)演講,提出了“軟件奇點(diǎn)”的概念,核心就是意識(shí)到在軟件工程領(lǐng)域,即便是這類非常小眾的高難度技能,人工智能的表現(xiàn)也已經(jīng)超越了普通程序員,甚至能為資深程序員帶來效率的大幅提升。就本期節(jié)目錄制的當(dāng)下而言,讓 Agent 獨(dú)立完成開發(fā),可能還無法產(chǎn)出完美的結(jié)果,但如果資深程序員借助這些工具,工作效率能提升 10 倍,這是一個(gè)非常令人振奮的發(fā)展階段。

要么善用 Agent,

要么被時(shí)代淘汰。

主持人:聊到 Agent,蒂姆,你最近還發(fā)表了一篇精彩的博文,標(biāo)題是 《要么善用 Agent,要么被時(shí)代淘汰》,其中探討了代碼 Agent 和適用于其他各類任務(wù)的 Agent。從代碼 Agent 的出色表現(xiàn),到 Agent 在日常生活各領(lǐng)域發(fā)揮實(shí)用價(jià)值,這一發(fā)展進(jìn)程當(dāng)下處于什么階段?

蒂姆?德特默斯:我寫這篇博文,也是因?yàn)榘l(fā)現(xiàn)使用代碼 Agent 能為各類任務(wù)帶來巨大的生產(chǎn)效率提升。作為一名教授,我平時(shí)的編程工作并不多,但借助代碼 Agent,編程變得前所未有的輕松,這在以往是難以想象的。

當(dāng)然,Agent 在非編程任務(wù)上的表現(xiàn)也同樣出色。從我自身的體驗(yàn)來看,生產(chǎn)效率的提升幅度不一,有時(shí)是兩三倍,有時(shí)甚至能達(dá)到 10 倍,而且工作質(zhì)量沒有下降,甚至有時(shí)還能提升。Agent 的能力或許未必比我強(qiáng),但它不會(huì)疲憊,不會(huì)犯低級(jí)錯(cuò)誤,也不會(huì)在整合復(fù)雜信息時(shí)出現(xiàn)認(rèn)知上的困難 —— 這和丹剛才提到的 GPU 內(nèi)核編程的情況是一樣的。

我認(rèn)為馬特你將其分為代碼 Agent 和通用 Agent,但在我看來,代碼 Agent 本身就是通用 Agent。代碼 Agent 能編寫程序解決各類問題,而代碼的通用性極強(qiáng),任何數(shù)字化的問題都能通過代碼解決。代碼 Agent 讓解決問題的過程變得無比輕松,讓我們能以以往無法想象的方式和速度解決各類問題,實(shí)現(xiàn)多任務(wù)并行處理。Agent 不會(huì)疲憊,可以持續(xù)工作,讓工作變得輕松很多。

我的博文中有一個(gè)觀點(diǎn)我自己很認(rèn)同,開篇我先區(qū)分了炒作和現(xiàn)實(shí),而后基于自己在直播中測(cè)試 Agent 的實(shí)際體驗(yàn)得出結(jié)論:超過 90% 的代碼和文本都應(yīng)該由 Agent 來生成,不這么做,就會(huì)被時(shí)代淘汰。我想對(duì)于很多工程師來說,這一點(diǎn)已經(jīng)成為現(xiàn)實(shí)。

有些人認(rèn)為,Agent 生成的代碼和文本質(zhì)量一定低下,但關(guān)鍵在于,你需要對(duì) Agent 的輸出進(jìn)行檢查和編輯。你所做的這 10% 的工作,能帶來巨大的改變。通過這種對(duì)輸出內(nèi)容的檢查、編輯和優(yōu)化,讓成果成為屬于自己的作品。

人工智能生成的內(nèi)容,并不比你自己寫的內(nèi)容缺乏個(gè)性。比如我借助 Agent 撰寫科研基金申請(qǐng),成品會(huì)讓我覺得充滿生命力,能感受到其中的吸引力,相信評(píng)審人看到后會(huì)覺得 “這是一項(xiàng)優(yōu)秀的研究,值得資助”?,F(xiàn)實(shí)就是如此,如果你只是讓 Agent 生成內(nèi)容,不做任何檢查就直接使用,那肯定無法達(dá)到預(yù)期效果;但如果你能快速審核內(nèi)容、調(diào)整優(yōu)化,發(fā)現(xiàn)不妥之處并進(jìn)行修改,最終就能得到優(yōu)質(zhì)的成果,這會(huì)成為未來的常態(tài)。

而適應(yīng)這種工作方式所需的技能,大多數(shù)人還未完全掌握,我自己也在學(xué)習(xí)中,目前仍處于探索階段。模型在更新,框架在迭代,我們需要不斷適應(yīng)、持續(xù)學(xué)習(xí),雖然要學(xué)的東西很多,但一旦掌握,帶來的回報(bào)是巨大的。

曾經(jīng)有人認(rèn)為軟件工程師會(huì)因此消失,但現(xiàn)在大家都不再這么想了。Agent 極大地提升了生產(chǎn)效率,而掌握使用 Agent 的能力,正是當(dāng)下最需要學(xué)習(xí)的技能。善用 Agent,能讓你完成更多工作,這是核心所在。如果不懂得如何有效使用 Agent,你就會(huì)被淘汰,這將成為一項(xiàng)必備的核心技能。

主持人:聊到 Agent,蒂姆,你最近還發(fā)表了一篇精彩的博文,標(biāo)題是 《要么善用 Agent,要么被時(shí)代淘汰》,其中探討了代碼 Agent 和適用于其他各類任務(wù)的 Agent。從代碼 Agent 的出色表現(xiàn),到 Agent 在日常生活各領(lǐng)域發(fā)揮實(shí)用價(jià)值,這一發(fā)展進(jìn)程當(dāng)下處于什么階段?

蒂姆?德特默斯我認(rèn)為最關(guān)鍵的是保持務(wù)實(shí),思考需要解決的問題,并嘗試用代碼實(shí)現(xiàn)。

當(dāng)然,對(duì)于非程序員來說,編程本身就有很高的門檻,會(huì)覺得 “我從沒寫過代碼,根本做不到”。但如果和 Agent 互動(dòng),它能直接幫你搭建程序,你只需要進(jìn)行少量的學(xué)習(xí) —— Agent 還會(huì)為你講解相關(guān)知識(shí),很快就能上手,實(shí)現(xiàn)程序的運(yùn)行、網(wǎng)站的搭建等,還能快速獲得反饋,現(xiàn)在做這些事情已經(jīng)不再困難。

當(dāng)然,我之前提到過需要檢查 Agent 的輸出,但如果你只是為自己搭建一些簡單的工具提升工作效率,其實(shí)往往不需要這么做,Agent 生成的代碼質(zhì)量已經(jīng)足夠高。如果是在公司工作,需要將代碼整合到正式的代碼庫中,那肯定需要進(jìn)行審核;但如果只是搭建個(gè)人使用的小程序,提升自己的工作效率,那非常容易。

舉個(gè)隨機(jī)的例子,我會(huì)錄制自己和 Agent 互動(dòng)的視頻,視頻中會(huì)有我講解的片段,也有我查看輸出、思考分析的片段。我借助 Agent 搭建了一個(gè)工具,它能識(shí)別語音,記錄我說話的時(shí)間戳,然后對(duì)視頻進(jìn)行剪輯,只保留我講解的部分,去掉無意義的片段。這個(gè)工具我只用了 20 分鐘就搭建好了,我相信所有人都能做到,因?yàn)槲疑踔翛]有檢查 Agent 生成的代碼,直接使用后,剪輯出的視頻效果非常好。

只要建立起 “提出需求 — Agent 生成 — 獲得反饋” 的循環(huán),你根本不需要自己編程,只需要學(xué)會(huì)檢查輸出內(nèi)容,或者掌握 Python 程序、bash 腳本的基本運(yùn)行方法,就能實(shí)現(xiàn)工作的自動(dòng)化。

主持人:那該如何選擇要自動(dòng)化的工作呢?該從哪些角度思考生活中的自動(dòng)化需求?

蒂姆?德特默斯:我在博文中也探討過這個(gè)問題,其實(shí)可以分為直覺層面和精細(xì)化分析層面。

直覺層面很簡單,就是思考哪些工作自動(dòng)化后會(huì)帶來便利,哪怕是一些復(fù)雜的需求,比如 “我想要一個(gè)能實(shí)現(xiàn)某某功能的安卓或蘋果應(yīng)用”,一開始你可能覺得這很難,但只要向 Agent 提出需求,它能立刻實(shí)現(xiàn)。你可以充分發(fā)揮想象力,打造任何自己想要的工具,那些以往沒人開發(fā)、自己又迫切需要的產(chǎn)品,現(xiàn)在都能借助 Agent 實(shí)現(xiàn)。

這種思維方式能讓你打造出實(shí)用的工具,提升生產(chǎn)效率,同時(shí)也能鍛煉你使用 Agent 的能力。當(dāng)然,有時(shí)嘗試后可能會(huì)失敗,這時(shí)你會(huì)明白 Agent 的局限性,以及自己還需要學(xué)習(xí)哪些知識(shí)才能解決問題。

這是直覺層面的方法,能讓你快速入門,從最初的興奮,到面對(duì)現(xiàn)實(shí)的冷靜,再到繼續(xù)嘗試,最終會(huì)發(fā)現(xiàn)自己的生產(chǎn)效率在一天天提升。

而精細(xì)化分析層面的方法,來自我在德國自動(dòng)化行業(yè)三年的工作經(jīng)歷,當(dāng)時(shí)主要負(fù)責(zé)工廠的自動(dòng)化改造,這是一種非常嚴(yán)謹(jǐn)?shù)挠?jì)算方法:先梳理自己的工作流程,為每個(gè)步驟計(jì)時(shí),然后分析如果將某個(gè)步驟自動(dòng)化,能帶來多少收益、節(jié)省多少時(shí)間,再計(jì)算開發(fā)這個(gè)自動(dòng)化工具需要投入多少時(shí)間,通過這種成本收益分析,快速判斷哪些工作的自動(dòng)化改造是有價(jià)值的。

我的博文中提到,郵件的自動(dòng)化處理效果并不好,還有一些事情也是如此,比如創(chuàng)建會(huì)議日歷邀請(qǐng),沒人喜歡做這件事,但仔細(xì)想想,人們對(duì)會(huì)議的安排有很多個(gè)性化的需求,比如某天想多安排會(huì)議,某天想把會(huì)議安排在午飯前,這些需求 Agent 無法感知。即便你向 Agent 詳細(xì)說明這些需求,它生成的日歷邀請(qǐng)也未必能符合預(yù)期,最終的效率提升其實(shí)非常有限。

通過這種精細(xì)化的分析,能讓我們避開這些無意義的嘗試,找到真正能通過自動(dòng)化提升效率的工作。

主持人:丹,從你的角度來看,在 Agent 的應(yīng)用中,哪些方法是有效的,哪些目前還不成熟但未來有望實(shí)現(xiàn),又該如何管理 Agent?

丹?傅:我發(fā)現(xiàn) Agent 的有效應(yīng)用,主要有兩個(gè)核心要點(diǎn)。

第一,讓 Agent 發(fā)揮效用的方式,和管理團(tuán)隊(duì)中的初級(jí)員工、公司里的實(shí)習(xí)生非常相似。比如,你不會(huì)對(duì)一個(gè)剛來的實(shí)習(xí)生說 “去把公司的營收提升一倍”,或許你會(huì)嘗試一次,但顯然不可能得到想要的結(jié)果。相反,你會(huì)給實(shí)習(xí)生安排一些簡單的入門任務(wù),讓他們熟悉復(fù)雜的代碼庫,并告訴他們可能會(huì)遇到的問題 —— 因?yàn)槟阕约河羞^相關(guān)的經(jīng)歷。當(dāng)你給 Agent 提供這樣的背景信息,讓它能接觸到相關(guān)的資料,它通常就能順利完成任務(wù)。

另外,對(duì)待新員工,你不會(huì)直接把生產(chǎn)環(huán)境的所有權(quán)限、數(shù)據(jù)庫信息都交給他們,而是會(huì)給他們足夠的工具,讓他們能開展工作。對(duì)待 Agent 也是如此,有些人會(huì)擔(dān)心 Agent 誤刪生產(chǎn)環(huán)境的所有數(shù)據(jù),于是對(duì)其處處限制,每一步都進(jìn)行監(jiān)控,但如果用這種方式對(duì)待人類員工,他們根本不可能高效工作。這是一個(gè)很重要的點(diǎn),當(dāng)下的 Agent,至少可以把它當(dāng)作實(shí)習(xí)生或初級(jí)員工來對(duì)待。

第二,我發(fā)現(xiàn)一個(gè)非常有趣的現(xiàn)象,尤其是從教授的教育視角,思考如何培養(yǎng)學(xué)生適應(yīng)這個(gè) Agent 成為工作核心的未來,那就是:一個(gè)人的專業(yè)知識(shí)越扎實(shí),比如蒂姆在流程自動(dòng)化領(lǐng)域的專業(yè)積累,或是我在 GPU 內(nèi)核編程領(lǐng)域的深耕,Agent 能為其帶來的能力提升就越大。

因?yàn)閷I(yè)知識(shí)扎實(shí)的人,能在更高的抽象層面開展工作,知道工作的核心要點(diǎn)、方向,了解常見的問題和陷阱,知道哪些事情容易實(shí)現(xiàn)、哪些事情有難度,知道如何將復(fù)雜任務(wù)拆解為多個(gè)步驟。

之前有一段時(shí)間,大家一直在討論 Agent 是否會(huì)取代所有軟件工程師,或者取代所有初級(jí)員工,而從當(dāng)下的發(fā)展來看,顯然不會(huì)出現(xiàn)這種情況。如果一個(gè)工具能讓我的團(tuán)隊(duì)工作效率提升 10 倍,我不會(huì)解雇 90% 的員工,而是會(huì)讓他們?nèi)ネ瓿筛袃r(jià)值的工作,實(shí)現(xiàn) 100 倍的效率提升。這是一方面。

另一方面,成為某個(gè)領(lǐng)域?qū)<业穆窂?,其?shí)和以往并沒有太大區(qū)別:你需要深入學(xué)習(xí)、深入理解相關(guān)知識(shí),需要親手實(shí)踐、真正解決問題。在當(dāng)下這個(gè)時(shí)代,聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器能教你很多東西,我自己就嘗試過讓它教我汽車的各類工作原理,雖然目前效果還一般,但不可否認(rèn),現(xiàn)在學(xué)習(xí)知識(shí)的難度比以往低了很多,哪怕是兩三年前,都沒有這么便捷的學(xué)習(xí)方式。

所以總結(jié)來說,對(duì)待 Agent,要像扮演管理者的角色,幫助它解決遇到的問題,不能只是把問題丟給它就撒手不管;同時(shí),你需要不斷提升自己,成為更優(yōu)秀的 “管理者”,積累更多的領(lǐng)域知識(shí),更深入地理解工作內(nèi)容。

主持人:也就是說,成為專家、持續(xù)學(xué)習(xí)的需求并沒有改變,這一點(diǎn)很有意思,也很有道理。但有一個(gè)問題,如果一名年輕的內(nèi)核工程師第一天入職,以往的培養(yǎng)方式是先安排簡單的任務(wù),第二年再安排更復(fù)雜的工作,那在 Agent 時(shí)代,這種實(shí)操性的職場(chǎng)培訓(xùn)該如何開展?

丹?傅:我們?cè)诤暇廴斯ぶ悄芤惨恢痹谒伎歼@個(gè)問題,即便在模型和 Agent 如此強(qiáng)大的當(dāng)下,我們?nèi)栽诜e極招聘人才。

我們的做法是:首先,我以教授的身份,錄制了一系列關(guān)于 GPU 工作原理的課程,要求所有新員工都必須學(xué)習(xí);然后,我會(huì)給他們布置一個(gè)從零開始的任務(wù),比如修改快速注意力機(jī)制的內(nèi)核,實(shí)現(xiàn)某個(gè)新功能,具體的功能可以由他們自己選擇。Agent 的優(yōu)勢(shì)在于,能讓新員工更快地參與到高價(jià)值的工作中。

對(duì)于一名初級(jí)工程師來說,第一次嘗試管理他人是非常有意義的經(jīng)歷,因?yàn)檫@會(huì)讓他們開始用更精準(zhǔn)的語言思考問題。比如,軟件工程師常會(huì)遇到這種情況:產(chǎn)品經(jīng)理給出一個(gè)需求,寫了長長的需求文檔,但當(dāng)你讓別人去實(shí)現(xiàn)這個(gè)需求時(shí),才會(huì)發(fā)現(xiàn)描述一個(gè)功能需要多么精準(zhǔn)的表達(dá)。

而 Agent 的出現(xiàn),讓這一過程得以簡化,初級(jí)工程師不需要真正成為管理者,依然可以作為工程師開展工作,但能以管理者的思維方式,甚至產(chǎn)品經(jīng)理的視角來思考問題。因?yàn)楹?Agent 溝通時(shí),你必須精準(zhǔn)地描述自己的需求。我發(fā)現(xiàn),團(tuán)隊(duì)中那些剛從大學(xué)或碩士畢業(yè)的年輕員工,只要積極學(xué)習(xí)和使用人工智能 Agent,他們的溝通能力會(huì)比以往的工程師強(qiáng)很多,對(duì)知識(shí)的理解和掌握速度也會(huì)大幅提升,并且能以以往 5 到 10 年都難以想象的速度搭建工具、完成工作。

蒂姆?德特默斯:我從教育的角度補(bǔ)充一點(diǎn),這一點(diǎn)其實(shí)和丹的觀點(diǎn)形成了一定的對(duì)比,也很有意思。我一直強(qiáng)調(diào) “要么善用 Agent,要么被時(shí)代淘汰”,這一點(diǎn)對(duì)學(xué)生也同樣適用,但正如丹所說,使用 Agent 的前提是具備一定的領(lǐng)域知識(shí)。

我們發(fā)現(xiàn),如果允許學(xué)生使用 Agent,他們的學(xué)習(xí)效率會(huì)非常高,但有時(shí)他們借助 Agent 完成的解決方案,表面上看起來沒問題,實(shí)際上卻漏洞百出,而學(xué)生自己卻意識(shí)不到。

當(dāng)下我們正面臨一個(gè)困境:很難同時(shí)培養(yǎng)學(xué)生的領(lǐng)域知識(shí)和 Agent 使用能力,這兩者的平衡很難把握。我們既不想培養(yǎng)出對(duì)知識(shí)一知半解的學(xué)生,也希望學(xué)生能掌握 Agent 的使用方法,否則他們進(jìn)入職場(chǎng)后將無法勝任工作。

丹提到,具備扎實(shí)知識(shí)基礎(chǔ)的人,借助 Agent 能實(shí)現(xiàn)能力的飛躍,但對(duì)于剛開始學(xué)習(xí)計(jì)算機(jī)科學(xué)的學(xué)生來說,該讓他們學(xué)習(xí)多少專業(yè)知識(shí),又該讓他們?cè)诙啻蟪潭壬辖柚?Agent 完成工作,這是一個(gè)非常棘手的問題,目前還沒有完美的解決方案。

如果讓學(xué)生過度依賴 Agent,他們的基礎(chǔ)知識(shí)點(diǎn)掌握會(huì)非常薄弱;如果讓學(xué)生完全靠自己完成所有學(xué)習(xí)任務(wù),不使用 Agent,他們又無法掌握這項(xiàng)核心技能,進(jìn)入職場(chǎng)后缺乏競(jìng)爭力。

或許一個(gè)解決方案是:先讓學(xué)生扎實(shí)掌握基礎(chǔ)知識(shí),再學(xué)習(xí)使用 Agent。但學(xué)生并不會(huì)這樣做,他們能輕易接觸到這些人工智能工具,并且會(huì)因?yàn)槠浔憬菪远l繁使用。

所以或許真正的解決之道,是培養(yǎng)學(xué)生一種全新的信息處理和知識(shí)學(xué)習(xí)的思維方式,這種能力甚至超越了批判性思維 —— 學(xué)生需要學(xué)會(huì)識(shí)別自己不知道的未知事物,也就是那些自己沒有考慮到、不理解,甚至從未想過的問題。只有具備這種能力,才能跟上 Agent 的發(fā)展步伐。因?yàn)樵谖磥?,我們很可能?huì)面對(duì)自己無法理解的問題,而 Agent 卻能理解,我們需要找到一種方式,跟上 Agent 的節(jié)奏,這無疑是一大挑戰(zhàn)。

小模型是未來趨勢(shì)

主持人:二位對(duì) 2026 年人工智能的發(fā)展有哪些具體的期待?認(rèn)為哪些趨勢(shì)會(huì)成為現(xiàn)實(shí),哪些則不會(huì)?

蒂姆?德特默斯:我覺得自己的看法比較矛盾,一方面,我認(rèn)為很多領(lǐng)域的發(fā)展會(huì)趨于平淡,不會(huì)有太多創(chuàng)新;另一方面,又會(huì)有一些意想不到的突破出現(xiàn)。而在前沿模型領(lǐng)域,我認(rèn)為不會(huì)有太多驚喜。

當(dāng)下一個(gè)公開的事實(shí)是,預(yù)訓(xùn)練數(shù)據(jù)已經(jīng)耗盡,正如丹所說,我們可以通過合成數(shù)據(jù)來彌補(bǔ)這一缺口,代碼 Agent 的訓(xùn)練,就是在各類環(huán)境中生成大量合成數(shù)據(jù),并進(jìn)行數(shù)據(jù)融合,我們?cè)谶@方面會(huì)取得一些進(jìn)展,但整體來看,機(jī)器學(xué)習(xí)領(lǐng)域的發(fā)展已經(jīng)顯現(xiàn)出疲態(tài)。

我認(rèn)為代碼 Agent 的性能不會(huì)有太大提升,主要的進(jìn)步會(huì)體現(xiàn)在用戶體驗(yàn)的優(yōu)化上。當(dāng)下各款模型的性能已經(jīng)趨于同質(zhì)化,比如我使用 GLM-4.7 的配置時(shí),一度以為自己用的是 Opus 4.5,后來才發(fā)現(xiàn)是不同的模型,因?yàn)樗鼈兊谋憩F(xiàn)實(shí)在太相似了。

所以前沿模型的性能發(fā)展會(huì)陷入停滯,而小模型領(lǐng)域則會(huì)迎來快速發(fā)展。如果針對(duì)特定的專業(yè)數(shù)據(jù)訓(xùn)練小模型,其性能會(huì)非常出色,而且小模型的部署難度低,能力卻不容小覷。

比如 1000 億參數(shù)的模型,能輕松實(shí)現(xiàn)部署,即便是 RTX 6000 這類售價(jià) 6000 美元的入門級(jí)數(shù)據(jù)中心 GPU,也能勝任。我認(rèn)為對(duì)于很多企業(yè)來說,這會(huì)是一個(gè)極具吸引力的選擇,它們不再需要依賴前沿的大模型,定制化的小模型甚至能表現(xiàn)出更優(yōu)的性能,因?yàn)槠溽槍?duì)特定領(lǐng)域做了優(yōu)化。

當(dāng)下存在一個(gè)很大的問題,正如 Anthropic 首席執(zhí)行官所指出的,市面上有很多性能強(qiáng)大的開源模型,但實(shí)際使用的人卻很少,原因就在于部署難度極高。一旦模型的部署需要超過 8 塊 GPU,不僅需要用戶進(jìn)行大量的效率優(yōu)化,還涉及復(fù)雜的系統(tǒng)工程問題,而目前還沒有能實(shí)現(xiàn)這一功能的開源系統(tǒng),需要實(shí)現(xiàn)推理任務(wù)的解耦、跨序列長度的拆分等技術(shù)。或許我們能為異構(gòu) GPU 設(shè)備、小模型打造這樣的部署系統(tǒng),屆時(shí) 1000 億參數(shù)模型的運(yùn)行效率,將能媲美當(dāng)下的前沿大模型。

小模型兼具效率和靈活性的優(yōu)勢(shì),再加上能通過大模型的知識(shí)蒸餾實(shí)現(xiàn)性能提升,這些因素結(jié)合起來,將徹底改變?nèi)斯ぶ悄艿陌l(fā)展格局。

丹?傅:我也對(duì)小模型的發(fā)展充滿期待,認(rèn)為它們會(huì)釋放出更多的能力。

我會(huì)密切關(guān)注開源模型的發(fā)展,GLM-4.7 的出現(xiàn),已經(jīng)讓開源模型的性能開始媲美當(dāng)下最優(yōu)秀的前沿模型,我認(rèn)為 2026 年開源模型的能力會(huì)實(shí)現(xiàn)又一次大的飛躍。

我也非常期待新硬件的推出,目前已經(jīng)有一些關(guān)于英偉達(dá)下一代 NVIDIA Rubin GPU、AMD 400 系列顯卡的消息,即便我們還未充分挖掘當(dāng)下硬件的潛力,我也很想看看下一代硬件能帶來怎樣的性能突破。

此外,我還期待多模態(tài)領(lǐng)域的發(fā)展,去年視頻生成模型迎來了發(fā)展的小高峰,比如 Sora 2、Gemini、Veo 等模型都表現(xiàn)出色,我很想看看它們后續(xù)的發(fā)展。

最后,我也期待能看到,在筆記本電腦、手機(jī)這類終端設(shè)備上,人工智能的智能水平能達(dá)到怎樣的高度,能被推進(jìn)到什么程度。我想說,當(dāng)下投身人工智能領(lǐng)域,恰逢最激動(dòng)人心的時(shí)刻。

主持人:二位早些時(shí)候提到了狀態(tài)空間架構(gòu)(SSM),你們認(rèn)為這會(huì)是人工智能的近期發(fā)展方向嗎?也就是說,我們會(huì)逐漸走出 Transformer 架構(gòu)的時(shí)代,向狀態(tài)空間模型、世界模型等新架構(gòu)發(fā)展嗎?這是否是你認(rèn)為值得期待且勢(shì)在必行的發(fā)展趨勢(shì)?

丹?傅:我認(rèn)為在很多領(lǐng)域,新架構(gòu)已經(jīng)落地應(yīng)用了。比如當(dāng)下全球最優(yōu)秀的一些音頻模型,就部分基于狀態(tài)空間模型打造。英偉達(dá)最近也發(fā)布了多款優(yōu)秀的混合架構(gòu)模型,比如神經(jīng)變形金剛,就是其中的代表。

所以相關(guān)的研究已經(jīng)取得了很多不錯(cuò)的成果,架構(gòu)的進(jìn)化還會(huì)繼續(xù)。比如 DeepSeek 的模型壓縮技術(shù),就借鑒了狀態(tài)空間模型的一些理念;MiniMax 的一款模型,則采用了線性注意力的思路。

所以未來人工智能的架構(gòu)會(huì)變得更加多元,這一趨勢(shì)已經(jīng)顯現(xiàn)。

而中國的實(shí)驗(yàn)室在這方面會(huì)有更多的探索和突破,因?yàn)橹袊]有像開放人工智能那樣,集產(chǎn)品、模型、營收于一體的巨頭企業(yè),也就沒有統(tǒng)一的技術(shù)發(fā)展范式。所以中國的實(shí)驗(yàn)室會(huì)更敢于嘗試,想要讓自己的開源模型脫穎而出,架構(gòu)創(chuàng)新就是一個(gè)重要的方向,當(dāng)然,純性能的提升也是一個(gè)途徑。因此,未來人工智能的架構(gòu)會(huì)迎來爆發(fā)式的創(chuàng)新。

https://www.youtube.com/watch?v=XCCkgRzth6Q、

聲明:本文為 AI 前線整理,不代表平臺(tái)觀點(diǎn),未經(jīng)許可禁止轉(zhuǎn)載。

InfoQ 老友!請(qǐng)留步!極客邦 1 號(hào)客服上線工作啦!

后續(xù)我將通過微信視頻號(hào),以視頻的形式持續(xù)更新技術(shù)話題、未來發(fā)展趨勢(shì)、創(chuàng)業(yè)經(jīng)驗(yàn)、商業(yè)踩坑教訓(xùn)等精彩內(nèi)容,和大家一同成長,開啟知識(shí)交流之旅歡迎

今日薦文

你也「在看」嗎?

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
西貝爆大雷!欠薪緩薪寒人心,總部人去樓空,關(guān)店甩鍋?zhàn)寙T工買單

西貝爆大雷!欠薪緩薪寒人心,總部人去樓空,關(guān)店甩鍋?zhàn)寙T工買單

眼光很亮
2026-03-07 21:59:21
出大事了,白宮發(fā)言人說漏嘴,以色列情報(bào)曝光,特朗普連遭噩耗

出大事了,白宮發(fā)言人說漏嘴,以色列情報(bào)曝光,特朗普連遭噩耗

策略述
2026-03-06 18:28:15
12勝2平,本賽季莫斯克拉首發(fā)的比賽阿森納保持不敗

12勝2平,本賽季莫斯克拉首發(fā)的比賽阿森納保持不敗

懂球帝
2026-03-07 23:05:02
普京的意思已經(jīng)很清楚了,俄羅斯絕不可能出手救伊朗

普京的意思已經(jīng)很清楚了,俄羅斯絕不可能出手救伊朗

時(shí)光琉影8
2026-03-06 17:16:03
湖北單親媽媽嫁65歲美國老頭,帶兒子移民美國,婚后14年老頭去世

湖北單親媽媽嫁65歲美國老頭,帶兒子移民美國,婚后14年老頭去世

哄動(dòng)一時(shí)啊
2026-02-09 16:56:31
日法加:咱們對(duì)付中國,別找美國了

日法加:咱們對(duì)付中國,別找美國了

觀察者網(wǎng)
2026-03-07 16:11:10
洗牙可能影響壽命!醫(yī)生再三提醒:60歲以后,牢記洗牙5不要

洗牙可能影響壽命!醫(yī)生再三提醒:60歲以后,牢記洗牙5不要

醫(yī)學(xué)科普匯
2026-03-06 18:20:07
交易杜蘭特被坑麻了!刺頭攜帶違禁品被捕,3300萬榜眼更是大水貨

交易杜蘭特被坑麻了!刺頭攜帶違禁品被捕,3300萬榜眼更是大水貨

你的籃球頻道
2026-03-07 07:55:13
我已經(jīng)不消費(fèi)了,除了維持生命必需。

我已經(jīng)不消費(fèi)了,除了維持生命必需。

老陸不老
2026-03-06 21:52:54
小玥兒沒想到,剛生下孩子不到一周的馬筱梅,沒給自己的母親大S留一絲“體面”

小玥兒沒想到,剛生下孩子不到一周的馬筱梅,沒給自己的母親大S留一絲“體面”

不八卦掌門人
2026-03-06 16:18:22
39分慘案引爆內(nèi)訌危機(jī)!掘金最強(qiáng)陣崩盤,阿德爾曼痛批無競(jìng)爭精神

39分慘案引爆內(nèi)訌危機(jī)!掘金最強(qiáng)陣崩盤,阿德爾曼痛批無競(jìng)爭精神

田先生籃球
2026-03-07 20:30:02
特朗普傻眼,難怪伊朗導(dǎo)彈百發(fā)百中,原來有人偷偷給美軍定位

特朗普傻眼,難怪伊朗導(dǎo)彈百發(fā)百中,原來有人偷偷給美軍定位

策前論
2026-03-07 16:23:23
針對(duì)“不敢休、不讓休”怪圈,國家出手了!

針對(duì)“不敢休、不讓休”怪圈,國家出手了!

國是直通車
2026-03-07 09:12:15
CBA技巧挑戰(zhàn)賽:李悅洲、林秉圣領(lǐng)銜晉級(jí),徐杰、龐崢麟遭淘汰

CBA技巧挑戰(zhàn)賽:李悅洲、林秉圣領(lǐng)銜晉級(jí),徐杰、龐崢麟遭淘汰

懂球帝
2026-03-07 22:11:07
16歲11個(gè)月零22天的鄺兆鐳迎首秀,為中超歷史最年輕首秀球員第10

16歲11個(gè)月零22天的鄺兆鐳迎首秀,為中超歷史最年輕首秀球員第10

云隱南山
2026-03-07 22:10:16
從“利苑”到“豬肉婆”:“明星總廚”吳玉擎的掌勺人生

從“利苑”到“豬肉婆”:“明星總廚”吳玉擎的掌勺人生

紅廚網(wǎng)
2026-03-06 09:55:48
劉亦菲官宣貓人全球代言!美神造型炸翻全網(wǎng)東方審美天花板再刷新

劉亦菲官宣貓人全球代言!美神造型炸翻全網(wǎng)東方審美天花板再刷新

阿嬍體育評(píng)論
2026-03-06 16:33:46
2:0!昆明又贏了!

2:0!昆明又贏了!

昆明信息港
2026-03-07 23:02:58
特朗普大禍臨頭!伊朗已公開放話,全球?qū)⒆兊酶靵y?

特朗普大禍臨頭!伊朗已公開放話,全球?qū)⒆兊酶靵y?

毛豆論道
2026-03-06 18:26:34
史詩級(jí)封殺!2000萬網(wǎng)紅“聽風(fēng)的蠶”徹底涼了

史詩級(jí)封殺!2000萬網(wǎng)紅“聽風(fēng)的蠶”徹底涼了

互聯(lián)網(wǎng)品牌官
2026-02-12 01:17:23
2026-03-07 23:27:00
AI前線 incentive-icons
AI前線
面向AI愛好者、開發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊。
1347文章數(shù) 133關(guān)注度
往期回顧 全部

科技要聞

OpenClaw爆火,六位"養(yǎng)蝦人"自述與AI共生

頭條要聞

日本求美國給個(gè)準(zhǔn)話 美方避而不談

頭條要聞

日本求美國給個(gè)準(zhǔn)話 美方避而不談

體育要聞

塔圖姆298天走完這段路 只用27分鐘征服這座城

娛樂要聞

汪小菲曝親媽猛料,張?zhí)m公開財(cái)產(chǎn)分配

財(cái)經(jīng)要聞

針對(duì)"不敢休、不讓休"怪圈 國家出手了

汽車要聞

逃離ICU,上汽通用“止血”企穩(wěn)

態(tài)度原創(chuàng)

旅游
健康
本地
公開課
軍事航空

旅游要聞

跟著天氣游山東|氣溫“狂飆”,山東的春天“鮮”到你了嗎?

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

本地新聞

食味印象|一口入魂!康樂烤肉串起千年絲路香

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美第三個(gè)航母打擊群據(jù)稱準(zhǔn)備部署至中東

無障礙瀏覽 進(jìn)入關(guān)懷版