国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

Ilya警告、LeCun冷嘲、奧特曼沉默:Scaling Law時(shí)代還能走多遠(yuǎn)?

0
分享至


新智元報(bào)道

編輯:定慧

【新智元導(dǎo)讀】過去10年,AI大模型的技術(shù)本質(zhì),是把電力能源通過計(jì)算過程轉(zhuǎn)化為可復(fù)用的智能。2026年,我們需要讓AI模型在單位時(shí)間內(nèi)「吃下」更多能源,并真正將其轉(zhuǎn)化為智能。

2026年的AI圈子,最怕什么?

從2022年底ChatGPT橫空出世以來,AI圈子里一直潛藏著一個(gè)「幽靈」。

從ChatGPT到驚艷世界的DeepSeek,再到2025年底的Gemini 3、GPT-5.2等,所有這些頂級(jí)模型背后都是這個(gè)幽靈。

他就是Scaling Law,但是令所有人焦慮的是:這個(gè)幽靈是否將要,還是已經(jīng)「撞墻」了?!

Scaling Law是否已經(jīng)失效?

大佬們的看法出現(xiàn)了前所未有的分歧。

Ilya Sutskever公開表示,單純堆砌預(yù)訓(xùn)練算力的時(shí)代正在進(jìn)入平臺(tái)期,智能的增長(zhǎng)需要轉(zhuǎn)向新的「研究時(shí)代」。


Yann LeCun則一如既往地毒舌,認(rèn)為當(dāng)前的大語言模型無論怎么Scaling都無法觸達(dá)真正的AGI。


即便是Sam Altman,也在公開場(chǎng)合含蓄地承認(rèn)過,僅僅靠更多的GPU已經(jīng)無法換回同比例的智能躍遷。


當(dāng)全行業(yè)都在為「數(shù)據(jù)枯竭」和「算力報(bào)酬遞減」頭疼時(shí),大家都在問:

算力還在漲,為什么智能的躍遷似乎變慢了?

最近在刷知乎時(shí),讀到了新加坡國(guó)立大學(xué)校長(zhǎng)青年教授、潞晨科技創(chuàng)始人尤洋(Yang You)的一篇深度長(zhǎng)文:《智能增長(zhǎng)的瓶頸》。(文末附有原文)

這篇文章的角度非常獨(dú)到,尤洋站在基礎(chǔ)設(shè)施與計(jì)算范式的底層,探討了一個(gè)更本質(zhì)和底層的問題:

算力是如何被轉(zhuǎn)化為智能的,以及這種轉(zhuǎn)化機(jī)制是否正在失效。

尤洋教授在文中給出了一個(gè)引人深思的觀點(diǎn):

過去10年,AI大模型的技術(shù)本質(zhì),是把電力能源通過計(jì)算過程轉(zhuǎn)化為可復(fù)用的智能。


文章系統(tǒng)性地梳理了過去十年大模型成功背后的「隱含假設(shè)」,并指出這些假設(shè)正在接近邊界。

一、智能從哪里來?

尤洋對(duì)「智能」的定義相當(dāng)通俗易懂,也就是模型的預(yù)測(cè)與創(chuàng)作能力

在此基礎(chǔ)上,他進(jìn)一步提出:

「過去10年,AI大模型的技術(shù)本質(zhì),是把電力能源通過計(jì)算過程轉(zhuǎn)化為可復(fù)用的智能?!?br/>

這與強(qiáng)化學(xué)習(xí)教父Richard S. Sutton分享的觀點(diǎn)類似。


在尤洋的敘述中,有三個(gè)關(guān)鍵共識(shí)被明確強(qiáng)調(diào):


  1. 預(yù)訓(xùn)練是智能的主要來源

    微調(diào)、強(qiáng)化學(xué)習(xí)等階段貢獻(xiàn)有限,根本原因并非算法無效,而是能源(算力)投入規(guī)模不在一個(gè)數(shù)量級(jí)。

  1. Next-Token Prediction是一個(gè)極其成功的Loss設(shè)計(jì)

    它最大化減少了人為干預(yù),給AI大模型提供了近乎無限的訓(xùn)練數(shù)據(jù)。

  1. Transformer的勝出,是因?yàn)門ransformer也是一臺(tái)并行計(jì)算機(jī)。

    Transformer并非「更像人腦」,而是更像GPU——高度并行、計(jì)算密集、通信可控。


正是這三點(diǎn)共同作用,使得從GPT-1、BERT、GPT-2、GPT-3,到ChatGPT與Gemini,大模型得以在十余年間持續(xù)放大算力投入,并將其穩(wěn)定轉(zhuǎn)化為可感知的智能提升。

尤洋也因此指出了真正的瓶頸所在。

二、真正的「瓶頸」在哪里?

在《智能增長(zhǎng)的瓶頸》中,尤洋重新界定了「瓶頸」的涵義,并明確區(qū)分了兩類經(jīng)常被混淆的進(jìn)展:


  • 效率提升

    用更少參數(shù)、更低算力,達(dá)到相同效果(如剪枝、蒸餾、低精度、Mamba等)。這類進(jìn)展對(duì)于工程落地和規(guī)?;渴鹬陵P(guān)重要,但并不直接決定智能的上限。

  • 智能上限提升

    在相同的浮點(diǎn)計(jì)算總量約束下,訓(xùn)練出能力更強(qiáng)、泛化性更好的模型。這才是決定智能是否能夠持續(xù)躍遷的關(guān)鍵指標(biāo)。


在尤洋看來,當(dāng)前遇到的并不是「算力不夠」,而是:

我們現(xiàn)在的范式無法充分利用持續(xù)增長(zhǎng)的算力。

換句話說,問題不在于GPU增長(zhǎng)放緩,而在于模型、Loss、優(yōu)化算法對(duì)算力的「消化能力」正在下降。

我們需要讓AI模型在單位時(shí)間內(nèi)「吃下」更多能源,并真正將其轉(zhuǎn)化為智能。這么來看:

大模型智能可能還有很大的發(fā)展空間,預(yù)訓(xùn)練才剛剛開始。

三、未來方向

不是「省算力」,而是「吃下更多算力」

文章對(duì)未來路徑的判斷,整體偏向高投入、強(qiáng)基礎(chǔ)設(shè)施導(dǎo)向。

簡(jiǎn)單地說,也就是如果不考慮成本,問題不是「如何更省」,而是「如何更有效地消耗更多算力」。

尤洋提出了幾個(gè)值得關(guān)注的方向:


  1. 更高數(shù)值精度

    當(dāng)前從FP16→FP32→FP64并未帶來明顯智能躍遷,但這可能是「未被充分探索」的方向,而非被證偽。

  2. 更高階優(yōu)化器

    從一階梯度方法轉(zhuǎn)向更高階優(yōu)化器,理論上可以提供更「聰明」的參數(shù)更新路徑,但高階優(yōu)化器的全面替代可能需要很長(zhǎng)的時(shí)間。

  3. 更具擴(kuò)展性的模型架構(gòu)或Loss函數(shù)

    不以吞吐或效率為目標(biāo),而以「在極限算力下能否訓(xùn)出更強(qiáng)模型」為標(biāo)準(zhǔn)。

  4. 更充分的訓(xùn)練和搜索

    包括Epoch、超參數(shù)、數(shù)據(jù)與參數(shù)匹配關(guān)系,而非簡(jiǎn)單「再多跑幾輪」。


值得注意的是,文章明確將推理優(yōu)化、低精度、蒸餾等技術(shù)劃歸為「落地層面」,并強(qiáng)調(diào)它們與「智能上限」是兩條不同的技術(shù)曲線。

結(jié)語

如果說過去十年AI的核心問題是「如何獲得更多算力」,那么接下來一個(gè)階段,問題可能變成:

我們是否真的知道,如何把這些算力變成智能。

《智能增長(zhǎng)的瓶頸》像是一份寫給從業(yè)者的技術(shù)備忘錄:當(dāng)算力仍在增長(zhǎng),但智能不再「自動(dòng)升級(jí)」時(shí),我們需要重新審視哪些變量才是真正決定上限的因素。

以下為《智能增長(zhǎng)的瓶頸》原文。

智能增長(zhǎng)的瓶頸

作者:尤洋,新加坡國(guó)立大學(xué)校長(zhǎng)青年教授,潞晨科技創(chuàng)始人。

2026年已至。

在ChatGPT誕生三年多后的今天,關(guān)于我們的智能水平是否令人滿意,以及未來是否還能強(qiáng)勁增長(zhǎng),筆者想分享一些個(gè)人的看法。如有謬誤,懇請(qǐng)大家指正。

為了能深入探討智能的本質(zhì),本文將不涉及產(chǎn)品易用性、成本等商業(yè)化或落地問題,因?yàn)檫@些本質(zhì)上與智能突破本身無關(guān)。


智能的現(xiàn)狀

什么是智能?

其實(shí)目前并沒有一個(gè)明確的定義。

從最近圖靈獎(jiǎng)得主Yann LeCun和諾貝爾獎(jiǎng)得主Demis Hassabis關(guān)于AGI的爭(zhēng)論中,我感受到即便是世界上最頂尖的專家也無法準(zhǔn)確定義智能。

個(gè)人感覺,AGI很難定義,其標(biāo)準(zhǔn)也會(huì)隨著時(shí)代的變化而變化。

我依然記得十幾年前,普通人對(duì)人臉識(shí)別技術(shù)感到不可思議。

如果把今天的ChatGPT拿到2006年,相信那時(shí)候的很多人會(huì)毫不懷疑地認(rèn)為我們已經(jīng)實(shí)現(xiàn)了AGI。

我覺得智能的核心是預(yù)測(cè)創(chuàng)作

我認(rèn)為如果達(dá)到以下這種狀態(tài),那么就離AGI不遠(yuǎn)了:


  • 如果你選擇接受哪個(gè)工作Offer,完全聽從AI的意見。

  • 如果你買足球彩票預(yù)測(cè)世界杯冠軍,完全聽從AI的意見。

  • 如果你有健康問題,會(huì)完全采用AI制定的方案去治療。

  • 你分辨不清楚一部奧斯卡最佳電影是否是由AI生成的。

  • 石油公司的勘探團(tuán)隊(duì)用AI替代了所有數(shù)值算法。

  • AI能指導(dǎo)初級(jí)高鐵工程師在5分鐘內(nèi)排除高鐵的疑難故障。

  • AI能研制出一款專殺癌細(xì)胞且不破壞好細(xì)胞的藥物。

  • AI能通過某區(qū)域的地下結(jié)構(gòu)數(shù)據(jù),精準(zhǔn)預(yù)測(cè)地震的時(shí)間。

  • 等等……


今天,我們顯然還沒實(shí)現(xiàn)這些。未來能否實(shí)現(xiàn),取決于我們能否克服智能發(fā)展的瓶頸。


智能發(fā)展的瓶頸

今天,我們經(jīng)常聽到一些關(guān)于智能發(fā)展遇到瓶頸,或者預(yù)訓(xùn)練紅利已盡的觀點(diǎn)。

何為瓶頸?我們先探討一下智能從何而來。

過去10年,AI大模型的技術(shù)本質(zhì),是把電力能源通過計(jì)算過程轉(zhuǎn)化為可復(fù)用的智能。

技術(shù)的好壞取決于這個(gè)轉(zhuǎn)化效率的高低。類似的表述,我也聽月之暗面的朋友提及過。

今天模型的智能本身,最主要還是來自預(yù)訓(xùn)練(往往是自監(jiān)督方法),僅有少量來自微調(diào)或強(qiáng)化學(xué)習(xí)。

為什么?先算一筆淺顯的經(jīng)濟(jì)賬:因?yàn)轭A(yù)訓(xùn)練消耗的算力最多,消耗的能源也最多。

當(dāng)然,預(yù)訓(xùn)練、微調(diào)、強(qiáng)化學(xué)習(xí)本質(zhì)上都是在計(jì)算梯度以更新參數(shù)。

如果有合適的海量數(shù)據(jù)和Loss函數(shù),未來在預(yù)訓(xùn)練階段采用SFT(監(jiān)督微調(diào))或特殊的強(qiáng)化學(xué)習(xí)方法也有可能。

從智能增長(zhǎng)的角度,我們甚至不用刻意區(qū)分預(yù)訓(xùn)練、SFT和強(qiáng)化學(xué)習(xí)。

它們的區(qū)別主要在于更新參數(shù)的次數(shù)與規(guī)模。從計(jì)算本質(zhì)上看:預(yù)訓(xùn)練、微調(diào)、強(qiáng)化學(xué)習(xí)(比如GRPO)都是在計(jì)算梯度的類似物,并用它來更新參數(shù)。

那么,能源從何而來呢?

這就是GPU或算力。英偉達(dá)在這點(diǎn)上做了最大的貢獻(xiàn)。

雖然英偉達(dá)有很多先進(jìn)的技術(shù),比如更強(qiáng)的Tensor Cores、Transformer Engine、互聯(lián)技術(shù)(NVLink/網(wǎng)絡(luò)化NVLink)、軟件棧等,但我先試圖用一句話說清楚英偉達(dá)過去幾年在技術(shù)上做的最重要的事情,即其GPU設(shè)計(jì)的核心思路。

簡(jiǎn)而言之,英偉達(dá)過去幾年最重要的路線是:在同樣的物理空間里堆更多HBM(高帶寬內(nèi)存)。

HBM雖然帶寬很高,但依然是計(jì)算核心之外的內(nèi)存(Off-chip from logic die),與計(jì)算核心存在不可忽略的物理距離。

為了掩蓋內(nèi)存訪問延遲,GPU只能依賴超大的Batch Size(批處理量)和大規(guī)模并行來處理數(shù)據(jù)。

英偉達(dá)GPU本質(zhì)上就是一臺(tái)并行計(jì)算機(jī)。

因此,英偉達(dá)對(duì)算法層和軟件層的要求非常明確:必須提供足夠大的Batch Size或并行度。

面對(duì)英偉達(dá)的要求,很多研究團(tuán)隊(duì)都提出了自己的方案。比如RNN、Transformer、卷積序列模型(CNN for Sequence)等等。甚至有人嘗試用SVM來處理大規(guī)模序列數(shù)據(jù)。

那為什么Transformer率先脫穎而出?

因?yàn)門ransformer也是一臺(tái)并行計(jì)算機(jī)。這里我引用一下Ilya Sutskever的一句話:

Transformers:parallel computers in disguise.

直白的意思是:Transformer本質(zhì)上是一個(gè)被神經(jīng)網(wǎng)絡(luò)外殼包裹起來的并行計(jì)算機(jī)。

這也是Transformer最先能夠顯現(xiàn)智能的核心原因,因?yàn)?strong>它的并行計(jì)算特性完美匹配了GPU的并行計(jì)算單元。


同時(shí),OpenAI完美地實(shí)現(xiàn)了Next-Token Prediction這個(gè)Loss函數(shù),它給了AI大模型近乎無限的訓(xùn)練數(shù)據(jù)。

理論上BERT的Loss函數(shù)(完形填空和Next Sentence Prediction)也可以提供近乎無限的數(shù)據(jù),但在實(shí)踐中,Next-Token Prediction的效果明顯更好。

我推測(cè),這個(gè)Loss函數(shù)最小化了人類的干預(yù)——它不是人為設(shè)計(jì)的,而是大自然在進(jìn)化過程中賦予人腦的邏輯。

并且,Next-Token Prediction其實(shí)是預(yù)測(cè)未來,而BERT的完形填空其實(shí)是把過去的信息和現(xiàn)在的信息串聯(lián)起來。

這就好比讓一個(gè)足球?qū)<腋鶕?jù)歷史數(shù)據(jù)和當(dāng)天的比賽結(jié)果去解釋合理性,幾乎所有專家都能做到;但是,如果讓專家去預(yù)測(cè)每一場(chǎng)比賽的精準(zhǔn)比分,他們會(huì)經(jīng)常出錯(cuò)。

這再次說明了,預(yù)測(cè)(Prediction)是智能的核心能力體現(xiàn),難度遠(yuǎn)高于解釋(Explanation)。

其實(shí)我挺佩服OpenAI團(tuán)隊(duì)能夠堅(jiān)持下來的勇氣。

2018年時(shí),BERT在媒體上的影響力幾乎完全碾壓了GPT,且當(dāng)時(shí)OpenAI的AI研發(fā)團(tuán)隊(duì)體量跟Google比起來微不足道。

很佩服他們沒有放棄Next-Token Prediction,也沒有轉(zhuǎn)向類BERT的訓(xùn)練方式。真理往往需要時(shí)間去檢驗(yàn)。

同時(shí),以Transformer為核心的方案收獲了「一箭雙雕」的雙重優(yōu)勢(shì):


  1. 模型的每層參數(shù)量越多,并行度就越高(Tensor Parallelism)。

    所以,只要通信代價(jià)不顯著增加,能同時(shí)利用的算力就越多。這點(diǎn)需要點(diǎn)贊行業(yè)領(lǐng)導(dǎo)者的先見之明。幾年前,我看到CNN時(shí)代有研究人員試圖把模型往深度發(fā)展,比如設(shè)想1000層的神經(jīng)網(wǎng)絡(luò)。其實(shí)非常深(層數(shù)非常多)的神經(jīng)網(wǎng)絡(luò)是不利于有效利用算力的,因?yàn)榱魉€并行提供的并行度上限不高。

  2. Transformer的不同Token可以同時(shí)計(jì)算。

    序列長(zhǎng)度越長(zhǎng),并行度就越高,只要通訊代價(jià)不顯著增加,能同時(shí)利用的算力就越多。Sequence Parallelism與Data Parallelism互補(bǔ),進(jìn)一步提供了更多的并行度。


就這樣,我們見證了GPT-1、BERT、GPT-2、GPT-3、ChatGPT、Gemini一步一步把智能提升到了今天的高度。

到這里,大家大概也清楚為什么AI模型的智能增長(zhǎng)會(huì)遇到瓶頸了——因?yàn)?strong>我們現(xiàn)在的范式無法充分消化持續(xù)增長(zhǎng)的算力。

假定一次模型訓(xùn)練和微調(diào)消耗的浮點(diǎn)數(shù)計(jì)算次數(shù)(即程序員面試中的計(jì)算復(fù)雜度的具體值)從10^n變成10^{n+3}時(shí),我們是否獲得了一個(gè)顯著更好的模型?

其實(shí),很多時(shí)候我們把「效率優(yōu)化技術(shù)」和「智能提升技術(shù)」混淆了。

比如,明天我提出一個(gè)新的架構(gòu),實(shí)驗(yàn)發(fā)現(xiàn)達(dá)到跟GPT-5類似的效果,只需要20%的參數(shù)量或計(jì)算量。

這其實(shí)更多是落地或商業(yè)化問題;智能的終極問題是:使用同樣的浮點(diǎn)數(shù)計(jì)算次數(shù)(而非Token量),能否獲得一個(gè)更好的模型。浮點(diǎn)數(shù)計(jì)算次數(shù),才是算力最基本、最本質(zhì)的計(jì)量單位。


未來的方法探討

首先從硬件層來看,我們需要持續(xù)產(chǎn)生更大的絕對(duì)算力,這不一定局限于單位芯片上的算力提升。

即便單位芯片上的算力沒有大幅度提升,我們通過集群的方式也能構(gòu)建更大的絕對(duì)算力。這里需要平衡的是:聚集芯片帶來的性能增長(zhǎng),要高于「芯片或服務(wù)器之間通信增長(zhǎng)帶來的負(fù)擔(dān)」。

所以,具體的硬指標(biāo)就是:增長(zhǎng)或至少維持住「計(jì)算開銷/通信開銷」這個(gè)比值。這是整個(gè)AI基礎(chǔ)設(shè)施層最核心的技術(shù)目標(biāo)。要想實(shí)現(xiàn)這個(gè)目標(biāo),我們需要擴(kuò)展性更好的并行計(jì)算技術(shù),無論是軟件還是硬件。

更上層的探索中,我們需要讓AI模型在單位時(shí)間內(nèi)「吃下」更多能源,并真正將其轉(zhuǎn)化為智能。

個(gè)人感覺大概有以下幾點(diǎn)方向:


  1. 更高精度的計(jì)算能力。

    今天,從FP16到FP32,甚至FP64,模型智能并未出現(xiàn)明顯躍升。這本身就是一個(gè)瓶頸。理論上,更高精度應(yīng)當(dāng)帶來更可靠的計(jì)算結(jié)果,這一點(diǎn)在傳統(tǒng)科學(xué)計(jì)算中早已得到驗(yàn)證。這個(gè)觀點(diǎn)可能與主流機(jī)器學(xué)習(xí)共識(shí)并不一致,而且真正發(fā)生可能需要很長(zhǎng)時(shí)間,但從本質(zhì)上看,智能仍然需要更精準(zhǔn)的計(jì)算。這與過擬合并無直接關(guān)系,過擬合的根源在于數(shù)據(jù)規(guī)模不足或參數(shù)與數(shù)據(jù)不匹配。

  2. 更高階的優(yōu)化器。

    Google的朋友告訴我,他們有時(shí)候已經(jīng)不用類Adam優(yōu)化器,而是用更高階的優(yōu)化器在訓(xùn)練模型。高階優(yōu)化器理論上能在學(xué)習(xí)過程中給模型更好的指導(dǎo),算出更好的梯度,這是模型智能提升的本質(zhì)。當(dāng)然,高階優(yōu)化器的全面替代可能需要很長(zhǎng)的時(shí)間。

  3. 擴(kuò)展性更好的模型架構(gòu)或Loss函數(shù)。

    我們?nèi)匀恍枰环N擴(kuò)展性更好的整合和利用算力的方式。這點(diǎn)我們需要注意:優(yōu)化效率不一定能提升智能。比如Mamba出來的時(shí)候,宣傳重點(diǎn)是吞吐量的提升,用更小的模型獲得同水平的智能。但是,本文關(guān)注的是:在最健全的AI基礎(chǔ)設(shè)施上,用最大的可接受成本,能否訓(xùn)出更好的模型,獲得更高的智能。比如,今天Google告訴你:預(yù)算300億美元,半年內(nèi)給我訓(xùn)出一個(gè)更好的模型,不考慮省錢問題,花10億和花100億沒區(qū)別。在這個(gè)場(chǎng)景下,你最終是否會(huì)用Mamba這樣的架構(gòu)?你是否需要設(shè)計(jì)更好的Loss函數(shù)?

  4. 更多的Epoch和更好的超參數(shù)

    迫于成本壓力,我們今天其實(shí)并沒有對(duì)AI模型進(jìn)行深度優(yōu)化,甚至沒有深度搜索超參數(shù)。這其實(shí)也是我之所以對(duì)AI模型的智能繼續(xù)增長(zhǎng)有信心的原因。我這里的意思不是直接訓(xùn)練更多的Epoch。明知無效卻生硬地跑更多Epoch其實(shí)是方法不對(duì)(比如參數(shù)量和數(shù)據(jù)量不匹配)。但是,根本上,更多的Epoch代表更多的浮點(diǎn)數(shù)、更多的能源。我們需要找到方法去「吃下」更多能源,并轉(zhuǎn)化出更高智能。


有些技術(shù)對(duì)大規(guī)模落地AI非常重要,比如低精度訓(xùn)練、剪枝、量化、蒸餾、PD分離等推理優(yōu)化技術(shù)。

但是,在一個(gè)「算力轉(zhuǎn)智能」極端有效的情況下,這些技術(shù)跟提升智能上限無關(guān)。

筆者對(duì)這些技術(shù)的貢獻(xiàn)者非常尊重,它們?cè)趯?shí)際落地中至關(guān)重要,只是與本文探討的主題無關(guān)。

智能增長(zhǎng)歸根到底還是算力利用問題。假定算力無限大,比如一個(gè)集群的算力達(dá)到今天的萬億倍,可能我們會(huì)發(fā)現(xiàn)更簡(jiǎn)單的模型結(jié)構(gòu)比Transformer和Next-Token Prediction的擴(kuò)展性更好。

從SVM到CNN、LSTM、BERT、GPT、MoE:我們始終在尋找能更高效利用算力且具備更好擴(kuò)展性的方法。

這個(gè)過程中,核心原因是問題的規(guī)模在不斷擴(kuò)大。

我們?cè)贏I時(shí)代到來之前便已實(shí)現(xiàn)天氣預(yù)報(bào),然而至今仍未能攻克地震預(yù)報(bào),盡管兩者本質(zhì)上都是針對(duì)地球數(shù)據(jù)的研究。

究其原因,地下結(jié)構(gòu)涉及比大氣更加錯(cuò)綜復(fù)雜、且變量規(guī)模呈指數(shù)級(jí)龐大的動(dòng)態(tài)多模態(tài)數(shù)據(jù)。

這種傳統(tǒng)計(jì)算模式難以駕馭的高維復(fù)雜性,恰恰是未來AI技術(shù)大有可為的機(jī)遇所在。

所以,我有信心我們未來會(huì)不斷找到更高效的算力使用方式。

雖然過程中可能會(huì)有很多困難和低潮,但大趨勢(shì)不可阻擋。

最后,借用Richard Sutton教授的一句話收尾:

人工智能70年的研究留給我們最大的經(jīng)驗(yàn)教訓(xùn)是,依托計(jì)算能力的通用方法才是最終的贏家,且具備壓倒性的優(yōu)勢(shì)。

https://zhuanlan.zhihu.com/p/1989100535295538013

秒追ASI

?點(diǎn)贊、轉(zhuǎn)發(fā)、在看一鍵三連?

點(diǎn)亮星標(biāo),鎖定新智元極速推送!


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
電詐“教父”陳志遣返中國(guó),美國(guó)扣押的12.7萬枚比特幣應(yīng)移交中國(guó)

電詐“教父”陳志遣返中國(guó),美國(guó)扣押的12.7萬枚比特幣應(yīng)移交中國(guó)

星空區(qū)塊鏈
2026-01-07 21:14:37
6金重壓下洗牌!王皓出局馬琳逆襲,王勵(lì)勤真的放權(quán)了?

6金重壓下洗牌!王皓出局馬琳逆襲,王勵(lì)勤真的放權(quán)了?

卿子書
2026-01-07 08:13:04
格陵蘭發(fā)達(dá)到什么水平?我去了才發(fā)現(xiàn),差距真的太大

格陵蘭發(fā)達(dá)到什么水平?我去了才發(fā)現(xiàn),差距真的太大

娛樂八卦木木子
2026-01-07 15:14:07
被曝有私生女!成人女星攜視頻實(shí)錘錫安,網(wǎng)友:他比哈登還重口

被曝有私生女!成人女星攜視頻實(shí)錘錫安,網(wǎng)友:他比哈登還重口

聽我說球
2026-01-08 08:47:49
不到48小時(shí),特朗普或下臺(tái),印度多500%關(guān)稅,美國(guó)又搶千萬石油

不到48小時(shí),特朗普或下臺(tái),印度多500%關(guān)稅,美國(guó)又搶千萬石油

藍(lán)色海邊
2026-01-08 07:10:37
高富帥吐槽哈登:他只要刷得分就行!我卻干臟活累活!

高富帥吐槽哈登:他只要刷得分就行!我卻干臟活累活!

氧氣是個(gè)地鐵
2026-01-08 11:09:03
王石大女兒近況曝光!比后媽還年長(zhǎng),45歲依然單身讓父親愁白頭

王石大女兒近況曝光!比后媽還年長(zhǎng),45歲依然單身讓父親愁白頭

代軍哥哥談娛樂
2026-01-07 14:23:12
“睡遍頂流”的司曉迪身份被扒,曾就讀淄博中學(xué)!畢業(yè)照很清純!

“睡遍頂流”的司曉迪身份被扒,曾就讀淄博中學(xué)!畢業(yè)照很清純!

娛樂團(tuán)長(zhǎng)
2026-01-05 16:23:19
醫(yī)生降薪這么嚴(yán)重的嗎?

醫(yī)生降薪這么嚴(yán)重的嗎?

挪威Talk
2026-01-07 12:41:38
中國(guó)焊死了工業(yè)化大門?真相很殘酷:不是中國(guó)卷,是游戲規(guī)則變了

中國(guó)焊死了工業(yè)化大門?真相很殘酷:不是中國(guó)卷,是游戲規(guī)則變了

遠(yuǎn)方風(fēng)林
2026-01-06 23:28:13
最高法審判管理辦公室:上網(wǎng)裁判文書隱去法官姓名和案號(hào),顯屬不當(dāng)

最高法審判管理辦公室:上網(wǎng)裁判文書隱去法官姓名和案號(hào),顯屬不當(dāng)

新京報(bào)
2026-01-08 07:12:13
美軍全世界第一,為什么美國(guó)沒有出現(xiàn)軍政府?

美軍全世界第一,為什么美國(guó)沒有出現(xiàn)軍政府?

忠于法紀(jì)
2026-01-07 17:56:34
雷軍曬2200Mpa超強(qiáng)鋼發(fā)明專利證書

雷軍曬2200Mpa超強(qiáng)鋼發(fā)明專利證書

IT之家
2026-01-07 20:41:50
烏軍2025年傷亡15萬人,川普“奪取格陵蘭島”聲東擊西

烏軍2025年傷亡15萬人,川普“奪取格陵蘭島”聲東擊西

史政先鋒
2026-01-07 21:59:13
新華社快訊:委內(nèi)瑞拉內(nèi)政部長(zhǎng)說,美方強(qiáng)行帶離總統(tǒng)馬杜羅的軍事行動(dòng)造成包括平民在內(nèi)的100人死亡

新華社快訊:委內(nèi)瑞拉內(nèi)政部長(zhǎng)說,美方強(qiáng)行帶離總統(tǒng)馬杜羅的軍事行動(dòng)造成包括平民在內(nèi)的100人死亡

新華社
2026-01-08 10:00:06
19年,一個(gè)父親倒在尋找失蹤女兒的路上|在場(chǎng)

19年,一個(gè)父親倒在尋找失蹤女兒的路上|在場(chǎng)

紅星新聞
2026-01-08 00:09:17
有種賺錢方式叫“信息差”網(wǎng)友:一年賺到了幾輩子都花不完的錢!

有種賺錢方式叫“信息差”網(wǎng)友:一年賺到了幾輩子都花不完的錢!

夜深愛雜談
2026-01-07 21:42:47
上頭??!太原足浴爆火,178元體驗(yàn)婚禮主題SPA,洞房玩法尺度太大

上頭啊!太原足浴爆火,178元體驗(yàn)婚禮主題SPA,洞房玩法尺度太大

火山詩話
2026-01-08 10:31:10
美威脅武力奪取格陵蘭島,丹麥回應(yīng):若遭入侵將“立即反擊”

美威脅武力奪取格陵蘭島,丹麥回應(yīng):若遭入侵將“立即反擊”

紅星新聞
2026-01-08 13:22:13
喬丹后首人,弗拉格總得分、籃板、助攻和搶斷均為隊(duì)內(nèi)最高

喬丹后首人,弗拉格總得分、籃板、助攻和搶斷均為隊(duì)內(nèi)最高

懂球帝
2026-01-08 10:57:22
2026-01-08 15:44:49
新智元 incentive-icons
新智元
AI產(chǎn)業(yè)主平臺(tái)領(lǐng)航智能+時(shí)代
14283文章數(shù) 66451關(guān)注度
往期回顧 全部

科技要聞

智譜拿下“全球大模型第一股”,憑什么

頭條要聞

中方被指正考慮進(jìn)一步收緊中重稀土出口 日本業(yè)界慌了

頭條要聞

中方被指正考慮進(jìn)一步收緊中重稀土出口 日本業(yè)界慌了

體育要聞

約基奇倒下后,一位故人邪魅一笑

娛樂要聞

2026春節(jié)檔將有六部電影強(qiáng)勢(shì)上映

財(cái)經(jīng)要聞

微軟CTO韋青:未來人類會(huì)花錢"戒手機(jī)"

汽車要聞

從量變到"智"變 吉利在CES打出了五張牌

態(tài)度原創(chuàng)

教育
家居
手機(jī)
時(shí)尚
本地

教育要聞

中考數(shù)學(xué),求陰影面積?

家居要聞

理性主義 冷調(diào)自由居所

手機(jī)要聞

華為Pura X2曝光:翻書式橫向折疊,外屏尺寸增大

藍(lán)色+灰色、紅色+棕色,這4組配色怎么搭都好看!

本地新聞

1986-2026,一通電話的時(shí)空旅程

無障礙瀏覽 進(jìn)入關(guān)懷版