国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網易首頁 > 網易號 > 正文 申請入駐

知名記者爆錘OpenAI,奧特曼下場反擊,《AI帝國》作者揭露內幕

0
分享至

編輯|重點君



近日,《AI帝國》作者郝珂靈與播客主持人Steven Bartlett進行了一場深度對話。

郝珂靈畢業(yè)于麻省理工學院機械工程專業(yè),對硅谷進行了長達八年的追蹤報道,以局內人視角剖析了AI產業(yè)背后的權力邏輯與利益格局。其新作《AI帝國:薩姆·奧特曼與OpenAI的夢想與噩夢》基于對250多位行業(yè)內部人士的深度訪談(其中包括近百名OpenAI前雇員),是目前為止對AI產業(yè)內幕記錄最系統(tǒng)的著作之一。這本書在全球范圍內引發(fā)關于AI產業(yè)擴張模式的廣泛討論,連Sam Altman本人也專門發(fā)文回應。

在這場對談中,郝珂靈提出了一個與行業(yè)主流敘事相悖的核心判斷:硅谷頭部AI公司正在復制古典帝國的擴張路徑,通過AGI末日論與解放人類的雙軌敘事制造恐慌,將技術的開發(fā)權與監(jiān)管權鎖定在少數精英手中,同時對全社會的數據資源、勞動力與基礎設施進行不受約束的攫取。

以下是這場對談的核心內容:

1. AGI末日論與烏托邦并存,本質是一種商業(yè)控制策略

大眾往往被硅谷科技巨頭們描繪的未來所震懾:AI要么解決氣候變化和攻克癌癥,要么毀滅全人類。郝珂靈認為,這套極端的雙軌敘事,是AI巨頭們刻意設計的話語策略。

渲染技術災難,核心目的并非向公眾示警,而是將AI的開發(fā)權與監(jiān)管權順理成章地集中到少數人手里??只胖圃炝艘惶鬃郧⒌倪壿嫞哼@項技術太危險,只有硅谷頭部大廠才有能力駕馭它。巨頭們同時通過不斷重新定義AGI的邊界,在規(guī)避外部監(jiān)管的同時,持續(xù)吸納大規(guī)模資本。

2. AI不會解放勞動力,而是會折斷中產階級的職業(yè)階梯

行業(yè)通行的敘事是:AI會淘汰低效工作,并創(chuàng)造我們難以想象的新崗位。但落到實處,這些新崗位正在制造一個龐大的底層勞工群體。

郝珂靈認為,裁員潮席卷之下,許多高學歷白領、創(chuàng)意工作者乃至行業(yè)專家,最終進入數據標注行業(yè)維持生計。這類工作高度機械化、薪酬低廉,把人的專業(yè)經驗壓縮成流水線上的廉價投入。更諷刺的是,這些前專業(yè)人士正在親手訓練那些替代自身崗位的模型。職場的中間層就這樣被掏空——極少數高薪技術崗位在頂端,大量低階執(zhí)行性工作在底端,中間的晉升臺階正在消失。

3. 龐大的算力競賽, 正在擠占脆弱社區(qū)的基本生存資源

AI智能建立在極其沉重的能源消耗之上。隨著Scaling Law規(guī)模定律持續(xù)推進,硅谷巨頭們在全球瘋狂圈地,建立耗電量堪比整座城市的超大型數據中心。

選址上,硅谷科技大廠傾向于議價能力弱、阻力更小的邊緣社區(qū)。這些設施嚴重擠占當地居民的飲用水和電力,為維持算力運轉而啟用的化石燃料發(fā)電廠,更向周邊社區(qū)持續(xù)排放污染物。發(fā)布會上的技術愿景,背后是被轉嫁給弱勢群體的環(huán)境成本與健康代價。

4.Sam Altman是下一個喬布斯,還是一個頂級操縱者?

郝珂靈采訪了超過300人后發(fā)現,人們對Altman的評價比她報道過的任何科技人物都更極端,要么認為他是喬布斯級別的新一代領袖,要么認為他是極具操縱性的騙子。而這種分歧只取決于一件事:你是否認同他對未來的愿景。

更耐人尋味的是,那些與他共事最深、最了解他的人,恰恰是最終與他決裂的人:聯合創(chuàng)始人Ilya、CTO Mira Murati先后主導或參與了將他踢出局的行動,隨后相繼離開OpenAI。Dario Amodei、Elon Musk等人在與他合作后也各自出走,分別創(chuàng)立了競爭對手公司。郝珂靈的觀察是:他們每個人都想按照自己的形象來塑造AI,而與Altman共事的結果,是讓他們意識到這件事不能交給別人來做。

5.我們需要更多解決具體問題的自行車,而非不斷造火箭

如果任由大模型這條高耗能路徑野蠻擴張,整個社會的資源分配將面臨嚴峻考驗。郝珂靈認為需要重估AI技術的發(fā)展路線本身。

大語言模型如同火箭,消耗海量資源,只為解決泛化問題;社會真正需要的,是更多像AlphaFold那樣的自行車,以精選的小規(guī)模數據,用極低能耗,在醫(yī)藥、材料等垂直領域創(chuàng)造切實的社會效益。AlphaFold用于蛋白質折疊預測,已獲諾貝爾獎。對于創(chuàng)業(yè)者而言,盲目追逐"像人一樣思考"的通用大模型,是一場資源消耗的無底洞?;貧w技術解決具體問題,才能走出硅谷大廠壟斷陰影。



以下是郝珂靈訪談實錄:

1.AI帝國的神話構建

主持人:現在讓我們正式開始今天的節(jié)目。郝珂靈,你寫了擺在我面前的這本書,書名叫做《Sam Altman的夢想與夢魘》(Dreams and Nightmares in Sam Altman’s OpenAI)。我想問的第一個問題是,為了撰寫我們今天要討論的這本書及相關主題,你經歷了怎樣的研究過程和心路歷程?

郝珂靈:我進入新聞界的道路比較奇特。我曾就讀于麻省理工學院學習機械工程,畢業(yè)后搬到了舊金山,加入了一家科技初創(chuàng)公司。我成為了硅谷的一員,并在那里接受了關于硅谷究竟是什么的洗禮。當時我加入了一家非常有使命感的初創(chuàng)公司,專注于開發(fā)應對氣候變化的技術。然而幾個月后,董事會卻因為公司不盈利而解雇了CEO?,F在回想起來,那對我來說是一個非常關鍵的轉折點。

我當時就在想,如果這個創(chuàng)新中心最終只是為了開發(fā)盈利性技術而設計,而世界上許多亟待解決的問題(比如氣候變化)根本無法帶來利潤,那我們現在到底在做些什么?我們是如何發(fā)展到如今這個地步的:創(chuàng)新不一定是為了公眾利益,甚至有時為了追求利潤而損害公眾利益。在那一刻我經歷了一場小小的職業(yè)危機。我覺得自己花了四年時間為這份職業(yè)做準備,現在卻發(fā)現并不適合它。

于是我決定嘗試一些完全不同的事情。我一直很喜歡寫作,兩年后我在《麻省理工科技評論》獲得了一份全職報道AI的職位。這份工作給了我探索這些問題的空間:誰有權決定我們開發(fā)什么樣的技術?金錢和意識形態(tài)是如何驅動這些技術誕生的?我們最終如何才能真正重新構想創(chuàng)新生態(tài)系統(tǒng)從而造福全球民眾?這就是我決定寫這本書的初衷。雖然當時我并沒有意識到自己正在為寫書做準備,但實際上從2018年接受那份工作開始,我就已經踏上了調研書中故事的旅程。

主持人:現在確實是投身人工智能領域的絕佳時機。對于那些還不了解背景的人來說,你剛入行那會兒還在OpenAI成立之前,而后來ChatGPT的發(fā)布震驚了世界。在撰寫這本書的過程中,你采訪了很多人,去了很多地方。你能大概介紹一下你采訪了多少人、去了世界上的哪些地方嗎?

郝珂靈:我進行了300多場訪談,采訪了250多人,其中90多人是OpenAI的前任或現任員工及高管。因此這本書涵蓋了OpenAI第一個十年的內幕故事,以及它是如何走到今天這一步的。但我并不想僅僅寫一本企業(yè)傳記。我強烈地感覺到,為了幫助人們理解AI行業(yè)的影響,我們必須走出硅谷。這些公司總是宣揚AI將造福全人類,這也是他們的口頭使命。但當你去到那些與硅谷截然不同的地方時,這種辭令就開始崩塌。那些地方的語言與硅谷完全不同,歷史和文化也存在著本質上的差異。正是從那些地方開始,你才能真正看清這個行業(yè)在我們周圍擴張的真實面貌。

主持人:郝珂靈,通常我會嘗試主導對話,但在今天這種情況下,我覺得跟隨你的思路走或許是更好的選擇??紤]到這一點,我想問你,這段旅程應該從哪里開始?如果我們討論該書的主題,應該從哪里切入?是從泛指的AI和人工智能開始嗎?另外我想強調一點,這也是在各種對談中經常被遺漏的,那就是讓我們假設目前的觀眾對AI一無所知。我們要假設他們不知道什么是Scaling Laws、GPU或算力之類的概念,盡量用最通俗易懂的語言來探討,或者將復雜的術語解釋清楚,讓盡可能多的人能夠聽懂。

郝珂靈:好的,我認為應該從AI作為一個學科誕生時講起。追溯到1956年,一群科學家聚集在達特茅斯學院開創(chuàng)了一個新學科。這門科學學科懷揣著一種雄心壯志。具體來說,達特茅斯學院的一位助理教授John McCarthy決定將這門學科命名為人工智能。這并不是他最初構想的名字。前一年他曾嘗試將其命名為自動機研究,但他的某些同事對這個名稱感到擔憂,因為它將這門學科的理念局限在了重塑人類智能上。在當時以及現在,關于什么是人類智能,科學界并沒有達成共識。心理學、生物學和神經學等領域都沒有給出明確的定義。

事實上,歷史上每一次試圖量化和劃分人類智能等級的嘗試,背后都是由邪惡的動機驅動的。這種行為往往是為了通過科學去證明某些群體天生劣于其他群體。AI領域缺乏明確的準則,當整個行業(yè)聲稱他們最終目標是重建與人類一樣智能的AI系統(tǒng)時,并沒有任何衡量標準。我們甚至不知道該如何定義這個目標,如果不知道終點是什么,又怎么知道何時才能抵達呢?

這實際上意味著這些公司可以隨意使用通用人工智能(AGI)這個術語。AGI正是現在用來指代重現人類智能這一宏大目標的詞匯。他們可以隨心所欲地使用它,并根據自身利益進行定義和重新定義。

在OpenAI的發(fā)展史上,AGI的定義就被反復修改過。當Sam Altman在國會作證時,AGI是一個能夠治愈癌癥、解決氣候變化、消除貧困的系統(tǒng)。當他向消費者推銷產品時,AGI則是你能擁有的最神奇的數字助手。當他與Microsoft談判投資協議時,AGI被定義為一個能產生1000億美元收入的系統(tǒng)。而在OpenAI自己的官方網站上,AGI被定義為在大多數具有經濟價值的工作中超越人類的高度自治系統(tǒng)。這根本不是一個關于單一技術的連貫愿景。這些截然不同的定義完全是針對特定受眾拋出的噱頭,目的是動員大眾抵制監(jiān)管,或者吸引更多消費者買單。該行業(yè)之所以這么做,只是為了獲取更多資本和資源以繼續(xù)這場定義模糊的技術狂飆。

主持人:談到隨時間演變的不同定義,2015年OpenAI正式宣布成立之前,Sam Altman在一篇博客文章中明確概述了生存風險。他寫道,開發(fā)出超越人類水平的機器智能,可能是人類持續(xù)生存面臨的最大威脅;雖然他認為像人造病毒等其他威脅肯定會發(fā)生,但AI可能是最容易毀滅一切的方式。

郝珂靈:通常當Altman面向公眾寫作或演講時,他心目中的受眾絕不僅限于普通公眾。在那個特定的時刻,他其實是試圖說服Elon Musk與他共同創(chuàng)立OpenAI。因為當時的Musk正全身心地對AI可能帶來的巨大生存威脅發(fā)出警告。如果你去讀那篇博文,會發(fā)現Altman使用的語言與Musk當時的話術如出一轍,完全反映了Musk的觀點。

主持人:完全一致。確實,十年前Musk就在播客、推文以及各種公開言論中表示,人類面臨的最大生存風險就是AI。

郝珂靈:沒錯,所以你看他在博文的括號里還提到了其他可能發(fā)生的事情,比如人造病毒。這是因為在那之前,Altman一直談論的都是人造病毒。而為了拉攏Musk這個關鍵人物,他需要轉變話術來迎合對方。對于Altman來說,他需要化解一個矛盾,即他現在為了迎合Musk而提出的新核心恐懼與他之前的言論完全相悖。所以他才會巧妙地加上那句“我認為現在是這樣,盡管以前我曾說那是人造病毒”。

主持人:你的意思是Sam Altman操縱了Musk嗎?因為Elon Musk最終確實捐贈了巨額資金給OpenAI,并且是聯合創(chuàng)始人。

郝珂靈:Elon Musk最終確實與Altman共同創(chuàng)立了OpenAI。當然從Musk的角度來看,他確實感覺被操縱了。他認為Altman在溝通時刻意迎合他,以此騙取他的信任并讓Musk將其視為這項事業(yè)的合伙人。不過后來Musk還是離開了OpenAI。通過Musk和Altman目前正在進行的訴訟中披露的文件可以看出,Musk在某種程度上實際上是被排擠出去的。這就是為什么他對Altman懷有如此強烈的個人恩怨,并聲稱Altman用欺騙的手段將他卷入了這一切。

主持人:所以在2015年,Sam Altman通過博客宣稱AI是人類最大的生存威脅之一。與此同時Musk也在發(fā)表著名的演講,比如在麻省理工學院稱AI是最大的生存威脅,甚至將開發(fā)AI比作召喚惡魔。而你剛才的觀點是,Sam Altman只是在模仿Elon Musk的語言,目的是拉攏他加入OpenAI。后續(xù)的發(fā)展也印證了這一點,目前的訴訟顯示Sam Altman可能在某種程度上將Elon Musk排擠出局了。

郝珂靈:從訴訟及披露的文件得知,當時的OpenAI首席科學家Ilya Sutskever和首席技術官Greg Brockman決定成立營利實體時,面臨著由Musk還是Altman擔任CEO的問題。起初,他們選擇了Musk。但我通過報道發(fā)現,Altman私下懇求了相識多年的好友Greg Brockman,指出讓Musk這位備受矚目且不可預測的名人擔任這家未來可能擁有超強力量的公司的CEO存在危險。這番話不僅說服了Greg,也讓Greg隨后說服了Ilya。最終他們改變了立場,希望Altman擔任CEO,而Musk則以不當CEO就退出為由離開了。



2.Sam Altman的爭議形象與高層動蕩內幕

主持人:聽起來Sam再次成功說服了別人。這引出了一個問題,你如何評價Sam Altman?

郝珂靈:我認為他是一個非常有爭議的人物。

主持人:你剛才的停頓很有意思,那是試圖字斟句酌時才有的停頓。

郝珂靈:采訪中最有趣的一點是,人們對Altman的評價極其兩極分化,要么認為他是堪比Steve Jobs的新一代偉大科技領袖,要么覺得他是一個極具操縱性的騙子。我采訪了很多人后意識到,這完全取決于你是否認同他對未來的愿景。如果你認同,你會覺得他非常有說服力,擅長講故事,在調動資本和招攬人才方面表現卓越,是你身邊最了不起的財富。但如果你不認同,你就會覺得自己在被他操縱去支持他的愿景。

Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以為Altman與自己志同道合,但后來漸漸發(fā)現兩人的想法背道而馳,并感覺Altman是在利用他的才智和技術去實現一個他根本不認同的未來愿景,因此心生反感。我報道科技行業(yè)超過八年,報道過Meta、Google和Microsoft等眾多公司,但在OpenAI和Altman身上,我看到了前所未有的兩極分化,人們甚至無法斷定他究竟是絕世天才還是極惡之徒。

主持人:你剛才提到了Dario,我發(fā)現真正有趣的是觀察人們的言論如何隨利益動機變化而演變。我查看了他們所有的公開言論,包括播客和博客文章。Dario曾是OpenAI的研究副總裁,后來去了Anthropic,他們在開發(fā)AI上采取了略有不同的方法。早在2017年他還在OpenAI時曾說過,最極端的情況是對AGI毀滅人類的恐懼,從原則上看并非不可能發(fā)生,發(fā)生人類文明級災難的概率可能在10%到25%之間。你還提到了離開的OpenAI聯合創(chuàng)始人Ilya,我想問的第一個問題是,Ilya為什么要離開?

郝珂靈:這是一個非常好的問題。Ilya在試圖解雇Sam Altman的過程中起到了關鍵作用。隨著時間推移,他也漸漸覺得自己被Altman操縱去貢獻他不認同的東西。

主持人:你是怎么知道的?

郝珂靈:因為我采訪了很多人。Ilya深切關注兩大支柱:一是確保實現AGI,二是確保安全實現它。他認為Altman正在積極破壞這兩件事,在公司內部制造混亂的環(huán)境,讓不同團隊互相競爭,對不同的人說不同的話。

主持人:你和他談過嗎?

郝珂靈:我曾在2019年為撰寫OpenAI人物專訪采訪過他。

主持人:當時他說過一段話:“無論如何,AI的未來會很美好。如果對人類也美好那就太好了。這并不是說它會主動憎恨或傷害人類,而是它會變得極其強大。就像人類對待動物那樣,我們并不是因為討厭動物才修高速公路,只是因為修路對我們很重要,所以我們不會去征求動物的許可。默認情況下,這就是未來我們與AI的關系,它們將真正自主并代表自身利益運行。”

郝珂靈:我覺得我們應該退一步思考:究竟什么是人工智能?我們所說的智能又是指什么?這很大程度上源于個人對“智能”的特定信念。在Ilya的整個研究生涯中,他和他的導師Geoffrey Hinton一直假設我們的大腦歸根結底是巨大的統(tǒng)計模型。基于這種假設,他們堅信構建基于統(tǒng)計模型的AI系統(tǒng)最終會帶來像人類一樣甚至超越人類的智能系統(tǒng)。

Ilya曾在一個AI研究會議上展示過一張圖表,顯示大腦容量與物種智力大致呈正相關。對他而言,既然大腦只是統(tǒng)計引擎,那么只要構建一個比人腦更大的統(tǒng)計引擎,它就會變得更加智能,屆時我們將遭受與動物相同的待遇。但必須明白,這只是AI研究社區(qū)內特定個體的科學假設,關于它是否屬實存在很大爭議,主要的批評者認為將大腦簡單視為統(tǒng)計引擎是非常片面的。

主持人:為什么了解其機制如此重要?難道僅僅了解結果還不夠嗎?比如它能為我制作視頻,或者智能體能夠完成我的工作。了解其背后的機制對我們來說真的那么重要嗎?

郝珂靈:既重要也不重要。重要是因為這些公司正基于這一假設來采取行動。他們認定追求AGI需要不斷構建越來越大的統(tǒng)計模型,這帶來了全球性的后果:他們瘋狂搜刮數據、建設數據中心,甚至剝削勞動力。

我認為有一個關鍵問題需要反思:我們?yōu)槭裁匆嫿ㄌ娲祟惖腁I系統(tǒng)?當下的對話似乎默認了AI行業(yè)的前提就是好的,他們說該構建AGI,我們就跟著附和??v觀歷史,技術的初衷始終是為了增進人類福祉,而不是取代人類。我對這些公司和科學家的核心批判就在于此:他們全盤接受了這個目標,并利用巨額資本和龐大資源不懈追求。這真的是正確的目標嗎?為什么我們不能只構建那些能加速藥物研發(fā)、改善醫(yī)療成果的AI系統(tǒng)呢?那些系統(tǒng)與他們試圖復制人類大腦的統(tǒng)計引擎完全是兩回事。

主持人:那么他們?yōu)槭裁匆@么做?你采訪了大約300人,其中有八九十人來自OpenAI。你認為他們執(zhí)意如此的原因是什么?

郝珂靈:我認為是因為他們受一種帝國議程的驅動,所以我稱這些公司為AI帝國。

3.AI帝國議程設置

主持人:你所說的“帝國議程”具體是什么意思?

郝珂靈:“帝國”是我發(fā)現唯一能完全概括這些公司運作規(guī)模及背后動機的詞匯。當下的AI帝國與舊時代帝國有諸多相似之處:

首先,為了訓練模型并建立超級計算設施,他們大肆圈地,侵占屬于個人的數據以及創(chuàng)作者的知識產權;其次,他們在全球雇傭了數十萬名工人來制造這些技術,卻將工具設計為以勞動力自動化為導向,這種政治選擇嚴重侵蝕了勞工權利;最后,他們壟斷了知識生產,對外制造出只有他們才真正懂AI的假象。如果公眾不喜歡,他們就歸咎于公眾了解不夠。他們不僅以此對付公眾和政策制定者,還收買了絕大多數研究AI局限性和能力的科學家。

主持人:你認為他們在某種程度上是在對公眾進行情感操縱嗎?

郝珂靈:沒錯。試想一下,如果全球大多數氣候科學家都由化石燃料公司資助,我們還能了解氣候危機的真相嗎?同理,AI行業(yè)雇傭并資助了世界上大多數AI研究人員,通過將資金注入他們優(yōu)先考慮的項目來柔性設定研究議程。當研究人員的發(fā)現不利于他們時,他們就會進行審查。

我在書中提到過Google倫理AI團隊前共同負責人Timnit Gebru博士的案例。她被雇傭的初衷是對Google的AI系統(tǒng)提出批評,但當她合作撰寫了一篇揭示大語言模型如何導致有害后果的論文后,Google為了阻止論文發(fā)表,不僅解雇了她,還解雇了另一位共同負責人Margaret Mitchell。這就是他們控制并壓制不利于帝國議程研究的手段。

主持人:這種情況是否也發(fā)生在了向他們提問的記者身上?我曾看過你的一個視頻,里面有個年輕人提到,某家大型AI公司的人直接敲開他家的門,索要電子郵件和短信等信息。

郝珂靈:確實如此。OpenAI曾傳喚部分批評者,這既像是一場恐嚇,也像是一場旨在摸清批評者網絡的“釣魚”行動。那是一個經營小型非營利監(jiān)督機構的年輕人。在OpenAI嘗試從非營利組織向營利性企業(yè)轉型的關鍵時期,許多像Mitos這樣的公民社會團體試圖阻止這一過程暗箱操作,爭取更高的透明度并引發(fā)公眾辯論。就在那時,有人敲開了他的門,遞交了法律文件。這些文件要求他提供所有與馬斯克可能涉及的溝通記錄。這反映了OpenAI一種奇怪的偏執(zhí),他們認定馬斯克在資助這些人阻撓公司轉型。但實際上,他們中沒有任何人受馬斯克資助。所以面對這個請求,他只能無奈地表示自己拿不出任何文件,因為這些溝通根本就不存在。

主持人:你剛才提到,帝國的特征之一是土地掠奪,接下來的一個是勞動力剝削,第三點是控制知識生產。

郝珂靈:關于這些AI帝國,另一個非常重要且需要理解的特點是,它們總是擁有一種敘事方式。它們對公眾宣稱:“我們是正義的帝國。首先我們需要成為一個帝國,因為世界上還存在著邪惡的帝國。如果你們允許我們獲取所有資源并使用所有勞動力,我們承諾將為每個人帶來進步與現代化,帶大家進入類似于AI天堂的烏托邦狀態(tài)。但如果邪惡帝國搶先一步,我們將墜入地獄。”

主持人:那么這里的邪惡帝國是指?

郝珂靈:實際上在早期,OpenAI曾將Google視為邪惡帝國。所以他們所有的決策都圍繞著:“我們必須搶先一步,否則Google這家受利潤驅動的邪惡公司就會勝出,而我們是一家仁慈的非營利組織?!彼麄冋J為這是一場關乎誰能勝出的關鍵競爭。

主持人:你認為那些建立這些AI公司的人,真的相信結果會造福每個人、開啟一個富足的時代嗎?你覺得他們到底相信什么?或者說,你認為Sam Altman真正相信的是什么?

郝珂靈:這太有意思了。他們圍繞AI行業(yè)構建的神話中,有一個核心部分就是他們相信事情可能會變得非常糟糕,這兩者是相輔相成的。他們需要這部分神話來為自己辯護:“這就是為什么我們需要掌控這項技術,因為這是確保它順利發(fā)展的唯一途徑?!?/strong>

Altman曾公開表示,最壞的情況是所有人都玩完,但最好的情況是我們治愈了癌癥、解決氣候變化并迎來物質極大豐富。Dario Amodei也是同樣的辭令,聲稱最壞的情況是對人類造成生存性傷害,最好的情況是實現人類的大規(guī)模繁榮。這如同硬幣的兩面,他們必須同時利用這兩種敘事,為一種極其反民主的AI開發(fā)方式持續(xù)辯護,主張這種技術的開發(fā)不應有廣泛參與,他們必須在每一步都將其牢牢掌控。



主持人:Sam Altman發(fā)了一條推文說:“有幾本關于OpenAI和我的書即將出版。我們只參與了其中的兩本。沒有哪本書能做到事事準確,尤其是當某些人執(zhí)意要歪曲事實的時候,但這兩位作者確實在努力嘗試?!蹦戕D推了那條推文并寫道:“那本未點名的書正是我的作品。”你認為Sam Altman那條推文是指向你的書嗎?

郝珂靈:100%確定,因為目前只有三本關于他的書即將出版。他知道我的書要出版,因為我從創(chuàng)作伊始就聯系了OpenAI詢問他們是否愿意參與,事實上他們最初也答應了。我與OpenAI的淵源在于,2019年我曾為MIT Technology Review撰寫過該公司的深度報道,在他們辦公室進行了為期三天的嵌入式采訪。

我的人物專訪在2020年發(fā)布后,領導層對此非常不滿。在我的書中,我實際引用了一封Sam Altman發(fā)給全公司的郵件,他在信中明確表示那篇報道不太妙。從那時起,公司對我的態(tài)度就是拒絕參與我做的任何事情,不回應任何采訪請求。整整三年時間,他們都拒絕和我交談。后來我去了Wall Street Journal,因為是頂級大報,他們感到有些被迫重新開啟溝通渠道。每當我寫完文章發(fā)給他們請求評論或采訪時,我們確實建立了一種更具建設性的關系。

后來我離職全職寫這本書,立刻告訴他們希望繼續(xù)這種建設性對話,以確保書中能準確反映OpenAI的觀點。他們答應安排采訪,但在我們反復溝通安排日程時,董事會解雇了Sam Altman。從那時起情況開始惡化,公司對外界的審視變得非常敏感,開始采取拖延戰(zhàn)術。我一直追問重新安排面試的事情,結果收到郵件說他們根本不打算參與了。當時我已經訂好了飛往舊金山的機票,我告訴他們沒關系,我依然會按照流程發(fā)送詳盡的置評請求。我發(fā)了40頁的置評請求,給了一個多月的時間讓他們回應。就在我們反復交涉時,Altman發(fā)布了那條推文。他們從未對那40頁中的任何一頁做出過回應。

主持人:Sam Altman上過每一個播客,從Tucker Carlson到Theo Von、Joe Rogan等世界各地的節(jié)目。我在想他為什么不接受我的采訪。我覺得我對每個人都很公平,只問我真正關心的問題,不會帶著很深的成見進來,也不會讓任何人難堪,即使我有不同的意見也是如此。回到你之前提到的關于OpenAI和這些公司控制研究的方式,你問過他們是否對記者也這樣做。顯然他們對任何擁有廣大大眾傳播平臺的人都會這么做。這不僅關乎你與他們的對話,還關乎你選擇讓誰登上你的平臺。

郝珂靈:確實如此,而且我認為普通大眾并沒有真正理解這一點。科技新聞領域存在一個巨大的問題:公司深知他們能給科技記者的一個巨大誘餌就是準入權。一旦他們察覺到你在和他們不希望你接觸的人交談,他們會毫不猶豫地撤回這種準入權。

主持人:AI領域有一個特定的團隊,基本上用準入權作為誘餌吊了我們大約18個月。我的態(tài)度是無論有沒有好處,我想跟誰談就跟誰談。如果有機會交流,我會帶著強烈的好奇心請教他們的工作和動機。但他們的全部策略就是永遠在前面掛著一根胡蘿卜,認為只要用資源誘惑,記者就會表現得客客氣氣,不會提出批評,也不會為批評者提供平臺。

郝珂靈:這是他們運作機制中非常重要的一部分,利用這些策略來粉飾公司的公眾形象,并確保不利的信息和觀點不會流傳出去。我現在非常慶幸OpenAI很早就對我關上了大門。當時我并不覺得這是一種幸運,甚至覺得自己把事情搞砸了,反思我是不是應該在人物專訪里對他們更客氣一點,好讓自己能維持獲取信息的渠道。但作為一名記者,產生這種想法簡直是種恥辱。記者應該報道事實,并且始終為了公眾利益進行報道。那扇正門永遠不會對我敞開,這反而極大地增強了我實話實說的能力。無論公司喜歡與否,我只客觀匯報呈現在我面前的事實。他們不需要為我敞開大門,我依然完成了300多場采訪。

主持人:Sam Altman被踢出了OpenAI的執(zhí)行團隊,你查清楚那是為什么了嗎?消息來源是誰?

郝珂靈:是的,我還原了當時的場景。大約有六到七個人直接參與了決策過程,或者曾與直接參與決策的人交談過。當時Ilya Sutskever看到Altman的行為正導致公司研究成果不佳以及決策失誤,于是他去找了獨立董事Helen Toner傾訴。由于擔心被Altman發(fā)現會面臨嚴重后果,Ilya在第一次見面時含糊其辭,試圖摸清情況并判斷對方是否值得信任。確認之后,Ilya主動與Helen交流,了解她是否也觀察到了Altman對公司產生的負面影響。隨后,首席技術官Mira Murati與部分董事會成員也進行了溝通。

這兩位高管通過匯總的電子郵件、Slack消息等文件資料,向三位獨立董事傳達了對Altman領導能力的深切擔憂,指出他給公司制造了太多的不穩(wěn)定性,挑撥團隊互相競爭,破壞了員工之間的信任,導致大家無法為這項重要技術進行有效協作。

主持人:你提到“不穩(wěn)定”,這是一個相當模糊的詞,可能意味著通過施壓讓員工更努力地工作。你所說的不穩(wěn)定具體是指什么?請盡可能詳細地說明。

郝珂靈:當ChatGPT問世時,OpenAI完全沒有做好準備。他們沒預料到會引起巨大轟動,原以為發(fā)布的只是一個研究預覽版,旨在收集數據啟動飛輪,為日后搭載GPT-4的真正產品提供參考。由于流量遠超預期,服務器經常崩潰,他們必須以前所未有的速度擴展基礎設施并瘋狂招聘。

但擴張過快也導致了決策失誤,公司頻繁裁員,員工經常突然從Slack上消失,同事們只能通過這種方式得知他人離職。那是一個極度混亂的高壓環(huán)境。最重要的是,Mira Murati和Ilya Sutskever覺得Altman讓情況變得更糟了,他實際上在播種更多的混亂,讓團隊變得更加分裂。高管和獨立董事們都在構建AGI的理念下運作,他們認為這項技術對人類要么是毀滅性的要么是烏托邦式的。在他們看來,絕對不能在如此混亂高壓的環(huán)境下,去創(chuàng)造一項足以決定世界成敗的技術。董事們私下討論時也認為,雖然在Instacart這樣的普通初創(chuàng)公司,這些行為未必足以解雇CEO,但OpenAI肩負的使命完全不同,這些問題已經達到了必須撤換他的標準。

此外,獨立董事Adam D'Angelo在舊金山參加派對時聽到傳聞,指出OpenAI創(chuàng)業(yè)基金的設立方式有些蹊蹺。獨立董事們查閱文件后震驚地發(fā)現,OpenAI創(chuàng)業(yè)基金竟然是Altman個人的基金。這些事件讓董事們意識到,Altman對外描繪的愿景與實際執(zhí)行情況之間始終存在著嚴重的不一致。

當高管們帶著擔憂找到董事會時,雙方的觀察完全吻合。經過每天密集的會議商討,他們最終得出結論必須罷免Altman。為了防止Altman察覺后利用其極強的說服力扭轉局勢,他們決定必須迅速行動。于是,他們在沒有提前告知任何利益相關者的情況下秘密解雇了Altman。作為OpenAI領投方的Microsoft直到行動前才接到電話通知。這種將所有利益相關方排除在外的做法激怒了所有人,這也直接導致了隨后那場迎回Altman的行動,幾天后他便重新出任CEO。

主持人:一家大公司的CEO是如何因為董事會成員而被董事會解雇的。在你的書第357頁有一段引言,你提到Ilya曾說過:“我不認為Sam是那個應該掌控AGI啟動按鈕的人。”現在我也在問自己這個問題。我和這里的很多人一起工作,我們公司有150名員工,這些人最了解我。他們看到鏡頭前的我,也看到鏡頭后的我。如果他們說“我們認為Stephen不適合主持《Diary of a CEO》”,能讓他們說出這種話一定是發(fā)生了非同尋常的事情。他們肯定在鏡頭之外見識了一些糟糕的情況才會認為我不適合出現在鏡頭前。

而在AI領域,其影響遠比一個播客節(jié)目深遠得多。想到一家公司的聯合創(chuàng)始人去找董事會說“他不適合領導這個至關重要的項目”,簡直讓人不寒而栗。而且不僅僅是Ilya,Mira Murati隨后也表示不認為Altman是合適的人選。隨后他們兩人都離開了。接著Altman回歸了,Ilya再也沒有回來。他之前擔心被Altman發(fā)現會對自己不利,這種顧慮最終變成了現實。

郝珂靈:Mira Murati也在那之后不久離開了。這些人中相當一部分都離開了OpenAI,不是嗎?回顧OpenAI的起源故事,它始于硅谷核心地帶Rosewood Hotel舉行的一場晚宴,那是Elon Musk來灣區(qū)時最喜歡的去處之一。Altman打算在那場晚宴上招募最初創(chuàng)立OpenAI的元老團隊,他到處跟人說Musk會來參加。他給Ilya發(fā)了冷郵件并成功邀請了他,因為Ilya特別想見Musk。他還給Greg Brockman、Dario Amodei等人發(fā)了郵件,這些人最終都去了OpenAI工作。但在與Altman發(fā)生沖突后他們幾乎所有人都離開了。Ilya離開后創(chuàng)辦了一家名為Safe Superintelligence的公司。

主持人:這真是我聽過最委婉的影射了。如果有人和我共同創(chuàng)辦了這個播客,離開后又創(chuàng)辦了一個名為“安全播客”的節(jié)目,我會覺得這是一種輕蔑。

郝珂靈:每一位科技億萬富翁都擁有自己的AI公司,這絕非巧合。他們想要按照自己的形象來創(chuàng)造AI,這正是他們一直相處不睦的原因。共事之后他們最終反目成仇,各自獨立建立了自己的組織。Musk離開后創(chuàng)立了xAI,Dario創(chuàng)立了Anthropic,Ilya創(chuàng)辦了Safe Superintelligence,Mira創(chuàng)辦了Thinking Machines Lab。他們希望掌控自己對這項技術的愿景,從將愿景投入市場的經驗中他們得出的最佳途徑就是創(chuàng)建一個競爭對手,與OpenAI及市面上所有其他公司展開競爭。

主持人:你是否認為有些AI公司已經意識到自己簡直就是在“召喚惡魔”(正如Elon Musk十年前所說),但他們其實并不在乎?因為成為召喚惡魔的人會讓你變得舉足輕重、權勢顯赫并名垂青史,哪怕有20%的概率會導致可怕的后果。Dario曾說過大約有10%到25%的概率事情會向著人類文明規(guī)模的災難性方向發(fā)展。25%就是四分之一的機會。如果在只有四個彈巢的左輪手槍里裝進子彈,說代價是腦袋挨一槍但可能成為億萬富翁并被永遠銘記,我絕不會去冒這個險打這個賭。

郝珂靈:這完全取決于如何定義“召喚惡魔”。AI行業(yè)利用了一種神話體系,“召喚惡魔”是說服所有人的關鍵環(huán)節(jié),旨在讓人相信只有他們才是唯一能開發(fā)這項技術的人。

這意味著必須由他們來做,且公眾必須給予資金和支持。所以當他們說這些話時,我們應將其理解為一種言語行為,旨在說服他人讓渡更多的權力和資源。這并非基于事實做出的真實預測,因為他們不是在預測未來而是在創(chuàng)造未來。他們是在刻意向公眾營造這種氛圍,這是其權力的核心組成部分。

至于他們是否意識到這已經對全球弱勢群體產生了極其嚴重的負面影響,也許有也許沒有,但他們其實并不在乎。我有時用《沙丘》來類比AI世界。故事中保羅·厄崔迪步入了一個早已播種在星球上的神話,他利用救世主降臨的理念來控制民眾。起初他深知這只是個神話,但隨著全身心投入并成為其化身,界限開始模糊,他分不清這究竟是神話還是自己真的是救世主。

我認為這正是AI領域正在發(fā)生的事情。這些高管在積極進行神話塑造。我掌握的內部文件顯示,他們非常敏銳地意識到如何通過令人眼花繚亂的技術演示吸引公眾,精心設計完美的使命感讓人們對公司更寬容。他們中的許多人也沉溺于這個神話中,因為他們必須日復一日地體現這個神話。當Dario說有10%到25%的災難概率時,他正積極參與并迷失在神話塑造中。由于需要籌集天文數字的資金來資助AI研究和建設數據中心,他們無時無刻不在融資。你不能一邊籌款一邊說“我有25%的可能性毀掉你孩子的未來”。大腦會產生認知失調,難以同時持有兩種沖突的世界觀。

主持人:你認為他們中有人比其他人擁有更強的道德準則嗎?Dario經常被認為更有骨氣,對后果也更有意識。

郝珂靈:我認為這個問題并不重要。即使把所有CEO都換成更有道德感的人也無法解決問題。核心問題是我們已經構建起了一套權力體系,這些公司和高管可以做出影響全球數十億人生活的決策,而這數十億人對此沒有任何發(fā)言權。這并不是公眾投票選出一位承諾立法的領導人就能解決的。考慮到這些公司運作的速度、節(jié)奏以及龐大的體量,他們完全能夠揮霍數億美元試圖扼殺任何阻礙他們的立法,并制定確立自身優(yōu)勢的法案。作為一個社會我們有時過于執(zhí)著于討論這些領導人到底是好人還是壞人。

更大的問題是我們創(chuàng)建的治理結構是健全且允許廣泛參與的,還是一個將決策權鞏固在少數人手中的反民主結構。沒有人是完美的,無論誰坐在頂層,都沒有能力代表世界上有著不同文化和歷史的大多數人做出絕對正確的決定。這就是為什么在歷史進程中人類從帝國走向了民主。因為帝國作為一種結構本質上是不穩(wěn)定的,它不能最大限度地讓大多數人過上體面的生活。



4.AI技術進步的初衷與未來

主持人:說實話我覺得我對很多領域都略知一二。

郝珂靈:是的,而且你具備自主學習和獲取知識的能力,也有能力自主選擇學習內容。人類可以在一個地方學會開車然后立刻將能力遷移到另一個地方。目前的AI模型無法做到這一點。每當自動駕駛汽車轉移到新地點時,必須針對該地點進行完全的重新訓練。

主持人:但是當一輛自動駕駛汽車或者一臺Optimus機器人在工廠里學習到新東西時,所有的設備就都學會了。

郝珂靈:這僅僅是因為它們共享同一個底層操作系統(tǒng)中的AI模型組件。你在訓練這個AI模型,然后將它部署到了所有設備上。

主持人:想象一下那樣的場景,如果我們人類能夠學習所有其他人類所掌握的知識,那將賦予我們難以置信的競爭優(yōu)勢。我的意思是,人類實現這一目標的方式之一就是通過溝通。

郝珂靈:但實際情況可能并非如此,因為系統(tǒng)可能會學到錯誤的東西。這種情況在現有技術中已經屢見不鮮,所有模型似乎都會學到錯誤的內容,并且擁有相同的失效模式。相比之下,人類社會的韌性部分源于我們擁有不同的專業(yè)知識,也擁有不同的失效模式。

主持人:我認為有時我們對AI模型的標準甚至比對人類的要求還要高。說起來挺奇怪的,我在奧斯汀的臺上經常聽到人們抱怨:“AI模型有時會產生幻覺?!蔽倚南耄y道你沒見過人類嗎?我隨時都在產生幻覺,我?guī)缀醪粫磳?,也不會做數學題。

郝珂靈:是的,但這更像是在領域初期為了營銷這些技術而專門挑選的類比。我們反復使用“智能”來類比,并將這些機器與人類智能聯系起來,試圖以此衡量它在社會中是否良好、有價值或有能力。

主持人:但我認為輸出結果才是影響最深遠的東西。即便它擁有一個完全不同的系統(tǒng),關鍵在于它是否達到了同樣的水平。比如,它能否為大腦進行手術?能否開車?在洛杉磯,我的車就是自動駕駛的,我可以好幾個小時不用碰方向盤。在奧斯汀,我前幾天剛見過取消了方向盤和踏板的全新CyberCab。我覺得它是否使用了不同的系統(tǒng)并不重要,如果它在現實世界中行駛且擁有比人類更高的安全記錄,那么無論是否具備所謂智能,對我而言都是可以接受的。

郝珂靈:但這并不是你最初提出的論點,即這些系統(tǒng)將基于預測,在不同領域普遍變得更加智能。

主持人:這也是目前所有AI領域大咖都在做的預測,包括Ilya、Dario、Elon、Zuckerberg、Altman和Demis。

郝珂靈:你知道所有這些預測的共同特征是什么嗎?他們從這個神話中獲取了巨額利潤。

主持人:Elon最近在孟菲斯建造了擁有10萬個GPU的巨型超級計算機Colossus,專門用于比競爭對手更快地擴展其Grok模型。

郝珂靈:似乎大家達成了一個共識,即可以通過暴力破解的方式來實現更強大、更通用的智能,并將其出售給人們,用于自動化某些具有豐厚經濟回報的任務。

主持人:我聽Elon說過,如果你是一名外科醫(yī)生,學習這些根本沒有意義,因為幾年之內,Optimus和AI總體上將比歷史上任何一位外科醫(yī)生都要出色。你認為這些預測是真的嗎?

郝珂靈:我很確定Hinton曾說過那句名言:未來將不再需要放射科醫(yī)生。他當時設定了一個期限,而我們現在已經過了那個期限,放射科作為一個職業(yè)目前發(fā)展得依然很好。

主持人:你認為五年后還會是這樣嗎?

郝珂靈:這要回到我們?yōu)槭裁匆_發(fā)技術,以及為什么需要開發(fā)AI的問題。對我而言,技術進步的初衷并不是為了發(fā)展而發(fā)展,而是為了幫助人類。已有大量研究表明,在醫(yī)療場景中,對患者最好的結果是讓放射科專家將AI模型作為工具和參考輸入。正是這種結合實現了對某些癌癥最準確、最及時的診斷,從而改善了患者的預后。

主持人:你是否相信在未來幾年內,路上幾乎所有的車都會實現自動駕駛?

郝珂靈:我不這么認為。

主持人:為什么?

郝珂靈:因為這項技術的工作原理是統(tǒng)計性的。目前AI模型的主要開發(fā)方式是統(tǒng)計引擎,即所謂的神經網絡,這是一種包含大量密集連接節(jié)點的軟件,也就是人們常說的參數。你向其中輸入海量數據,它通過分析數據找出所有的相關性和模式,機器正是通過這些模式實現自主運行。

在訓練自動駕駛汽車時,研發(fā)人員會記錄大量的視頻素材,并雇傭成千上萬的人類外包人員為素材中的每一輛車、每一個行人、每一個紅綠燈和每一條車道線進行手動標注。這些數據輸入AI模型后,模型就能識別這些組件。接著,它被連接到另一個非AI的軟件程序,該程序會發(fā)出確定性的指令,比如“識別到行人就不準碰撞”或“識別到紅燈就停車”。統(tǒng)計引擎的特點在于它是基于概率而非確定性邏輯的,因此系統(tǒng)隨時都會出錯。從技術上講,目前根本不可能讓它們完全停止犯錯。

主持人:在這種情況下,人類犯錯的概率難道不比系統(tǒng)高嗎?安全記錄顯示,在Tesla自動駕駛模式下行駛的安全性要比人類駕駛員高出10倍。

郝珂靈:這取決于具體地點,以及Tesla是否針對該特定區(qū)域進行過專門的導航訓練。

主持人:但人類會醉駕。如果在孟買或越南的某些地方,難道自動駕駛不會更安全嗎?

郝珂靈:在那些地方,我并不認為它會更安全。我更愿意由一個一輩子都在當地開車的人來載我。我并不是要反駁在某些經過專門訓練的特定地點,AI的安全記錄確實優(yōu)于人類。但你問的是全球或全美國的大多數汽車,我認為這并沒有近在咫尺。

主持人:那10年內呢?我曾和Uber的Dara聊過,他確信他的900萬名配送員將被自動駕駛車輛取代。

郝珂靈:自動駕駛汽車已經研發(fā)超過10年了,但目前公路上自動駕駛汽車的比例又是多少呢?它永遠不會達到100%。這在一定程度上已經不再是技術問題,而是社會信任和法律責任的問題。如果自動駕駛汽車撞了人,誰該負責?

主持人:在洛杉磯的一個案例中,由于駕駛員低頭撿手機,Tesla和駕駛員都被判定負有責任。就Tesla而言,現在Model Y是全球最暢銷的汽車,而且絕大多數車輛都配備了被稱為“受監(jiān)督的全自動駕駛”的功能。那仍然只是部分自動駕駛,因為你必須保持關注。而在奧斯汀看到的新款車上,因為沒有方向盤,那是真正的全自動駕駛。



5.AI時代的勞工困境

我想探討的是,那些聲稱AI將徹底改變交通、法律和會計行業(yè)的預測。你認為會出現大規(guī)模的失業(yè)潮嗎?

郝珂靈:我確實認為就業(yè)市場將受到巨大的沖擊,我們已經看到了這些影響。這不僅僅是因為AI模型通過自動化取代了這些工作,更是因為開發(fā)公司選擇的改進方向。很多時候管理層僅僅因為認為AI可以取代員工就決定裁員,無論模型的能力是否真的達標,他們寧愿要一個價格便宜且夠用的模型。有時他們只是在招聘上犯了錯導致團隊搞垮,而AI成了一個非常方便的借口。

比如Klarna的CEO曾解雇了一大批人,以為可以用AI取代所有人,結果行不通又不得不請人回來。我專門就這件事給Sebastian發(fā)了私信,他說媒體誤解了他的推文,他們正比以往任何時候都更加倍投入AI。由于AI的應用,Klarna的員工人數正以每月近一百人的速度縮減,從七千四百人的峰值降到了三千人左右。AI處理了他們70%的客服對話,因為軟件的生產成本幾乎降到了零。就像代碼現在由機器生成一樣,最終我們會為那些獨特的人造成果支付比以往更高的報酬。Klarna作為一家銀行,人們希望與有感情、能引起共鳴甚至帶有瑕疵的人建立聯系,而不僅僅是機器。因此他們需要在推進AI自動化的同時提供極易獲取的人性化體驗。

主持人:你看到Anthropic本周發(fā)布的報告了吧?簡而言之它的內容和你剛才說的很吻合。Anthropic深入研究了人們究竟是如何使用他們的模型的,發(fā)現初級職位的數量減少了40%。他們在網上瘋傳的圖表預測,雖然建筑和農業(yè)等物理世界的實體工作尚未受影響,但行政、金融、數學、法律和醫(yī)療保健等領域將首當其沖。包括媒體和藝術領域,這么看我快徹底完蛋失業(yè)了。

郝珂靈:顯然他們非常關注助理類和管理類的工作。目前存在兩種二元對立的敘事:一種是AI將取代每一份工作,另一種是AI實際上并不起作用。事實是AI確實正在取代工作。每一波自動化浪潮都會用自動化取代大量入門級工作,同時創(chuàng)造新的崗位。

但這些新崗位分為兩類:一類是技能要求和報酬更高的高階職位;另一類則是變得糟糕得多的底層崗位。比如很多營銷人員被解雇后,最終去數據標注公司工作,專門教導AI模型去自動化他們剛剛失去的那個崗位。如果該模型掌握了那項技能,又會導致更多的裁員。這成了一個吸收失業(yè)人群的去處,甚至包括好萊塢一些屢獲殊榮的導演也在秘密從事數據標注糊口。這打破了職業(yè)晉升階梯。入門級和中層職位被掏空,取而代之的是極少數的高階職位和大量更低階的職位。階梯上已經沒有橫桿了,人們該如何繼續(xù)職業(yè)晉升呢?

主持人:我實際上也不知道答案。我一直在拼命為我的觀眾尋找最佳答案。大家聽到了許多不同的說法,比如Jack Dorsey發(fā)推文稱因為AI的緣故正將員工人數減半,大家不知道什么是真實的,也不了解其公司內部的經濟狀況,這或許只是為了讓投資者覺得他們是AI公司從而拉升股價的借口。

我自己有數百名團隊成員,投資了大概七十家公司,我也把自己當作招聘負責人。過去一個月里我遇到過文化契合度非常好的候選人,但我不得不陷入深深的思考。因為當我嘗試讓AI智能體去完成完全相同的工作時,尤其在一個開放的Claude世界中,答案正日益趨向于可以。

郝珂靈:現在你面臨這樣一個抉擇:在短期內你完全可以選擇AI智能體,但從長期來看職業(yè)晉升階梯將不復存在。你會提拔什么樣的人進入高級職位?你是如何在自己的公司里解決這個問題的?

主持人:這是一個好問題。關于這一點,我大概有兩種思考方式。我認為深厚的專業(yè)知識非常有價值。如果你現在是潛在的AI Agent編排者,關鍵在于對該問什么樣的問題有深刻理解,而這正是擁有深厚專業(yè)知識的人所具備的。如果我的CFO要負責協調智能體團隊執(zhí)行財務分析等任務,她需要明白如何指揮它們在公司內開展工作,一名實習財務分析師是做不到的。他們需要像Claire那樣擁有五十多年的豐富經驗。另一方面,我需要像Kaz這樣的人。25歲的日本小伙Kaz對AIAgent了如指掌,他好奇心極強,周末都在構建AIAgent來解決生活中的問題。

我需要這兩種非常精通的思維方式。一種是代理效能最大化(Agent Maxing),這類人通常是年輕人,他們必須全身心投入且擁有極強的好奇心,這在我的業(yè)務中產生了力量倍增器的效應;另一種就是深厚的專業(yè)知識。除此之外,我還想到了第三類群體,就是擁有極強線下社交技巧的人。我們在現實生活中確實需要與人見面,比如迎接來訪客、與大客戶共進午餐并進行應酬。我們的團隊有很多線下活動,同時也在全球各地舉辦社區(qū)活動,所以我們需要擅長在線下將人們聚集在一起并組織事務的人才。這三類人是我認為目前無法被取代的。

郝珂靈:如果那些可以由AI智能體承擔的角色都被取代了,按照目前的軌跡繼續(xù)發(fā)展下去,你認為是否還能保留這三類角色,以及從中選拔、晉升人才的儲備庫,以完成長期所需的這三項關鍵任務?

主持人:有人斷言即使是那些角色也會感受到壓力。如果你把事物的發(fā)展看作指數級的進步,甚至只是10%的復合增長率進步,在某個時刻我認為剩下的實際上是不可替代的人類特質,也就是人與人之間面對面交流的馬斯洛需求。這一點不會改變,我們需要連接。當人類生活中缺乏他人的連接和深厚的關系時,會變得非常痛苦。

我有一個不同尋常的觀點,我認為AI可能是第一種能真正兌現承諾、讓我們回歸人性并建立連接的技術。因為除了人類擅長的事情外,我們在其他任何事情上都將變得毫無用處。以往的其他技術曾宣稱要讓我們與世界建立更多連接,結果卻切斷了聯系,使人們陷入孤立。但也許AI現在已經足夠智能,不再需要我們去折騰電子表格。

郝珂靈:你是否看到這一切正實時發(fā)生?它是否正讓我們更有能力進行面對面交流,與彼此建立聯系,并擁有更深層次的社會社區(qū)參與?

主持人:是的。我會給你提供一些數據點?!督鹑跁r報》發(fā)布的一份關于社交媒體使用情況的報告顯示,2022年是巔峰期,此后一直處于平臺期,其中下降最快且進入平臺期的是年輕一代,而嬰兒潮一代依然活躍。

如果你看看Alpha世代使用社交媒體的方式,他們發(fā)帖不再頻繁,甚至出現了零發(fā)布(PostingZero)的現象。他們有時刷動態(tài),但更多是待在WhatsApp、Snapchat和iMessage這種暗社交環(huán)境中,不再像以前那樣向全世界展示或表演自己。他們也比以往任何一代人都更看重線下體驗,比如跑團(RunClub)正在全球范圍內爆發(fā)式增長。

這幾乎反映出人們內心深處察覺到技術在某些根本層面上讓我們失望了。我們正在目睹社會可能出現的兩極分化,許多人正趨向于回歸作為人類最本真的樣子。我可以想象在這樣一個世界里,智能已經進化到極高的程度,以至于我們不再需要坐在筆記本電腦前,屏幕使用時間將會持續(xù)下降。當走進辦公室時,你看到的將不再是圍坐在電腦前的人們,而是完全不同的場景。

另外,馬斯克說未來將會產生100億個Optimus機器人。他在時間預測上出過錯,但在重大事項上幾乎從未徹底錯過。我已經請了一些來自波士頓動力以及ScaleAI等公司的專業(yè)人士來展示機器人疊衣服和洗碗等技能。我認為工廠的大量體力勞動將發(fā)生徹底改變,我們將被迫去做那些只有人類才能做的事情。

剛才Klarna的首席執(zhí)行官Sebastian給我打來電話,分享了他們業(yè)務和AI Agent的最新進展。他提到,他們很早就利用AI支持客戶服務,不僅處理了更多通話,速度和質量也得到了客戶的認可。他們相信在一個AI廉價且普及的世界里,人類互動的價值會更高,因此客戶服務的VIP體驗將由真人提供。在公司內部,他們通過AI實現了效率提升,避免了裁員,而是通過自然流失將人員規(guī)模從6000人縮減到不到3000人,同時營收卻翻了一番。去年年底更是出現了重大突破,許多頂尖工程師認為編程問題已經被解決,人們不再需要親自編寫代碼了。當被問及這些被解放出來的人都去干什么時,他表示長遠來看,他對于AI對社會和人類的積極意義持樂觀態(tài)度,認為我們將邁向一個更富裕的社會。聽了這些,你有什么想法嗎?

郝珂靈:其實在他打電話過來之前,我對你剛才說的話確實有一些想法。你提到Z世代有這樣一種趨勢,他們正在脫離技術,變得更加注重面對面交流;而另一類工作者實際上在擁抱技術,正因為擁抱了技術反而變得更具人性,因為他們意識到應該把更多時間花在面對面的人際互動上,而不是盯著屏幕。

但我真的很想回到剛發(fā)表的那篇《紐約雜志》的文章上。你所描述的情況只適用于一類非常特定的人群,通常是公司內部的業(yè)務所有者和領導層,他們可以決定如何分配和利用時間。但這篇文章探討的是工人階級,那些非業(yè)務所有者的普通人經歷了裁員后,被迫轉投數據標注行業(yè)。順便一提,數據標注現在是LinkedIn上增長最快的十大職位之一。數據標注就是教這些AI系統(tǒng)實現它們最終展現出的功能,比如向大語言模型輸入提示詞并示范該如何回答,在完成這些訓練之前,ChatGPT并不存在。這就是強化學習過程的一部分。

《紐約雜志》的文章強調,許多被裁員或正在艱難找工作的人,包括大學畢業(yè)生、博士、律師、醫(yī)生甚至屢獲殊榮的導演,由于經濟已被AI深度重構,他們很難在體系中找到新工作,只能服務于這個設計得極其不人道的行業(yè)。

OpenAI、Grok和Google等公司會雇傭第三方數據標注公司,而這些第三方公司為了以最低成本和最快速度完成任務,就有動力讓工人之間相互競爭。接受采訪的工人都表示,他們實際上已經失去了作為人的能力。他們只能守在筆記本電腦前等待Slack上的任務提醒,因為這是他們養(yǎng)家糊口的唯一生計。一位女性提到,她對項目起止時間感到極其焦慮,當任務窗口期剛好在孩子放學回家時,她必須瘋狂刷任務賺錢,甚至因為孩子分散了注意力而大吼大叫。她覺得自己變成了怪物,連上廁所或照顧自己都不被允許。

這個不斷吸納被裁員工的行業(yè),正在將他們的生活機械化、工作原子化,貶低他們的專業(yè)知識,并收割成果來維持這臺機器的運轉。然而所有AI高管卻在宣稱,這臺機器將取代其他所有人的工作。

所以正如你提到的,那些因為AI處理了繁雜任務而變得“更像人”的企業(yè)主們,實際上是以絕大多數正在掙扎求生的普通人的利益為代價的。這些普通人被吸納進為企業(yè)主提供技術支持的工作中,他們不僅沒有變得更具人性,反而覺得本人的人性被擠壓和削弱了,在生活中喪失了自主權和尊嚴。

主持人:我認為這是一個重大問題。如果我們相信Anthropic對行業(yè)顛覆的預測,藝術、媒體、法律、生命與社會科學、建筑、工程、計算機、數學、商業(yè)金融以及行政管理等領域的人員,都將不得不重新接受技能培訓。與工業(yè)革命有十幾二十年的緩沖期不同,AI建立在開放的互聯網之上,這使得ChatGPT能迅速獲得數億用戶并成為史上增長最快的公司。我擔心這種顛覆發(fā)生的速度快到讓我們根本無法完成轉型。

郝珂靈:但誰在推動這種速度?是那些公司,以及它們彼此之間的競爭。它們正在推動這種轉變以極快的速度發(fā)生,在這種速度下很難照顧到所有被其碾壓的人。這是最瘋狂的問題之一。當我與這些AI公司的首席執(zhí)行官們坐在一起時,沒有人能回答我的問題。我會問:“如果這一切真的以超高速發(fā)生,那么人類將會怎樣?”

主持人:我曾與一些企業(yè)的CEO交流過,比如Uber的Dara也表達過類似的看法。他認為未來會產生一些諸如數據標注的工作,可以提供給司機們。但問題在于,不可能所有人都去從事數據標注,這還涉及人生意義、目標和成就感缺失的問題。

是的,很多人在失去原有工作后,自尊心會遭受沉重打擊。我曾聽過許多案例,比如一些人在家鄉(xiāng)原本是醫(yī)生,來到美國后卻只能從事廁所清潔工等工作,這種社會地位的巨大落差往往會引發(fā)抑郁和酗酒問題。如果這種現象在全社會大規(guī)模發(fā)生,后果將不堪設想。

郝珂靈:這也是我一直批評這些AI公司的原因。他們創(chuàng)造技術的方式,正在以前所未有的極端形式制造“擁有者”與“缺失者”之間的鴻溝,加劇了世界的不平等。擁有資源的人將積累更多財富,擁有更多閑暇,活得更像一個“人”;而沒有資源的人則受到更嚴重的擠壓。

主持人:這種擠壓似乎不僅僅體現在工作層面?

郝珂靈:沒錯,我在書中也談到了環(huán)境和公共衛(wèi)生危機。這些公司在選址建造龐大的超級計算機設施時,往往專門挑選最脆弱的社區(qū)。例如,OpenAI正在德克薩斯州阿比林建設大型數據中心,這是Stargate計劃的一部分,該計劃耗資5000億美元。建成后,其耗電量將超過1吉瓦(GW)。

主持人:我看到網上有一些關于這類設施規(guī)模的討論。

郝珂靈:有些數據需要更新。比如Meta在路易斯安那州建設的超級計算機設施,規(guī)模將是阿比林基地的四倍,面積相當于曼哈頓島的五分之一,電力消耗將達到紐約市平均需求的一半。

當這些設施進入社區(qū),會導致公用事業(yè)用電增加、電網可靠性下降。此外,設施運行和冷卻需要大量淡水,這讓本就缺水的社區(qū)處境更加艱難。在田納西州的孟菲斯,馬斯克為訓練Grok建造了Colossus超級計算機,使用了35臺甲烷燃氣輪機供電。當地居民甚至在自家客廳就能聞到煤氣味,他們的空氣權益正被剝奪。

主持人:聽起來,那些被歸類為“無產者”的人,處境會變得糟糕得多。

郝珂靈:是的。在硅谷描繪的愿景中,這些人從事的數據標注工作,實際上是被當作機器而非人類來榨取價值。他們不僅面臨職業(yè)被顛覆的風險,還要承受生活成本上升、空氣污染和資源競爭。這如何能讓人類變得更具人性呢?



6.探尋出路:打破壟斷與AI的自行車路線

主持人:那我們應該如何應對這種情況?

郝珂靈:我常把AI比作“交通運輸”。交通工具涵蓋了從自行車到火箭的所有類型。如果我們?yōu)榱藦腁點到B點而動用火箭,資源投入顯然是失衡的。目前的主流AI模型就像是“火箭”,能耗驚人且開發(fā)成本極高。

我們?yōu)槭裁床恢圃旄郃I領域的“自行車”呢?比如DeepMind的AlphaFold,它通過小型且精選的數據集預測蛋白質折疊,對藥物研發(fā)意義重大,并獲得了諾貝爾獎。這種系統(tǒng)所需的計算資源和能效要低得多,卻能為人類帶來巨大益處。

主持人:但現在感覺大勢已定,這些公司已經利用大量數據完成了初期訓練。

郝珂靈:如果真的塵埃落定,他們就不需要持續(xù)訓練了。事實是,為了讓技術保持相關性,他們需要周而復始地進行訓練。這就是為什么隨著時間推移,他們雇用的數據標注工人反而越來越多。他們相信可以靠暴力破解(Brute force scaling)的方法,通過堆砌數據、計算能力和能源來提升模型。我報道數據標注工作已經超過七年了,而且這一需求并沒有減少,反而增加了。

主持人:你認為它有任何下降的可能性嗎?你認為這種利用數據、計算能力、能源以及數據標注員來為模型構建越來越多參數的暴力縮放(brute force scaling)方法,有沒有可能停止,或者轉向與現狀不同的方向?

郝珂靈:我很想換個角度來重新審視這個問題,并思考在熱度并未降溫的當下,我們應該做些什么。在這個我們確實意識到這些公司目前需要持續(xù)的資源輸入以及勞動力來延續(xù)其業(yè)務的時刻,我們能做什么?停止這個詞聽起來很生硬,因為現任政府和全球范圍都在大力支持這些公司。我總是說我們需要打破這個帝國,開發(fā)替代方案。目前我們已經看到令人驚嘆的草根運動正在蓬勃發(fā)展,它們正對這個帝國推行其議程的方式施加巨大的壓力。最近的民意調查顯示,80%的美國人認為AI行業(yè)需要受到監(jiān)管。

主持人:是的,我看到了。

郝珂靈:所以全美甚至世界各地都已經爆發(fā)了數十起針對數據中心的抗議活動。人們正在采取行動,重申自己的主體性,并針對這些帝國經營業(yè)務的方式行使民主抗爭權。

主持人:那我們應該瞄準什么樣的目標?如果我對觀眾說話,因為我在評論區(qū)看到了一種絕望感,他們會覺得我只是個普通人,我能做什么呢?

郝珂靈:我們的目標并不是要徹底擺脫這項技術,而是要求這些公司停止擴張成帝國。我定義的普通企業(yè)與帝國之間的區(qū)別在于,帝國的立足點是它們認為不需要與員工、用戶以及供應鏈中的所有人進行公平的價值交換。它們不斷地榨取和剝削,獲取遠超其所提供價值的收益。而典型的商業(yè)模式存在公平交換,你購買服務會覺得獲得的價值與支付的金額是對等的。但對于數據標注工人來說,他們完全不覺得公司支付的報酬能體現出他們提供的價值。

所以指路明燈就是當這些公司以帝國主義方式運作時,我們應該予以反擊并追究其責任。這就是我們現在看到的,人們走上街頭抗議數據中心,產生了巨大的影響,甚至讓一些項目停滯或被完全禁止建設。我們看到藝術家和作家正在起訴這些公司侵犯知識產權,這引發(fā)了一場關于如何保護知識產權的大規(guī)模公眾討論。

三周前我見到了Sewall Setser III的母親Meghan Garcia。Sewall是一名14歲的少年,他在被Character AI聊天機器人進行性誘導后自殺身亡。她對兒子的遭遇感到悲痛,并決定采取行動起訴這些公司。這引發(fā)了許多有著類似經歷的家庭紛紛提起訴訟,也引發(fā)了巨大的公眾討論,探討這些公司的剝削行為對世界各地人們包括兒童造成了怎樣的代價。

主持人:那么你認為我的觀眾如果完全同意你書中的觀點,不想讓每個人都變成數據標注員,他們實際上能做些什么呢?

郝珂靈:當我寫這本書時,當時的輿論只認為這是自切片面包問世以來最棒的事情。但現在有80%的美國人希望監(jiān)管這個行業(yè)。我想對大家說,思考一下你的生活與AI行業(yè)維持運作所需資源以及部署空間交織的所有方式。你是這些公司的數據捐贈者,你可以拒絕提供數據,就像藝術家和作家正在做的那樣,試圖建立機制扣留數據。你身邊可能正在建設數據中心,如果你在學?;蚬?,可能正在討論AI采用政策。

我剛和一些OpenAI員工聊過,他們公司內部清楚營收目標高得離譜,需要一切進展完美才能實現,需要每個人和每個空間都采用這項技術,需要按預想速度建造數據中心。所以我想對觀眾說,如果我們不同意他們的所作所為,就別讓這一切進展得那么順利。

主持人:我明白了。

郝珂靈:然后讓我們來構建替代方案。我并不是說這些技術沒有用處,而是目前專門為了支持這些技術生產而形成的政治經濟體系正在對人類造成巨大傷害。研究表明同樣的能力完全可以通過資源消耗少得多的高效方法開發(fā)出來。我們手頭還有許多其他AI系統(tǒng),它們能以極低成本提供巨大益處。讓我們打破帝國壟斷,開辟出讓所有人廣泛受益的AI發(fā)展新路徑。

主持人:作為一名CEO、創(chuàng)始人和熱愛技術的人,我常常要在腦海中處理對立的觀點。我認為AI絕對令人驚嘆,它賦予我創(chuàng)造的能力簡直太不可思議了,它能讓我在早上開車時感覺更安全。那十幾億使用ChatGPT等AI工具的人可能會說這為他們的生活增加了價值,我也會投資大量使用AI的公司。但是,我們是否可能在認同其價值的同時,也認為存在重大的意外后果?技術及其發(fā)展史本應教會我們停下來討論這些后果。這兩個觀念可以同時存在于腦海中。

郝珂靈:是的,我想說這種張力不一定是沖突。我們實際上可以在保留技術益處的同時,以不同的方式開發(fā)和設計它們,從而避免意外后果。

主持人:這需要一場廣泛的社會討論,這也是我在這檔節(jié)目中進行這么多AI對話的原因,我們需要關注社會和環(huán)境影響。這場對話并沒有在政府層面展開,而是發(fā)生在行業(yè)內部。在過去的幾個月里,我們一直致力于就這一主題啟發(fā)人們的思想。

郝珂靈:實際上這在行業(yè)之外的各個地方都在發(fā)生。地方和州級政府已經有了大量討論。我一直在進行新書巡回宣傳,去了全球幾十個城市,到處都有人在進行這些至關重要的對話。每場都爆滿,每個人都在糾結同樣的問題。

主持人:說到現場爆滿,我知道你等下還有一場演講,所以我們進入本播客的結束傳統(tǒng)問題:你對一位患有絕癥的朋友給出的建議,與你自己的做法會有什么不同?

郝珂靈:這是一個非常好的問題。我會告訴他們去享受生活,為自己而活,放輕松點。

主持人:但你不會這么做的。

郝珂靈:是的,我沒法放輕松。

主持人:我認為你不放輕松是一件好事,因為你正在引領一場至關重要的對話。由于算法和信息繭房效應,如今能進行這樣長篇的對話非常罕見且重要。你的新書《Dreams and Nightmares in Sam Alt》推薦給所有對此好奇的人。今天我學到了很多。通過你書中廣泛且客觀的視角、深入的研究,你揭開了故事背后的真相。你顯然將人類利益視為北極星,請繼續(xù)戰(zhàn)斗下去。正是你這樣的人在激勵全世界采取集體行動。強烈建議大家讀一讀這本書,Karen,謝謝你。

郝珂靈:非常感謝,Steven。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
悲催!37歲名牌大學畢業(yè)、年薪30萬女醫(yī)生被技術男嫌棄,當場崩潰

悲催!37歲名牌大學畢業(yè)、年薪30萬女醫(yī)生被技術男嫌棄,當場崩潰

火山詩話
2026-04-24 06:14:58
老鷹險勝尼克斯總分2-1:麥科勒姆23分準絕殺 庫明加21分制勝搶斷

老鷹險勝尼克斯總分2-1:麥科勒姆23分準絕殺 庫明加21分制勝搶斷

醉臥浮生
2026-04-24 09:47:47
143億美元!日本拿下戰(zhàn)后最大武器出口訂單,中國周邊將迎劇變

143億美元!日本拿下戰(zhàn)后最大武器出口訂單,中國周邊將迎劇變

趣文說娛
2026-04-22 20:05:31
不裝了?馬斯克罕見承認:美國是第一,但第二到第十全都來自中國

不裝了?馬斯克罕見承認:美國是第一,但第二到第十全都來自中國

大衛(wèi)聊科技
2026-04-23 12:13:36
張震調任作戰(zhàn)部長,抵京后見一人來接站,變了臉色:這可怎么得了

張震調任作戰(zhàn)部長,抵京后見一人來接站,變了臉色:這可怎么得了

云霄紀史觀
2026-04-24 15:17:15
有點慘!燃油車再迎大降價:最大跌幅50%,豪華車帶頭“跳水”

有點慘!燃油車再迎大降價:最大跌幅50%,豪華車帶頭“跳水”

小怪吃美食
2026-04-24 16:42:18
此論調不可?。赫麄€北約打不過俄羅斯?把德國逼下場會讓俄軍絕望

此論調不可取:整個北約打不過俄羅斯?把德國逼下場會讓俄軍絕望

寰球經緯所
2026-04-24 15:00:27
蘋果折疊屏iPhone Ultra設計曝光 Touch ID回歸音量鍵頂置

蘋果折疊屏iPhone Ultra設計曝光 Touch ID回歸音量鍵頂置

CNMO科技
2026-04-23 08:04:19
于海青:為何說在飛機上聲稱南方空姐的女士給自己惹了大麻煩?

于海青:為何說在飛機上聲稱南方空姐的女士給自己惹了大麻煩?

于海青
2026-04-23 18:02:43
單身越久,死亡風險越高?中國科學家:每周2次性生活是安全線

單身越久,死亡風險越高?中國科學家:每周2次性生活是安全線

思思夜話
2026-04-23 11:30:19
41歲C羅肌肉依舊炸裂!前私廚揭秘飲食紅線:牛奶堅決不碰!

41歲C羅肌肉依舊炸裂!前私廚揭秘飲食紅線:牛奶堅決不碰!

仰臥撐FTUer
2026-04-24 14:38:03
太陽報:在輸給曼城后,阿爾特塔給全隊放了兩天假

太陽報:在輸給曼城后,阿爾特塔給全隊放了兩天假

懂球帝
2026-04-24 09:27:09
格力回應鋁線電機爭議:相關工程機已停產,海信稱靠多三兩銅多500元時代已終結

格力回應鋁線電機爭議:相關工程機已停產,海信稱靠多三兩銅多500元時代已終結

紅星資本局
2026-04-21 20:40:16
后悔也來不及了,美商務部長:中方改變主意,美方想賣卻賣不出去

后悔也來不及了,美商務部長:中方改變主意,美方想賣卻賣不出去

小新的視界
2026-04-24 04:39:22
“國民好車2.0”大定開啟,折后售價低至127155元

“國民好車2.0”大定開啟,折后售價低至127155元

北京商報
2026-04-23 20:46:02
清朝一個很特殊的官職,叫“道臺”,幾乎沒人能說清他是干啥的

清朝一個很特殊的官職,叫“道臺”,幾乎沒人能說清他是干啥的

抽象派大師
2026-04-24 12:23:42
賴清德無法竄訪,鄭麗文表態(tài)后,藍營改口,柯文哲做出驚人預言

賴清德無法竄訪,鄭麗文表態(tài)后,藍營改口,柯文哲做出驚人預言

DS北風
2026-04-23 11:52:05
伊朗教育部長:將把本輪美伊戰(zhàn)爭納入教材

伊朗教育部長:將把本輪美伊戰(zhàn)爭納入教材

新京報
2026-04-24 17:48:06
49歲女保姆直言:單身的老人請保姆,多半不是為找人伺候養(yǎng)老

49歲女保姆直言:單身的老人請保姆,多半不是為找人伺候養(yǎng)老

惟來
2026-04-23 18:19:16
美軍正制定新計劃,若談判破裂即打擊霍爾木茲海峽或伊朗內部的“阻撓者”

美軍正制定新計劃,若談判破裂即打擊霍爾木茲海峽或伊朗內部的“阻撓者”

澎湃新聞
2026-04-24 12:24:28
2026-04-24 21:00:49
劃重點KeyPoints incentive-icons
劃重點KeyPoints
去除噪音,劃下重點 追蹤全球AI科技,記錄中國硬核崛起 溝通?一把把一傘一久耳久久漆
200文章數 18關注度
往期回顧 全部

科技要聞

DeepSeek V4牽手華為,價格依然"屠夫級"

頭條要聞

男子撫養(yǎng)14年兒子非親生 妻子結婚擺酒前跟別人在一起

頭條要聞

男子撫養(yǎng)14年兒子非親生 妻子結婚擺酒前跟別人在一起

體育要聞

里程碑之戰(zhàn)拖后腿,哈登18分8失誤

娛樂要聞

停工16個月!趙露思證實接拍新劇

財經要聞

LG財閥內斗:百億美元商業(yè)帝國爭奪戰(zhàn)

汽車要聞

零跑Lafa5 Ultra北京車展上市:11.88-12.48萬

態(tài)度原創(chuàng)

教育
本地
游戲
健康
公開課

教育要聞

尊敬不是優(yōu)越感

本地新聞

云游中國|逛世界風箏都 留學生探秘中國傳統(tǒng)文化

《星空》再為PS5緊急更新:Xbox玩家的反應絕了!

干細胞如何讓燒燙傷皮膚"再生"?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版