国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

最強(qiáng)Claude比黃金還貴,有人用省token.skill 立降65%,還有10個(gè)小妙招

0
分享至

也是史上最貴的。25/125 美元每輸入/輸出百萬(wàn) Token,作為對(duì)比,Claude Sonnet 4.6 的價(jià)格是 3/15 美元——貴了將近 8 倍。


而這還只是 API 價(jià)格。Mythos 目前根本沒(méi)有對(duì)普通用戶開(kāi)放,因?yàn)槟芰μ珡?qiáng),Anthropic 自己都沒(méi)想好怎么給我們用。

最強(qiáng),也最貴。這兩件事放在一起,某種程度上已經(jīng)預(yù)示了接下來(lái)的走向:模型越來(lái)越聰明,Token 越來(lái)越值錢(qián),我們跟 AI 說(shuō)話的成本,也越來(lái)越高。

但眼下的問(wèn)題還不用等到 Mythos。就是普通的 Agent,甚至是對(duì)話聊天,在各種 Skill、記憶系統(tǒng)的加持下,發(fā)一句「你好」,都有可能用掉 13% 的月度 Token 額度。


Reddit 討論帖鏈接:https://www.reddit.com/r/Anthropic/comments/1s8wwra/13_usage_for_one_hello_is_insane_max20_plan/

AI 是越來(lái)越聰明,但我們可能快要跟它「說(shuō)不起話」了。怎么節(jié)省 Token 成了這段時(shí)間以來(lái),社交媒體上熱議的話題。

有人提出用文言文的方式和 AI 聊天,畢竟古人說(shuō)話字斟句酌,沒(méi)有半點(diǎn)廢話;還有人想到在不同的模型之間快速切換,用聰明的 Claude 指定策略、Gemini 進(jìn)行深度研究、然后 ChatGPT 來(lái)完成枯燥的流程工作。

這種感覺(jué)很像回到了 2000 年還沒(méi)有數(shù)據(jù)流量的時(shí)候,用手機(jī)短信和朋友聊天,0.1 元/條,每條短信還有字?jǐn)?shù)限制,超過(guò)字?jǐn)?shù)會(huì)自動(dòng)計(jì)算為兩條短信,所以一定得事先組織好語(yǔ)言,把要講的事情在一條短信內(nèi)說(shuō)清楚。

回到大模型,在對(duì)話框里每按一次發(fā)送,一邊要擔(dān)心上下文窗口有限,一邊也在想這次又要花掉我多少 Token。

當(dāng)個(gè)山頂洞人,回到石器時(shí)代

以文言相與,觀若用字更少,然其實(shí)果更省乎?

前段時(shí)間,有網(wǎng)友在 X 上發(fā)梗圖討論用文言文,是不是能減少 Token 的使用。畢竟文言文相比白話文,用的字更少,把我們的語(yǔ)言都?jí)嚎s成「之乎者也」的表達(dá),所消耗的 token 按理說(shuō)也會(huì)更少。

評(píng)論區(qū)都在調(diào)侃,這是在用人腦的 Token 來(lái)彌補(bǔ) AI Token。


我們的大腦編譯文言文不用花錢(qián),消耗再多 Token 倒也無(wú)所謂;但真實(shí)的情況是,消耗了腦力,寫(xiě)出了像模像樣的文言文,最后并沒(méi)有減少 Token 的使用。

對(duì)于大語(yǔ)言模型來(lái)說(shuō),越常用的詞占用的 Token 越少,它并不是按照文字的長(zhǎng)短來(lái)定義數(shù)量,而是依據(jù)語(yǔ)義進(jìn)行劃分。

就像下面的例子,一開(kāi)始使用文言文只有 21 個(gè)字符,但是 Token 數(shù)也是 20,切換到白話文,字符數(shù)來(lái)到 31 個(gè),Token 數(shù)依然是 21。


Token 計(jì)算:https://platform.openai.com/tokenizer

更離譜的是,我們之前分享過(guò)的 GPT-4o 詞元污染,輸入一串 8 個(gè)字符的短語(yǔ),在 AI 大模型眼里只占用了 1 個(gè) Token。而對(duì)于一些非常用字,例如「無(wú)恙」,ChatGPT 會(huì)將其編碼成 3 個(gè) token,因?yàn)椤疙Α箷?huì)變成亂碼。


文言文不行,又有開(kāi)發(fā)者提出回到石器時(shí)代,用穴居人的方式和 AI「對(duì)話」。

一個(gè)名叫 caveman 的項(xiàng)目這幾天在 GitHub 上走紅,和用文言文玩梗不同,這個(gè)項(xiàng)目實(shí)打?qū)嵉刈隽艘恍y(cè)試,并給出了可以復(fù)現(xiàn)的 benchmark。

在展示的多項(xiàng)基準(zhǔn)任務(wù)里面,使用 Cavemen 項(xiàng)目之后,能節(jié)省約 65% 的 Token,同時(shí)能保證輸出內(nèi)容的 100% 準(zhǔn)確。


測(cè)試結(jié)果顯示,在標(biāo)準(zhǔn)軟件工程任務(wù)上,平均壓縮率達(dá)到 65%,而且推理令牌不受影響,只有輸出有效載荷被壓縮。項(xiàng)目鏈接:https://github.com/JuliusBrussee/caveman

具體的做法是通過(guò)一個(gè) Skill 來(lái)實(shí)現(xiàn),它會(huì)在發(fā)送給大模型的請(qǐng)求中,強(qiáng)制加入特定的角色設(shè)定和指令,從源頭上阻止模型講廢話

它會(huì)要求模型停止使用客套話(如「Sure I'd be happy to」)、去除冠詞(a, an, the)以及避免使用模棱兩可的詞匯(如「It might be worth considering」)。

同時(shí),它也要求模型必須保留代碼塊、錯(cuò)誤信息和專業(yè)技術(shù)術(shù)語(yǔ)的原樣。


而關(guān)于深度思考方面,Caveman 只會(huì)影響輸出 Token, 模型尋找 Bug、梳理邏輯的內(nèi)部推理過(guò)程依然是完整且龐大的。 當(dāng)模型結(jié)束思考,準(zhǔn)備「開(kāi)口」給我們解釋時(shí),它受到了 caveman 指令的約束,只用最少的輸出 Token 把結(jié)論輸出。

除了讓模型「說(shuō)山頂洞人的話」來(lái)節(jié)省輸出 Token,這個(gè)項(xiàng)目還提供了一個(gè) caveman-compress 腳本來(lái)讓模型「少閱讀」。

它可以將我們的項(xiàng)目記憶文件(如 CLAUDE.md)預(yù)先重寫(xiě)并壓縮成「山頂洞人語(yǔ)版本」。這樣一來(lái),每次我們開(kāi)啟新會(huì)話時(shí),大模型需要讀取的輸入 Token (Input Tokens) ,經(jīng)過(guò)測(cè)試減少了約 45%,實(shí)現(xiàn)了輸入和輸出的雙重節(jié)省。


目前這個(gè)項(xiàng)目在 GitHub 上已經(jīng)拿下了快有 6000 個(gè) Stars。然后很快又有網(wǎng)友給出了「山頂洞人-壓縮版」,通過(guò)進(jìn)一步壓縮 Caveman 項(xiàng)目的輸入來(lái)減少 Token。


Caveman 的開(kāi)發(fā)者在項(xiàng)目說(shuō)明文檔里面提到,使用山頂洞人的模式是有科學(xué)依據(jù)的,他提到了今年 3 月的一篇名為《Brevity Constraints Reverse Performance Hierarchies in Language Models》(簡(jiǎn)短約束逆轉(zhuǎn)了語(yǔ)言模型的性能層級(jí))的論文。

研究發(fā)現(xiàn),大模型的客套話和長(zhǎng)篇大論有時(shí)是一種 debuff。強(qiáng)制大型模型給出簡(jiǎn)短的回復(fù),不僅沒(méi)有讓它變笨,反而使其在某些基準(zhǔn)測(cè)試上的準(zhǔn)確率提高了 26 個(gè)百分點(diǎn)。


簡(jiǎn)潔性的約束消除了反向規(guī)模效應(yīng)。(A)三個(gè)條件下的表現(xiàn)顯示,在簡(jiǎn)潔性約束下,大模型顯著提升(控制組:40.2% → 簡(jiǎn)潔組:66.5%,+26.3 個(gè)百分點(diǎn))。(B)差距縮小在不同數(shù)據(jù)集上有所變化,在 GSM8K 和 MMLU-STEM 中甚至出現(xiàn)完全反轉(zhuǎn),在簡(jiǎn)潔條件下大模型表現(xiàn)更優(yōu)。(C)響應(yīng)長(zhǎng)度驗(yàn)證確認(rèn)該干預(yù)成功操控了冗長(zhǎng)度(控制組:197 個(gè) token → 簡(jiǎn)潔組:78 個(gè) token,減少 60%),從而建立了過(guò)度思考與性能下降之間的因果聯(lián)系。論文鏈接:https://arxiv.org/abs/2604.00025

去年,視頻會(huì)議公司 Zoom 也發(fā)布了一篇論文,《Chain of Draft: Thinking Faster by Writing Less》(草稿鏈:通過(guò)少寫(xiě)來(lái)更快思考),提出了一種全新的大語(yǔ)言模型推理策略,解決了現(xiàn)有方法中太啰嗦且成本高的問(wèn)題。

傳統(tǒng)的思維鏈(Chain-of-Thought, CoT)雖然能幫助大模型通過(guò)分步推理來(lái)解決復(fù)雜任務(wù),但這種方法要求模型在給出最終答案前生成大量詳細(xì)的中間步驟。這導(dǎo)致了極高的計(jì)算資源消耗、更長(zhǎng)的輸出長(zhǎng)度以及更高的延遲。

我們?nèi)祟愒诮鉀Q復(fù)雜問(wèn)題,如數(shù)學(xué)題或?qū)懘a時(shí),通常不會(huì)把所有思考細(xì)節(jié)都長(zhǎng)篇大論地寫(xiě)下來(lái)。我們習(xí)慣于只記錄簡(jiǎn)短的「草稿」或核心信息來(lái)推進(jìn)思考。

論文也是受此啟發(fā),希望讓大模型也模仿這種高效、極簡(jiǎn)的策略。作者提出了 CoD(草稿思維鏈)。

在提示詞設(shè)計(jì)上,CoD 同樣要求模型一步一步地思考,但做了一個(gè)關(guān)鍵限制:每個(gè)推理步驟只保留最精簡(jiǎn)的草稿,最多不超過(guò) 5 個(gè)詞。

例如,在解決簡(jiǎn)單的數(shù)學(xué)應(yīng)用題時(shí),CoT 可能會(huì)輸出幾段完整的句子來(lái)描述題意,而 CoD 只需要模型輸出類似 x=20-12=8 這樣最核心的公式即可。


比較 Claude 3.5 Sonnet 在三種不同提示策略下(直接回答(Standard)、思維鏈(CoT)和草稿鏈(CoD))在不同任務(wù)中的準(zhǔn)確性和令牌使用情況。CoD 在實(shí)現(xiàn)與 CoT 相似準(zhǔn)確性的同時(shí),使用的令牌數(shù)量顯著更少。論文鏈接:https://arxiv.org/abs/2502.18600

結(jié)果,CoD 在保持甚至超越 CoT 準(zhǔn)確率的同時(shí),消耗的 Token 數(shù)量大幅減少,最低僅為 CoT 的 7.6%。

兩個(gè)研究,都是通過(guò) Skill 或提示詞的方式,來(lái)強(qiáng)制限制模型的輸出長(zhǎng)度。CoD 的提示詞同樣直接,要求模型,「一步一步思考,但每個(gè)思考步驟只保留最少的草稿,最多 5 個(gè)詞」。

更實(shí)用的十個(gè) Token 節(jié)省方案

除了使用 Caveman 的 Skill,有網(wǎng)友還總結(jié)了更完整的節(jié)省 Token 十大訣竅。

1、在已發(fā)送的消息上修改,而不是另發(fā)一條消息

當(dāng) AI 回答不符合我們的預(yù)期時(shí),盡量不要發(fā)一條「不對(duì),我是指……」來(lái)跟進(jìn)。

因?yàn)槊堪l(fā)一條新消息,大模型都要把前面的所有聊天記錄重新讀一遍,導(dǎo)致 Token 消耗成倍翻滾。正確的做法是:直接點(diǎn)擊原消息的「編輯」按鈕,修改提示詞,然后重新生成。


消息越多,消耗的 token 也越多。原文來(lái)源:https://x.com/0x\_kaize/status/2038286026284667239

2、每 15–20 條消息就開(kāi)啟一個(gè)新對(duì)話

長(zhǎng)對(duì)話是 Token 的無(wú)底洞,在一百多條消息的對(duì)話中,可能有 98.5% 的 Token 都浪費(fèi)在讓 AI 重讀歷史記錄上。

當(dāng)對(duì)話變長(zhǎng)時(shí),我們可以讓 AI 先總結(jié)一下當(dāng)前進(jìn)度,然后拿著這段總結(jié)去開(kāi)一個(gè)新的對(duì)話。

3、將所有問(wèn)題都集中到一個(gè)消息里面發(fā)送

不要把「總結(jié)這篇文章」、「列出這篇文章的要點(diǎn)」、「給這篇文章想個(gè)標(biāo)題」分成三條消息發(fā)送。

把它們合并成一段完整的提示詞,不僅能減少系統(tǒng)加載上下文的次數(shù),還能讓 AI 因?yàn)榭吹搅巳捕o出更高質(zhì)量的回答。

4、把反復(fù)使用的文件上傳到 Projects 中

如果我們?cè)诙鄠€(gè)聊天窗口里反復(fù)上傳同一份長(zhǎng)文檔,每次上傳都會(huì)重新消耗大量的 Token。

這個(gè)時(shí)候我們可以利用 Projects 的緩存功能,文件只需上傳一次,后續(xù)在這個(gè)項(xiàng)目里怎么問(wèn)關(guān)于這份文件的內(nèi)容,都不會(huì)再重復(fù)燒 Token 了。

5、提前設(shè)置好「記憶」與用戶偏好

大多數(shù)時(shí)候,我們會(huì)按照以前的提示詞技巧,在發(fā)每次開(kāi)新對(duì)話時(shí),都會(huì)「浪費(fèi)額度」去寫(xiě)「現(xiàn)在你是一個(gè)文案策劃,用輕松的語(yǔ)氣寫(xiě)……」。


現(xiàn)在 AI 都有用戶偏好和記憶功能,我們可以把職業(yè)、行文風(fēng)格、項(xiàng)目信息等偏好保存在設(shè)置里,它就會(huì)自動(dòng)生效,幫我們省下大量重復(fù)交代背景的 Token。

6、關(guān)掉不需要的附加功能

聯(lián)網(wǎng)搜索(Web search)和高級(jí)思考(Advanced Thinking)等功能只要開(kāi)著,每一輪都會(huì)額外消耗 Token。

除非我們對(duì)初步的回答不滿意,或者明確需要這些功能,平時(shí)在簡(jiǎn)單地聊天時(shí),可以關(guān)閉這些附加功能。

7、用不同的模型解決不同的問(wèn)題

一些簡(jiǎn)單的任務(wù),像檢查語(yǔ)法、簡(jiǎn)單排版、快速翻譯這些基礎(chǔ)活,完全可以使用成本最低的 Haiku 模型。把節(jié)省下來(lái) 50%–70% 的額度,留給那些真正需要深度思考的復(fù)雜任務(wù),交給 Sonnet 或 Opus。


8、把工作分散到全天的不同時(shí)段

Claude 的使用限制是基于「滾動(dòng) 5 小時(shí)」窗口來(lái)計(jì)算的,而不是半夜統(tǒng)一清零。

如果我們?cè)缟习杨~度耗光了,下午就會(huì)很難受。建議把工作分成早、中、晚幾個(gè)時(shí)段,這樣額度會(huì)不斷自動(dòng)恢復(fù)。

9、盡量避開(kāi)高峰時(shí)段

從 2026 年 3 月 26 日開(kāi)始,如果在工作日的高峰期(太平洋時(shí)間早上 5 點(diǎn)到 11 點(diǎn))使用,同樣的請(qǐng)求會(huì)更快地消耗限額。如果把重度耗費(fèi)算力的任務(wù)挪到非高峰期(比如晚上或周末),額度會(huì)經(jīng)用得多。


這是基于 Claude 之前推出的錯(cuò)峰雙倍福利,一方面是 Anthropic 的尖峰服務(wù)器壓力大,給一些福利希望用戶在平谷時(shí)候使用 Claude,另一方面也確實(shí)給北京時(shí)間的用戶實(shí)實(shí)在在的優(yōu)惠。

目前在 Cursor 等應(yīng)用內(nèi)使用大模型,有時(shí)候還是會(huì)碰到請(qǐng)求過(guò)多的提示,尤其是在晚上的時(shí)間。

10、開(kāi)啟超額使用 (Extra Usage)作為安全網(wǎng)

如果是 Claude 付費(fèi)用戶,可以在設(shè)置里開(kāi)啟超額功能并設(shè)定預(yù)算上限。

這個(gè)方法雖然不省 Token,但可以保證當(dāng)我們的額度耗盡時(shí),系統(tǒng)會(huì)自動(dòng)切換到按量計(jì)費(fèi),防止在十萬(wàn)火急的工作關(guān)頭突然被強(qiáng)制阻斷。

無(wú)論是靠 Skills 還是我們自己調(diào)整提示詞,這些方案的底層邏輯都是要減少毫無(wú)意義的上下文重讀。從千禧年按字算錢(qián)的短信,到如今按 Token 計(jì)費(fèi)的大模型,人類追求溝通效率的本質(zhì)其實(shí)從未改變。

在使用 AI 的過(guò)程中,逐漸養(yǎng)成這些習(xí)慣,用「山頂洞人」的語(yǔ)言,只說(shuō)重點(diǎn),把 Token 用在刀刃上,或許是這個(gè) Token 堪比真金白銀的時(shí)代,最頂級(jí)的提示詞技巧。

Less is More.

我們正在招募伙伴

簡(jiǎn)歷投遞郵箱hr@ifanr.com

?? 郵件標(biāo)題「姓名+崗位名稱」(請(qǐng)隨簡(jiǎn)歷附上項(xiàng)目/作品或相關(guān)鏈接)


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
他曾擔(dān)任廣東省委書(shū)記,被調(diào)任湖北省委書(shū)記時(shí),卻被年輕人代替

他曾擔(dān)任廣東省委書(shū)記,被調(diào)任湖北省委書(shū)記時(shí),卻被年輕人代替

老范談史
2026-04-22 09:22:44
英維克成交額超150億元

英維克成交額超150億元

證券時(shí)報(bào)
2026-04-22 15:32:13
《黑袍糾察隊(duì)》三大反派山寨封面,倆主演低調(diào)完婚!

《黑袍糾察隊(duì)》三大反派山寨封面,倆主演低調(diào)完婚!

美劇組|人人影視
2026-04-22 19:37:12
烏度卡:杜蘭特被包夾帶來(lái)了機(jī)會(huì),但申京連續(xù)兩場(chǎng)打得太猶豫

烏度卡:杜蘭特被包夾帶來(lái)了機(jī)會(huì),但申京連續(xù)兩場(chǎng)打得太猶豫

懂球帝
2026-04-22 15:35:10
偉偉道來(lái) | 備戰(zhàn)

偉偉道來(lái) | 備戰(zhàn)

經(jīng)濟(jì)觀察報(bào)
2026-04-22 14:26:02
好不容易送走了葉珂,又來(lái)了趙薇!悲催的黃曉明,終究繞不過(guò)女人坑

好不容易送走了葉珂,又來(lái)了趙薇!悲催的黃曉明,終究繞不過(guò)女人坑

八卦王者
2026-04-22 09:51:07
你喝的白酒只有七百年歷史,三千年酒文化跟它半毛錢(qián)關(guān)系都沒(méi)有

你喝的白酒只有七百年歷史,三千年酒文化跟它半毛錢(qián)關(guān)系都沒(méi)有

富貴說(shuō)
2026-03-31 23:21:39
四年暴跌120億,微信是怎么“殺死”口香糖行業(yè)的?

四年暴跌120億,微信是怎么“殺死”口香糖行業(yè)的?

流蘇晚晴
2026-04-19 20:34:47
宋徽宗40歲寫(xiě)的鶴骨體,讓現(xiàn)代書(shū)法家無(wú)地自容,網(wǎng)友:比瘦金體美

宋徽宗40歲寫(xiě)的鶴骨體,讓現(xiàn)代書(shū)法家無(wú)地自容,網(wǎng)友:比瘦金體美

幸福娃3790
2025-11-07 12:26:54
東體:海港連夜就爭(zhēng)議判罰整理材料,向足協(xié)提起申訴

東體:海港連夜就爭(zhēng)議判罰整理材料,向足協(xié)提起申訴

懂球帝
2026-04-22 14:42:03
大不了關(guān)掉美國(guó)工廠!曹德旺談美國(guó)加征關(guān)稅:福耀絕不做賠本買(mǎi)賣

大不了關(guān)掉美國(guó)工廠!曹德旺談美國(guó)加征關(guān)稅:福耀絕不做賠本買(mǎi)賣

澎湃新聞
2026-04-22 17:42:34
時(shí)長(zhǎng)超三小時(shí)的6部史詩(shī)級(jí)電影,全程無(wú)尿點(diǎn),看完直接封神

時(shí)長(zhǎng)超三小時(shí)的6部史詩(shī)級(jí)電影,全程無(wú)尿點(diǎn),看完直接封神

小微看電影
2026-04-21 14:15:03
中國(guó)創(chuàng)最大軍售,印度十年難追趕上

中國(guó)創(chuàng)最大軍售,印度十年難追趕上

菠蘿欣賞家本尊
2026-04-21 14:39:43
美加州熱氣球耗盡燃料降民居后院 13乘客淡定揮手 房主:難以置信

美加州熱氣球耗盡燃料降民居后院 13乘客淡定揮手 房主:難以置信

環(huán)球趣聞分享
2026-04-22 13:40:09
21歲小伙賣豬肉幫助撫養(yǎng)6個(gè)弟妹:羨慕同齡人上大學(xué)或出去打工,希望爸媽別再生了

21歲小伙賣豬肉幫助撫養(yǎng)6個(gè)弟妹:羨慕同齡人上大學(xué)或出去打工,希望爸媽別再生了

極目新聞
2026-04-21 22:03:17
一半中國(guó)人蛋白質(zhì)沒(méi)吃夠!醫(yī)生:60歲以上人群,每天這樣吃才達(dá)標(biāo)

一半中國(guó)人蛋白質(zhì)沒(méi)吃夠!醫(yī)生:60歲以上人群,每天這樣吃才達(dá)標(biāo)

王二哥老搞笑
2026-04-22 20:12:03
再年輕也沒(méi)用!安徽40歲美女孟麗去世,死因曝光,生前化療42次

再年輕也沒(méi)用!安徽40歲美女孟麗去世,死因曝光,生前化療42次

墨印齋
2026-04-22 06:06:41
周恩來(lái)逝世后誰(shuí)當(dāng)總理,毛主席力推一人,此人婉拒:您考慮別人吧

周恩來(lái)逝世后誰(shuí)當(dāng)總理,毛主席力推一人,此人婉拒:您考慮別人吧

飛哥談史
2026-04-22 08:10:09
左小青這狀態(tài),鯊瘋了!明媚動(dòng)人,若隱若現(xiàn)

左小青這狀態(tài),鯊瘋了!明媚動(dòng)人,若隱若現(xiàn)

只要高興就好
2025-12-10 19:09:26
伊斯蘭堡全城封鎖,美伊總統(tǒng)或歷史性握手,簽署“伊斯蘭堡宣言”

伊斯蘭堡全城封鎖,美伊總統(tǒng)或歷史性握手,簽署“伊斯蘭堡宣言”

民間胡扯老哥
2026-04-21 09:04:09
2026-04-22 22:56:49
AppSo incentive-icons
AppSo
讓智能手機(jī)更好用的秘密
6299文章數(shù) 26823關(guān)注度
往期回顧 全部

科技要聞

對(duì)話梅濤:沒(méi)有視頻底座,具身智能走不遠(yuǎn)

頭條要聞

女生3萬(wàn)5買(mǎi)的比熊犬倆月后癱瘓 給犬做治療花了20多萬(wàn)

頭條要聞

女生3萬(wàn)5買(mǎi)的比熊犬倆月后癱瘓 給犬做治療花了20多萬(wàn)

體育要聞

網(wǎng)易傳媒再度簽約法國(guó)隊(duì)和阿根廷隊(duì)

娛樂(lè)要聞

蜜雪冰城泰國(guó)代言人 被扒出辱華黑歷史

財(cái)經(jīng)要聞

醫(yī)院專家號(hào)"秒空"!警方牽出黑色產(chǎn)業(yè)鏈

汽車要聞

純電續(xù)航301km+激光雷達(dá) 宋Pro DM-i飛馳版9.99萬(wàn)起

態(tài)度原創(chuàng)

旅游
藝術(shù)
本地
房產(chǎn)
公開(kāi)課

旅游要聞

春來(lái)普陀,赴一場(chǎng)繡球花的河畔之約

藝術(shù)要聞

無(wú)花不風(fēng)景

本地新聞

春色滿城關(guān)不?。座N梅浪漫盛放,吳山藏了一片四月雪

房產(chǎn)要聞

官宣!今年9月起,廣州中小學(xué)“重點(diǎn)班”將成歷史!

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版