国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

vLLM 硬核四連發(fā)!

0
分享至

大家好,我是 Ai 學(xué)習(xí)的老章

關(guān)于 vLLM,我之前寫過(guò)不少:

今天再來(lái)聊聊 vLLM 在 2026 年 3 月密集發(fā)布的四個(gè)重大更新——Semantic Router v0.2 AthenaNVIDIA Nemotron 3 Super 上線、P-EAGLE 并行推測(cè)解碼、以及Model Runner V2 架構(gòu)大重構(gòu)。這一波更新可以說(shuō)是從底層引擎到上層編排全面開(kāi)花,讓 vLLM 在 2026 年站穩(wěn)了大模型推理基座的位置。

一、Semantic Router v0.2 Athena:從路由器到系統(tǒng)大腦

第一個(gè)登場(chǎng)的是vLLM Semantic Router v0.2 Athena(雅典娜)。

如果你對(duì) Semantic Router 還不熟悉,簡(jiǎn)單說(shuō)就是——它不是一個(gè)模型,它是幫你決定"這個(gè)請(qǐng)求該交給哪個(gè)模型處理"的智能路由層。

從 v0.1 Iris 到 v0.2 Athena,這次升級(jí)幅度相當(dāng)大。

下圖是 Athena 的整體架構(gòu)概覽,可以看到從信號(hào)提取到?jīng)Q策路由再到模型選擇的完整流程:


Athena 整體架構(gòu) 1. 模型棧全面換血

Athena 把底層基座換成了新的多語(yǔ)言長(zhǎng)上下文模型mmbert-embed-32k-2d-matryoshka,支持 1800 多種語(yǔ)言、32K 上下文。在它之上構(gòu)建了一整套分類器家族mom-multilingual-class,覆蓋意圖分類、越獄檢測(cè)、PII 檢測(cè)、事實(shí)核查和反饋檢測(cè)。

下圖展示了新的跨模態(tài)嵌入模型 multi-modal-embed-small,能把文本、圖片、音頻統(tǒng)一映射到同一個(gè) 384 維語(yǔ)義空間:


跨模態(tài)嵌入模型

性能提升立竿見(jiàn)影——在 AMD MI300X 上做了一組端到端測(cè)試:

請(qǐng)求大小

ONNX+GPU 平均延遲

ONNX+CPU 平均延遲

Candle+CPU 平均延遲

~500 tokens

22 ms

853 ms

1053 ms

~2000 tokens

31 ms

1814 ms

1805 ms

~8000 tokens

128 ms

4796 ms

1830 ms

ONNX+GPU 比 CPU 方案快了 40 倍,這不是理論測(cè)試,是走完 Envoy→ext_proc→SR 的真實(shí)路由鏈路。

下圖是 Athena v0.2 的模型棧全景,可以直觀看到新舊基座的替換:


Athena 模型棧全景 2. ClawOS:讓路由器變成 AI 操作系統(tǒng)

這是 Athena 最大膽的嘗試。ClawOS 把 Semantic Router 變成了一個(gè)可以編排多個(gè) OpenClaw 智能體團(tuán)隊(duì)的操作層。你可以通過(guò)自然語(yǔ)言對(duì)話來(lái)創(chuàng)建團(tuán)隊(duì)、分配 Worker、實(shí)時(shí)協(xié)調(diào)——有點(diǎn)像給 AI 智能體搞了個(gè)"操作系統(tǒng)"。

下圖是 ClawOS Dashboard 的多智能體編排界面——可以看到團(tuán)隊(duì)管理、Worker 分配和實(shí)時(shí)聊天協(xié)作的完整界面:


ClawOS 多智能體編排界面

雖然還是實(shí)驗(yàn)性質(zhì),但方向很清晰:**未來(lái)的 AI 推理不只是"選模型",而是"管團(tuán)隊(duì)"**。

3. 零配置上手 + Dashboard 驅(qū)動(dòng)

以前搞 Semantic Router 得先寫一堆 YAML 配置?,F(xiàn)在一行命令搞定:

curl -fsSL https://vllm-semantic-router.com/install.sh | bash

裝完自動(dòng)啟動(dòng) Dashboard,進(jìn)去配一下模型就能用。下圖是全新的 Dashboard 首次啟動(dòng)引導(dǎo)界面:


Dashboard 首次啟動(dòng)引導(dǎo)

Dashboard 現(xiàn)在不光能配置路由,還能可視化拓?fù)?、回放路由決策、做評(píng)估測(cè)試。真正成了"系統(tǒng)大腦":


Dashboard 系統(tǒng)大腦 4. AMD ROCm Yes!

AMD 用戶終于不是二等角色了

Athena 把 ROCm 做成了正式支持的部署路徑:

vllm-sr serve --platform amd

下圖展示了 AMD ROCm 端到端部署路徑,包括 GPU 直通、ONNX 加速和 CK Flash Attention 支持:


AMD ROCm 部署架構(gòu)

老章說(shuō):Semantic Router 的野心越來(lái)越大了。從 v0.1 的"請(qǐng)求路由"到 v0.2 的"系統(tǒng)大腦",vLLM 開(kāi)始不只做推理引擎,而是做上層編排。對(duì)于需要跑多個(gè)模型的生產(chǎn)環(huán)境來(lái)說(shuō),這東西值得關(guān)注。
二、NVIDIA Nemotron 3 Super:為多智能體而生的 MoE 模型

NVIDIA 和 vLLM 聯(lián)手推出了Nemotron 3 Super的官方支持。先來(lái)看一組驚人的數(shù)字:

  • 總參數(shù):1200 億

  • 激活參數(shù):僅 120 億(MoE 架構(gòu),Latent MoE 讓 4 個(gè)專家的推理成本等于 1 個(gè))

  • 上下文窗口:100 萬(wàn) token

  • 支持 GPU:B200、H100、DGX Spark、RTX 6000

下圖是 Artificial Analysis 的評(píng)測(cè)對(duì)比,Nemotron 3 Super 在同級(jí)別開(kāi)源模型中智能水平和開(kāi)放度都領(lǐng)先:


Nemotron 3 Super Artificial Analysis 對(duì)比 為什么說(shuō)它是"為多智能體而生"?

多智能體系統(tǒng)有兩個(gè)老大難問(wèn)題:

  1. 上下文爆炸:多個(gè)智能體之間不停傳遞歷史記錄、工具輸出和推理步驟,token 越滾越大。Nemotron 3 Super 用 100 萬(wàn) token 上下文窗口直接暴力解決——?dú)v史全裝得下,目標(biāo)漂移大幅減少。

  2. 推理稅:每個(gè)子任務(wù)都用大模型會(huì)又慢又貴。MoE 架構(gòu)只激活 120 億參數(shù),吞吐量比前代提升最高 5 倍,NVFP4 精度在 Blackwell 上比 H100 的 FP8 還快 4 倍,且精度幾乎無(wú)損。

下圖展示了 Nemotron 3 Super 在效率和精度兩個(gè)維度上的領(lǐng)先位置:


Nemotron 3 Super 效率 vs 精度 快速上手

安裝 vLLM 后一條命令就能部署:

pip install vllm==0.17.1


# BF16 精度,4 卡 H100 配置
vllm serve nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-BF16 \
--kv-cache-dtype fp8 \
--tensor-parallel-size 4 \
--trust-remote-code \
--served-model-name nemotron \
--enable-auto-tool-choice \
--tool-call-parser qwen3_coder \
--reasoning-parser nemotron_v3

然后用標(biāo)準(zhǔn) OpenAI SDK 就能調(diào)用:

from openai import OpenAI
client = OpenAI(base_url="http://127.0.0.1:5000/v1", api_key="null")


resp = client.chat.completions.create(
model="nemotron",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Give me 3 bullet points about vLLM"}
],
temperature=0.7,
max_tokens=256,
)
print("Reasoning:", resp.choices[0].message.reasoning_content,
"\nContent:", resp.choices[0].message.content)

值得注意的是,Nemotron 3 Super 還支持Thinking Budget,可以精細(xì)控制推理時(shí)的 token 開(kāi)銷——不是所有任務(wù)都需要深度思考,簡(jiǎn)單任務(wù)省著點(diǎn)用。

老章說(shuō):Nemotron 3 Super 的定位很精準(zhǔn)——不追求最強(qiáng)單點(diǎn)能力,而是在"效率×精度"的帕累托前沿找到最優(yōu)解。120B 總參數(shù)只激活 12B,配合百萬(wàn) token 上下文,就是為多智能體工作流量身定制的。如果你在搞 Agent 編排、Tool-Calling Pipeline,這個(gè)模型值得認(rèn)真評(píng)估。
三、P-EAGLE:推測(cè)解碼再提速,一次前向搞定所有草稿 token

推測(cè)解碼(Speculative Decoding)是目前加速大模型推理最有效的技術(shù)方向之一。EAGLE 系列是這個(gè)領(lǐng)域的 SOTA 方法,vLLM 也一直在深度集成。但 EAGLE 有一個(gè)繞不開(kāi)的瓶頸——草稿生成是自回歸的。你想預(yù)測(cè) K 個(gè) token,就得跑 K 次前向傳播。當(dāng)你想預(yù)測(cè)得更多的時(shí)候,草稿模型本身的延遲反而成了新的瓶頸。

先看效果——下圖是 P-EAGLE 在 NVIDIA B200 上 SPEED-BENCH 的性能對(duì)比,一眼就能看出差距:


P-EAGLE SPEED-BENCH 性能對(duì)比

P-EAGLE 的解決方案非常直接:把自回歸草稿生成改成并行生成——一次前向傳播,輸出全部 K 個(gè)草稿 token。

怎么做到的?

下圖是 P-EAGLE 的架構(gòu)原理圖,左側(cè)是傳統(tǒng) EAGLE 的自回歸方式,右側(cè)是 P-EAGLE 的并行方式:


P-EAGLE 架構(gòu)原理

P-EAGLE 在預(yù)填充階段和普通 EAGLE 一樣,捕獲目標(biāo)模型的隱藏狀態(tài)。關(guān)鍵在第二步——草稿生成階段:

  • 對(duì)于下一個(gè) token(NTP),輸入和標(biāo)準(zhǔn) EAGLE 完全一樣

  • 對(duì)于第 2 到第 K 個(gè)位置(MTP),輸入的 token embedding 和隱藏狀態(tài)還不存在,怎么辦?P-EAGLE 引入了兩個(gè)可學(xué)習(xí)參數(shù):共享的 mask token embedding 和共享的隱藏狀態(tài)h_shared,作為占位符

所有位置一起通過(guò) N 層 Transformer,一次性輸出所有草稿 token。

長(zhǎng)序列訓(xùn)練的挑戰(zhàn)

訓(xùn)練 P-EAGLE 面臨的最大挑戰(zhàn)是內(nèi)存。下圖展示了 GPT-OSS 120B 在 UltraChat 數(shù)據(jù)集上的序列長(zhǎng)度分布——中位數(shù) 3891 token,P90 達(dá)到 10800 token:


序列長(zhǎng)度分布

訓(xùn)練 K 個(gè)并行組在長(zhǎng)度為 N 的序列上,會(huì)產(chǎn)生 N×K 個(gè)位置。N=8192、K=8 時(shí),一個(gè)訓(xùn)練樣本就有 65536 個(gè)位置,注意力矩陣要 8GB。P-EAGLE 通過(guò)序列分區(qū)算法解決了這個(gè)問(wèn)題。

實(shí)測(cè)效果

三組基準(zhǔn)測(cè)試的詳細(xì)結(jié)果如下:

MT-Bench 上不同并發(fā)下的吞吐量對(duì)比,P-EAGLE 在所有并發(fā)度上都領(lǐng)先:


MT-Bench 吞吐量對(duì)比

HumanEval 代碼合成任務(wù),P-EAGLE 的優(yōu)勢(shì)在高并發(fā)時(shí)依然明顯:


HumanEval 吞吐量對(duì)比

SPEED-Bench 長(zhǎng)文本代碼生成任務(wù),P-EAGLE 在 c=1 時(shí)加速比高達(dá) 1.69x:


Speed-Bench 吞吐量對(duì)比

一個(gè)很有意思的發(fā)現(xiàn):P-EAGLE 在 K=7 時(shí)達(dá)到峰值性能,而 EAGLE-3 在 K=3 時(shí)就封頂了。因?yàn)椴⑿猩刹还?K 多大,前向傳播次數(shù)都是 1 次——越深的推測(cè),P-EAGLE 的優(yōu)勢(shì)越大。

接受長(zhǎng)度(AL)的對(duì)比更能說(shuō)明問(wèn)題。在 K=7 時(shí):

  • HumanEval:P-EAGLE3.94vs EAGLE-3 3.03(高 30%)

  • SPEED-Bench:3.38vs 2.59(高 31%)

  • MT-Bench:3.70vs 3.27(高 13%)

使用方法

只需要兩步:

  1. 下載(或訓(xùn)練)并行版草稿頭,HuggingFace 上已有 GPT-OSS 120B、GPT-OSS 20B、Qwen3-Coder 30B 的預(yù)訓(xùn)練版本

  2. 加一個(gè)配置參數(shù):

vllm serve openai/gpt-oss-20b \
--speculative-config '{"method": "eagle3", "model": "amazon/gpt-oss-20b-p-eagle", "num_speculative_tokens": 5, "parallel_drafting": true}'

就這么簡(jiǎn)單,"parallel_drafting": true一行搞定。

老章說(shuō):P-EAGLE 的思路很優(yōu)雅——既然草稿模型的序列生成是瓶頸,那就不序列生成了。用可學(xué)習(xí)占位符+并行 Transformer 一次搞定。代價(jià)是需要重新訓(xùn)練草稿頭,但 Amazon 已經(jīng)放出了多個(gè)預(yù)訓(xùn)練版本。對(duì)于生產(chǎn)環(huán)境中追求極致延遲的場(chǎng)景,這個(gè)升級(jí)非常值得嘗試。
四、Model Runner V2:vLLM 核心引擎的徹底重構(gòu)

如果前面三個(gè)更新是"在 vLLM 之上做加法",那 Model Runner V2(MRV2)就是對(duì) vLLM 核心引擎的徹底重寫。

這是自去年 vLLM V1 發(fā)布以來(lái)最大的架構(gòu)升級(jí)。官方毫不客氣地說(shuō):V1 的 model runner 積累了大量技術(shù)債,持久化狀態(tài)和模型輸入耦合、異步調(diào)度是后來(lái)打的補(bǔ)丁、CPU 端做了太多本該 GPU 干的活、代碼變得越來(lái)越難維護(hù)。

MRV2 圍繞三個(gè)核心原則重建:模塊化、GPU 原生、異步優(yōu)先。

1. 更好的持久化批處理 + GPU 原生輸入準(zhǔn)備

V1 直接把持久化狀態(tài)當(dāng)作模型輸入,導(dǎo)致布局約束和復(fù)雜的狀態(tài)管理。下圖展示了 V1 中請(qǐng)求順序與 Block Table 布局緊耦合的問(wèn)題:


V1 持久化批處理設(shè)計(jì)

MRV2解耦了持久化請(qǐng)求狀態(tài)和每步輸入張量——每個(gè)活躍請(qǐng)求在固定大小的狀態(tài)表中有穩(wěn)定的行,每步按當(dāng)前順序從中提取輸入。下圖可以清晰看到新設(shè)計(jì)如何通過(guò) gather 操作生成正確排序的輸入:


MRV2 持久化批處理設(shè)計(jì)

更關(guān)鍵的是,輸入準(zhǔn)備移到了 GPU 上,用 Triton Kernel 完成。input_ids、positionsquery_start_loc、seq_lens這些張量現(xiàn)在直接在 GPU 上構(gòu)建,不再走 CPU。

2. 異步優(yōu)先設(shè)計(jì)

V1 的異步調(diào)度是"后來(lái)加上去的",MRV2 把它作為核心設(shè)計(jì)約束——目標(biāo)是 CPU 和 GPU 之間零同步。

下圖是標(biāo)準(zhǔn)的異步調(diào)度時(shí)序,CPU 在 step N+1 做準(zhǔn)備的同時(shí) GPU 執(zhí)行 step N:


異步調(diào)度時(shí)序

最直接的好處:異步調(diào)度和推測(cè)解碼終于可以干凈地共存了。下圖展示了 MRV2 如何通過(guò) GPU 端輸入準(zhǔn)備直接消費(fèi)拒絕采樣結(jié)果,消除所有同步點(diǎn):


MRV2 推測(cè)解碼異步優(yōu)化 3. Triton 原生采樣器

MRV2 重寫了采樣邏輯:

  • Gumbel-Max 采樣核,避免顯式 softmax 計(jì)算

  • 更高效的 top-k logprobs,先找 top-k logits 再算 logprobs

  • 更節(jié)省內(nèi)存的 prompt logprobs,支持單個(gè) prompt 內(nèi)的分塊處理

  • 更好的推測(cè)解碼兼容性

4. 更強(qiáng)的模塊化

V1 的gpu_model_runner.py已經(jīng)膨脹到6700 行。MRV2 引入了ModelState抽象接口:

class ModelState(ABC):
def add_request(self, ...):
def remove_request(self, ...):
def get_mm_embeddings(self, ...):
def prepare_inputs(self, ...):
def prepare_attn(self, ...):
def prepare_dummy_inputs(self, ...):
...

把模型特定邏輯(多模態(tài)嵌入、額外輸入、注意力元數(shù)據(jù))和通用執(zhí)行路徑分離。最大的文件現(xiàn)在控制在1300 行以內(nèi)

這對(duì) DeepSeek、Qwen、Kimi 等不同模型系列的開(kāi)發(fā)者來(lái)說(shuō)太重要了——你只需要關(guān)心自己模型的ModelState,不用讀幾千行無(wú)關(guān)代碼。

性能實(shí)測(cè)

用小模型 Qwen3-0.6B 在 GB200 上跑(故意用小模型放大 CPU 開(kāi)銷的影響),吞吐量直接從 16K 飆到 25K:


MRV2 吞吐量提升 56.2%

推測(cè)解碼場(chǎng)景:4 卡 GB200 + GLM-4.7-FP8 + MTP=1,TPOT 降低 6.3%:


MRV2 TPOT 對(duì)比

提升來(lái)自零同步設(shè)計(jì)——推測(cè)解碼啟用后 CPU-GPU 同步點(diǎn)完全消除。

現(xiàn)在就能試

export VLLM_USE_V2_MODEL_RUNNER=1
# 然后正常使用 vLLM,無(wú)需改任何代碼

不過(guò)需要注意,MRV2 目前還是實(shí)驗(yàn)性質(zhì),v0.18.0 中有幾項(xiàng)功能暫不支持:線性注意力模型(Qwen3.5、Nemotron 3 Super)、Eagle/Eagle3/MTP 之外的推測(cè)解碼方法、LoRA 等。

老章說(shuō):MRV2 是一次"傷筋動(dòng)骨"的重構(gòu),但方向完全正確。把輸入準(zhǔn)備搬到 GPU、實(shí)現(xiàn)零同步異步調(diào)度、引入 ModelState 解耦——這些改進(jìn)不是"錦上添花",而是為未來(lái)異構(gòu)模型+推測(cè)解碼+多模態(tài)并存的復(fù)雜場(chǎng)景打地基。56% 的吞吐提升只是開(kāi)始,隨著更多特性遷移到 MRV2,收益還會(huì)繼續(xù)釋放。
總結(jié):vLLM 2026 年 3 月全景

更新

發(fā)布日期

一句話概括

Semantic Router v0.2 Athena

3月10日

從路由器進(jìn)化成多模型編排的系統(tǒng)大腦

Nemotron 3 Super

3月11日

120B 總參/12B 激活,為多智能體量身打造的 MoE 模型

P-EAGLE

3月13日

一次前向搞定所有草稿 token,推測(cè)解碼不再有序列瓶頸

Model Runner V2

3月24日

vLLM 核心引擎徹底重構(gòu),GPU 原生+零同步+強(qiáng)模塊化

這四連發(fā)放在一起看,vLLM 的戰(zhàn)略意圖非常清晰:

  • 底層——MRV2 重建引擎地基,為更復(fù)雜的推理需求做準(zhǔn)備

  • 加速——P-EAGLE 在推測(cè)解碼這個(gè)關(guān)鍵優(yōu)化方向上再突破天花板

  • 模型——Nemotron 3 Super 補(bǔ)全高效 MoE 模型的生態(tài)位

  • 上層——Semantic Router Athena 開(kāi)始做多模型編排和智能體調(diào)度

從"推理引擎"到"推理平臺(tái)",vLLM 正在完成一次從工具到生態(tài)的躍遷。

  • Semantic Router v0.2 Athena:https://vllm.ai/blog/v0.2-vllm-sr-athena-release

  • Nemotron 3 Super:https://vllm.ai/blog/nemotron-3-super

  • P-EAGLE:https://vllm.ai/blog/p-eagle

  • Model Runner V2:https://vllm.ai/blog/mrv2

  • vLLM 官網(wǎng):https://vllm.ai

  • Semantic Router GitHub:https://github.com/vllm-project/semantic-router

制作不易,如果這篇文章覺(jué)得對(duì)你有用,可否點(diǎn)個(gè)關(guān)注。給我個(gè)三連擊:點(diǎn)贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個(gè),謝謝你看我的文章,我們下篇再見(jiàn)!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
醪糟再次被關(guān)注!醫(yī)生發(fā)現(xiàn):高血脂患者喝醪糟,不用多久4大變化

醪糟再次被關(guān)注!醫(yī)生發(fā)現(xiàn):高血脂患者喝醪糟,不用多久4大變化

芹姐說(shuō)生活
2026-04-19 15:52:53
澆小麥的地下水變成血紅色,誰(shuí)來(lái)守護(hù)我們的生存底線?

澆小麥的地下水變成血紅色,誰(shuí)來(lái)守護(hù)我們的生存底線?

記錄劉杰
2026-04-19 21:39:47
伊朗籍中國(guó)貨輪!在公海被美軍扣押后,不到24小時(shí),中方表態(tài)

伊朗籍中國(guó)貨輪!在公海被美軍扣押后,不到24小時(shí),中方表態(tài)

離離言幾許
2026-04-20 22:15:30
19歲女孩挪用自家1700萬(wàn)當(dāng)“榜一大姐” 親爹帶女兒自首:坐牢才有可能追回錢款

19歲女孩挪用自家1700萬(wàn)當(dāng)“榜一大姐” 親爹帶女兒自首:坐牢才有可能追回錢款

封面新聞
2026-04-20 17:48:14
日本將地震震級(jí)調(diào)整至7.5級(jí)

日本將地震震級(jí)調(diào)整至7.5級(jí)

界面新聞
2026-04-20 16:30:33
這跟不穿有啥區(qū)別?Rose真空上陣、穿鏤空透視,卻被中國(guó)女星搶鏡

這跟不穿有啥區(qū)別?Rose真空上陣、穿鏤空透視,卻被中國(guó)女星搶鏡

天天熱點(diǎn)見(jiàn)聞
2026-04-18 08:09:59
將對(duì)決趙心童!39歲丁俊暉爆發(fā):10-5淘汰世界第25 連續(xù)2年進(jìn)16強(qiáng)

將對(duì)決趙心童!39歲丁俊暉爆發(fā):10-5淘汰世界第25 連續(xù)2年進(jìn)16強(qiáng)

風(fēng)過(guò)鄉(xiāng)
2026-04-20 19:41:28
伊朗萬(wàn)噸大船沖向美軍封鎖線,特朗普暴怒!美官員直接點(diǎn)中國(guó)的名

伊朗萬(wàn)噸大船沖向美軍封鎖線,特朗普暴怒!美官員直接點(diǎn)中國(guó)的名

二大爺觀世界
2026-04-20 20:36:50
被蘋果、華為干倒的諾基亞,又殺回來(lái)了!

被蘋果、華為干倒的諾基亞,又殺回來(lái)了!

大佬灼見(jiàn)
2026-04-19 10:28:53
余承東:我們成本扛不住了,希望大家早點(diǎn)購(gòu)買

余承東:我們成本扛不住了,希望大家早點(diǎn)購(gòu)買

映射生活的身影
2026-04-20 21:53:17
歐爾班下臺(tái),這個(gè)歐洲國(guó)家卻可能再次擁抱一位親俄領(lǐng)導(dǎo)人

歐爾班下臺(tái),這個(gè)歐洲國(guó)家卻可能再次擁抱一位親俄領(lǐng)導(dǎo)人

上觀新聞
2026-04-20 15:58:42
狂跌90%!造假成風(fēng),中產(chǎn)追捧的網(wǎng)紅飲品淪為“智商稅”!

狂跌90%!造假成風(fēng),中產(chǎn)追捧的網(wǎng)紅飲品淪為“智商稅”!

青眼財(cái)經(jīng)
2026-04-20 15:03:39
“按按鈕就行”:官媒的“大國(guó)工匠”是如何失誤的?

“按按鈕就行”:官媒的“大國(guó)工匠”是如何失誤的?

虔青
2026-04-20 13:25:48
人心散了!34分慘敗引發(fā)內(nèi)訌,趙繼偉發(fā)社媒表達(dá)不滿,怒噴隊(duì)友

人心散了!34分慘敗引發(fā)內(nèi)訌,趙繼偉發(fā)社媒表達(dá)不滿,怒噴隊(duì)友

南海浪花
2026-04-20 23:37:05
“愛(ài)奇藝瘋了”沖上熱搜第一,CEO獨(dú)家回應(yīng)

“愛(ài)奇藝瘋了”沖上熱搜第一,CEO獨(dú)家回應(yīng)

第一財(cái)經(jīng)資訊
2026-04-20 17:24:18
4月21日精選熱點(diǎn):光纖價(jià)格暴漲650%  這3家處于底部龍頭要起爆

4月21日精選熱點(diǎn):光纖價(jià)格暴漲650% 這3家處于底部龍頭要起爆

元芳說(shuō)投資
2026-04-20 21:31:20
為什么全國(guó)人民都在拒接電話?

為什么全國(guó)人民都在拒接電話?

黯泉
2026-04-18 17:00:56
77歲的牛群:折騰半生傾家蕩產(chǎn),晚年被美國(guó)畢業(yè)的兒子悉心照料

77歲的牛群:折騰半生傾家蕩產(chǎn),晚年被美國(guó)畢業(yè)的兒子悉心照料

她時(shí)尚丫
2026-04-19 21:41:30
日本一觀光直升機(jī)墜入火山口,2名中國(guó)臺(tái)灣游客與1名日本機(jī)長(zhǎng)失蹤已3月,日媒稱生還可能性極低,擬動(dòng)用無(wú)人機(jī)重機(jī)具進(jìn)入火口作業(yè)

日本一觀光直升機(jī)墜入火山口,2名中國(guó)臺(tái)灣游客與1名日本機(jī)長(zhǎng)失蹤已3月,日媒稱生還可能性極低,擬動(dòng)用無(wú)人機(jī)重機(jī)具進(jìn)入火口作業(yè)

大風(fēng)新聞
2026-04-20 15:11:31
小學(xué)生拒絕借車遭毆打搜家,一名施暴者及家長(zhǎng)上門道歉,教育局稱校園欺凌專干介入,警方:“入室搶劫案”仍在調(diào)查

小學(xué)生拒絕借車遭毆打搜家,一名施暴者及家長(zhǎng)上門道歉,教育局稱校園欺凌專干介入,警方:“入室搶劫案”仍在調(diào)查

極目新聞
2026-04-20 16:20:59
2026-04-21 06:03:00
Ai學(xué)習(xí)的老章 incentive-icons
Ai學(xué)習(xí)的老章
Ai學(xué)習(xí)的老章
3339文章數(shù) 11138關(guān)注度
往期回顧 全部

科技要聞

HUAWEI Pura X Max發(fā)布 售價(jià)10999元起

頭條要聞

19歲女孩挪用自家1700萬(wàn)當(dāng)"榜一大姐" 親爹帶女兒自首

頭條要聞

19歲女孩挪用自家1700萬(wàn)當(dāng)"榜一大姐" 親爹帶女兒自首

體育要聞

阿森納已拼盡全力,但你早干嘛去了...

娛樂(lè)要聞

《八千里路云和月》田家泰暗殺

財(cái)經(jīng)要聞

利潤(rùn)暴跌7成,字節(jié)到底在做什么

汽車要聞

把天門山搬進(jìn)廠?開(kāi)仰望U8沖上45度坡的那刻 我腿軟了

態(tài)度原創(chuàng)

家居
教育
親子
健康
軍事航空

家居要聞

自然慢調(diào) 慢享時(shí)光

教育要聞

“真大方,還拍給外人看”,女兒蹭枕頭,家長(zhǎng)放網(wǎng)上,網(wǎng)友卻毛了

親子要聞

居家防夾刻不容緩,多名兒童在家玩鬧時(shí)手指被夾斷

干細(xì)胞抗衰4大誤區(qū),90%的人都中招

軍事要聞

特朗普:美艦向伊朗貨船開(kāi)火炸出個(gè)洞

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版