国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網易首頁 > 網易號 > 正文 申請入駐

Opus 4.7 被罵翻、Claude Code 還把模型越帶越笨:Anthropic 的野心,輸給了拉胯工程

0
分享至


整理 | 褚杏娟

Anthropic 最近幾個月原本處在一段少見的高光期。

一方面,Claude Code 和 Claude Cowork 的能力提升,明顯拉高了外界對 Anthropic 工程能力的評價;另一方面,Claude 一直是用戶心中“最會寫”的模型之一。甚至在與美國國防部相關爭議引發(fā)關注后,Claude 一度沖上 App Store 榜首,熱度和品牌勢能都達到新高。

但這種勢頭,很快被 Opus 4.7 的發(fā)布打斷了。

在 Opus 4.6 已經被不少用戶質疑被“削弱”之后,原本承擔“修復口碑”期待的 Opus 4.7,并沒有帶來明顯的升級感。相反,越來越多用戶反饋稱,新版本不僅沒有更強,反而在準確性、穩(wěn)定性、成本控制和實際可用性上暴露出更多問題。不少用戶并沒有感受到“升級的快樂”,反而因各種糟糕體驗想回到 4.5 版本。

花更多的錢,換更差的體驗

發(fā)布至今,社交媒體上已經有不少關于 Opus 4.7“翻車”的案例。

一條 Reddit 帖子標題為“Claude Opus 4.7 是一次嚴重退步,而不是升級”,獲得了 2300 個點贊;而在 X 上,有用戶表示 4.7 并沒有比 4.6 更好,這條內容獲得了 1.4 萬點贊。這樣的吐槽帖不在少數。


一些問題看起來甚至很基礎。

在一個常見但非正式的 AI 測試中,Opus 4.7 甚至表示“strawberry”這個單詞里有兩個字母 P。還有用戶截圖顯示,模型承認自己沒有進行交叉驗證,因為“有點懶”。還有用戶發(fā)現(xiàn),Opus 4.7 在幫他們修改簡歷時,會“編造”新的學?;蛐帐稀2簧偃酥毖?,這一版本“變笨了”。


經典的洗車問題,Opus 4.7 作為公認的頂尖模型也沒有答對

有人猜測問題出在模型的推理機制上。Anthropic 引入了一個新的“自適應推理”功能,讓模型自行決定何時進行更長或更短時間的思考。但有用戶表示,他們“根本沒法讓 Opus 4.7 好好思考”,甚至認為這個機制“削弱了性能”。

對此,Claude Code 的作者 Boris Cherny 回應稱:“這種說法不準確。自適應思考讓模型自行決定何時思考,整體效果更好?!?/p>

不過,在一些具體問題上,Anthropic 也承認還有改進空間。例如,有用戶在 Claude 官網反饋自適應推理的問題后,一名產品經理回應稱,團隊正在“加速內部調優(yōu),很快會有更新”。


《Pragmatic Engineer》作者 Gergely Orosz 曾曬出截圖,顯示 Claude 不知道 OpenClaw 是什么。Cherny 詢問他是否開啟了“網頁搜索”功能,結果并沒有開啟,但 Orosz 表示自己此前也從未動過這個設置。Orosz 還指出,這個模型“出乎意料地具有對抗性”,最終“放棄使用”,回到了 Opus 4.6。

還有用戶反饋,模型會拒絕完成一些編碼任務,或者對簡單圖片觸發(fā)安全警告。


Opus 4.7 的另一個爭議點是成本。

新模型采用了新的 tokenizer,這意味著同樣的輸入,token 消耗大約會比舊模型高出 1.0–1.35 倍。有用戶表示,在發(fā)布后,Claude Pro 甚至問三次問題就會觸及上限。還有人發(fā)現(xiàn),在 GitHub Copilot 中,Opus 4.7 的價格一度達到 7.5 倍溢價(直到 4 月底)。

“那我還是先用 4.6 吧。”有用戶這樣評論。隨后,Cherny 表示,Anthropic 已提高訂閱用戶的使用額度作為補償。


一些對 Opus 4.7 不滿的用戶試圖回到舊版本,例如 4.5,但卻發(fā)現(xiàn)它已經下線,Reddit 上甚至出現(xiàn)了大量自稱“心碎”“哀悼”的 4.5 用戶。

這種情況并不罕見。此前 OpenAI 下線 GPT-4o 時,也曾引發(fā)類似的用戶反彈,甚至有用戶開始“討價還價”:“請恢復 Opus 4.5 的支持,”一位 Reddit 用戶在 Anthropic 帖子下留言,“4.6 用不了,4.7 的消耗像核反應堆一樣。”

對于這個問題,Anthropic 并未作出回應。

不過,也并不是所有用戶都持負面態(tài)度。有用戶表示:“Opus 4.7 的 token 消耗確實離譜,但它真的很強。”一些業(yè)內人士表達了認可。創(chuàng)業(yè)者 Jeremy Howard 稱,這是“第一個真正‘理解我在做什么’的模型”;YC CEO Garry Tan 表示自己在 OpenClaw 中使用它;Cursor 設計師 Ryo Lu 則用它來做規(guī)劃。

面對爭議,Anthropic 也在持續(xù)調整。“昨天大家首次試用 Opus 4.7 時可能遇到的許多 bug 現(xiàn)在都已修復,”Anthropic 員工 Alex Albert 周五寫道?!案兄x大家的耐心等待?!?/p>


但到目前為止,用戶體驗并沒有明顯改善,吐槽聲依然不止。

一天前,有用戶“MurkyFlan567”曬出了分別用 Opus 4.7 和 4.6 編程 3 天后的實際對比:


在該用戶的使用場景中,Opus 4.7 一次就做對的比例比 4.6 更低,大概是 74.5%,而 4.6 是 83.8%,同時每次修改平均需要的重試次數幾乎翻倍。

Opus 4.7 每次調用生成的內容也明顯更多,大約是 800 tokens,相比之下 4.6 是 372 tokens,這也讓成本明顯更高:單次調用成本約 0.185 美元,4.6 是 0.112 美元。

如果按任務類型拆分來看,4.7 在編碼和調試上的表現(xiàn)都更弱:編碼的一次成功率從 84.7% 降到 75.4%,調試從 85.3% 降到 76.5%。該用戶表示,4.7 每輪調用使用的工具更少,幾乎不怎么把任務分配給子 agent。目前不確定這是風格變化,還是樣本量導致的偏差。

是 Claude Code 把模型帶笨了?

對于使用 Claude Code 的開發(fā)者來說,感受更加明顯。

有開發(fā)者反饋,Claude Code 對原本能夠完成的任務變得更加遲疑,甚至會在電腦排障、應用調試這類相鄰任務上直接以“超出專業(yè)范圍”為由拒絕繼續(xù),而 OpenAI 的 Codex 卻能在幾分鐘內解決同類問題。

而根據 Margin Lab 的內部基準測試結果,自 3 月以來,相關模型的加權平均成績從 57% 下降至 55%,且呈現(xiàn)持續(xù)下滑趨勢。測試方式是用 Claude Code 跑 SWE-bench,這個結果被一些人視為 Claude 編程能力在真實工作流中持續(xù)走弱的信號。

更激烈的批評來自 AMD 的 AI 團隊。其報告基于 6800 份 Claude Code 會話文件、23.5 萬次工具調用和超過 1.7 萬個 thinking blocks 的量化分析,結論是,Anthropic 推出的“思考內容遮蔽”(thinking content redaction)與復雜長會話工程任務中的質量回退高度相關。報告認為,隨著 thinking 被逐步隱藏,模型不只是對用戶“變得更不透明”,其內部思考深度本身也在下降,相關指標顯示 thinking 長度較此前下降了 73%。


這直接帶來一系列行為變化。報告顯示,原本用于防止模型偷懶的機制,從幾乎不觸發(fā),上升到每天約 10 次;用戶在提示詞中表現(xiàn)出的挫敗感顯著增加;模型逃避責任、需要糾正的情況明顯翻倍。

更重要的是,Claude Code 的工作方式正在從“先研究再編輯”轉向“先動手修改再說”。此前模型的 read-to-edit 比例約為 6.6,即讀取行為遠多于編輯行為,如今該比例已降至約 2,說明模型更少閱讀上下文,卻更頻繁直接改動代碼。

在很多開發(fā)者看來,這種變化比“模型偶爾答錯”更危險,因為它意味著 Claude Code 正在從一個謹慎的工程助手,變成一個更沖動、更容易誤改的自動化系統(tǒng)。

“官方名義上都是為了防止蒸餾,他們確實‘做得很好’。但問題在于,一個已經被搞得像做了腦葉切除手術一樣的模型,還有誰會想偷它?”知名博主 Theo - t3?gg 評價道。

Theo - t3?gg 認為,讓 Claude 全產品線持續(xù)變笨、變懶的原因是不單純在模型上,而在于 Anthropic 的工程實現(xiàn)能力沒有跟上。

Anthropic 工程能力不過關


Theo - t3?gg 認為,大量回退并不一定來自模型參數本身,而可能來自 harness,也就是提示詞、系統(tǒng)規(guī)則、工具調用邏輯和產品封裝層的綜合設計。

按照這一說法,用戶發(fā)給 Claude Code 的并不只是自然語言請求,還包括系統(tǒng)提示、可用工具列表、產品功能說明以及一整套額外上下文。任何一層設計不當,都會讓模型表現(xiàn)變差。

一個典型例子是,Claude Code 強制要求模型在編輯文件前必須先讀取文件內容。但在一些場景中,模型搜索到了文件,卻因為 harness 不把“搜索”視為“讀取”,導致更新操作連續(xù)失敗,不得不額外發(fā)起讀取請求后再重試。這種機制不僅浪費 token、增加 API 調用次數,也把無意義的失敗步驟寫進了上下文,進一步污染了后續(xù)推理過程。

類似問題在第三方基準測試中也被放大。Matt Mau 的測試結果顯示,同樣的模型放進不同 harness,表現(xiàn)會明顯不同。其中,Opus 在 Claude Code 中的表現(xiàn)比在 Cursor 中低約 15%。在 Terminal Bench 上,Claude Code 也是使用 Opus 時表現(xiàn)最差的 harness 之一,得分僅 58%,而 Forge Code、Cappy 等其他 harness 可達到 75% 至 82%。


除了 harness,API 層也被認為是重要變量,其中包括內容過濾更激進、請求路由變化、工具調用鏈條更復雜,以及 tokenizer 的重大調整。

Anthropic 已確認,Opus 4.7 使用了新的 tokenizer,官方稱其可以改善文本處理方式,但代價是相同輸入會映射為更多 token,大約增加 1.0 到 1.35 倍。另有實測認為,真實增幅可能更接近 1.45 至 1.47 倍,尤其在技術文檔和 Claude MD 文件這類場景中更為明顯。

Theo - t3?gg 分析稱,這意味著,在 Claude Code 這類高度依賴長上下文的產品中,開發(fā)者將更快撞上 token 限制,同時上下文本身也會變得更臃腫。由于模型處理的信息量被放大,歷史中的無效內容、失敗調用和額外系統(tǒng)提示更容易堆積,進一步加劇所謂的“上下文腐爛”(context rot)。這種調整本身就足以顯著影響用戶體驗,而更具爭議的一點是,Anthropic 竟然在 4.7 這種小版本更新中引入了如此大幅度的 tokenizer 變化。

底層算力調度,則是第三個被反復提及的變量。

與許多 AI 公司不同,Anthropic 并未完全押注 Nvidia GPU,而是同時使用 AWS 的 Trainium、Google TPU 以及部分 Nvidia GPU。這意味著,同一位用戶在同一段 Claude Code 會話中的不同工具調用,可能被分發(fā)到不同云平臺、不同芯片架構上執(zhí)行。由于每次工具調用后都會重新發(fā)起 API 請求,復雜任務往往不是一次推理完成,而是由一連串請求拼接而成。理論上,這使得同一個任務流程中,不同步驟可能面對不同的服務環(huán)境,從而帶來不同質量波動。

這一點也與 Anthropic 去年 9 月的一份事故復盤形成呼應。那份技術報告披露,去年 8 月至 9 月初,Claude 曾因三個基礎設施 bug 發(fā)生間歇性質量退化。其中包括上下文窗口路由錯誤、負載均衡改動放大問題、輸出損壞,以及 top-k 計算異常。引人關注的一點是,一部分 Sonnet 請求曾被錯誤路由到“100 萬 token 上下文版本”服務器,而 Anthropic 自己也承認,這一版本在非超長上下文場景中的表現(xiàn)更差。

這讓外界對 Anthropic 近期默認推廣 100 萬 token 上下文窗口的策略更加敏感。根據 Theo - t3?gg 推測,Anthropic 已將 Opus 4.6 和 Sonnet 4.6 的完整 100 萬上下文窗口設為更普遍的默認能力,并且取消了長上下文額外溢價。

他帶有陰謀論色彩地解釋道,如果 Anthropic 想把部分流量從 Nvidia GPU 轉向 AWS Trainium 和 Google TPU,那么推廣 100 萬上下文窗口,可能正好是一個有效的流量引導手段。因為更大的上下文窗口通常意味著不同部署方式、不同硬件需求,也可能對應不同質量表現(xiàn)。

雖然這一判斷缺乏直接證據,但 Theo - t3?gg 指出,Claude Code 用戶如今很難直接在常規(guī)界面里切換上下文窗口大小,而禁用 100 萬上下文通常需要手動改環(huán)境變量。這讓“默認更大的上下文,帶來默認更差的體驗”成為不少開發(fā)者的切實感受。

通過上述分析,Theo - t3?gg 得出結論:開發(fā)者感知到的“Claude 變笨”,可能并非單一原因導致,而是多層問題疊加的結果。這里面既有用戶自身預期不斷上升后的心理落差,也有真實的工程問題,包括 harness 污染上下文、API 過濾和路由策略變更、thinking redaction 影響長會話推理、tokenizer 改動放大 token 消耗,以及多硬件平臺部署帶來的不確定性等問題。

“你就是被坑了”,谷歌來搶市場

Theo - t3?gg 指出,相比之下,OpenAI 及 Codex 并未遭遇同等規(guī)模、同等持續(xù)性的“變笨”爭議。

他曾詢問開發(fā)者是否明顯感受到 Codex 或 OpenAI 模型也存在類似退化,多數反饋認為偶爾有短時波動,但沒有像 Anthropic 這樣長期、系統(tǒng)性的持續(xù)討論。甚至 OpenAI 方面還明確表示,他們確實會公開某些接口層問題的調查結果,但不會在模型發(fā)布后頻繁改動模型本身或 thinking budget,而是更強調保持發(fā)布時的穩(wěn)定狀態(tài)。

“我一點都不羨慕 Anthropic 以及那些要去排查這些問題的人,因為覆蓋面實在太大了。而且坦白講,整套東西看起來像是被一群非常不靠譜的人拼出來的。Anthropic 的工程文化出了很大問題,而這些問題已經直接導致結果也變得一團糟?!盩heo - t3?gg 直言,“如果他們真的想做出可靠的基礎設施和軟件,那就必須從底層開始徹底重想一遍。以現(xiàn)在的狀態(tài),我們無法信任 Anthropic 推出的這些東西?!?/p>

現(xiàn)在的 Anthropic,一邊持續(xù)推出新能力、新工具和新封裝,一邊卻沒有給出足夠透明的解釋,也沒有拿出足夠穩(wěn)定的工程實現(xiàn),最終讓用戶在每月支付高額訂閱費用的同時,得到的結果越來越差。

“如果你覺得自己被坑了,那不是錯覺,你就是被坑了。你這幾個月每個月付 200 美元訂閱費,結果拿到的東西卻越來越少、越來越差。這根本不可接受。”Theo - t3?gg 說道。

值得注意的是,今天 The Information 報道稱,谷歌成立突擊隊以改進編碼模型(因為 Gemini 遠不如 Claude 4.5+、GPT 5.4 等)。這意味著有深厚工程經驗的谷歌也開始奮力爭奪 AI 編程市場。

據知情人士透露,Brin 與谷歌 DeepMind 首席技術官 Koray Kavukcuoglu 均直接參與了這支攻堅團隊的工作,足見谷歌高層對其的重視程度。在最近的一份備忘錄中,Brin 向谷歌 DeepMind 員工表示,他們必須全力轉向、奮起直追 AI 智能體(AI agents)。布林寫道:“為了贏下這場最后的沖刺,我們必須緊急彌補智能體執(zhí)行能力的差距,讓我們的模型成為代碼的‘主力開發(fā)者’。”

Gemini 3 已經證明了谷歌的追趕能力,模型編程能力疊加工程經驗,讓谷歌有潛力動搖 Anthropic 的核心編程優(yōu)勢。

一邊拓展 Claude 能力,一邊加約束

Opus 4.7 發(fā)布后,資深開發(fā)者 Simon Willison 對比了對比了 Opus 4.6 和 4.7 之間的 git diff。通過 Opus 4.7 的系統(tǒng)提示詞變化,也體現(xiàn)出了 Anthropic 正在調整 Claude 的產品角色。

首先,“開發(fā)者平臺”現(xiàn)在更名為“Claude 平臺”。

系統(tǒng)提示詞中提到的 Claude 工具列表,現(xiàn)在包括 Claude in Chrome(一個可以自主與網頁交互的瀏覽智能體)、Claude in Excel (一個表格智能體)、Claude in PowerPoint ( 一個幻燈片智能體)。Claude Cowork 可以把這些都當作工具來使用,其中,Claude in PowerPoint 在 4.6 版本中并未出現(xiàn)。

其次,兒童安全部分被大幅擴展,并被包裹在一個新的 標簽中。特別值得注意的一點是: “一旦 Claude 因兒童安全原因拒絕某個請求,那么在同一對話中的所有后續(xù)請求,都必須以極高的謹慎態(tài)度處理。”

另外,官方也在讓 Claude 變得不那么“粘人”:“如果用戶表示他們準備結束對話,Claude 不會再試圖挽留用戶或引導其繼續(xù)互動,而是尊重用戶停止的請求?!?/p>

新增的 部分包括:

  • 當用戶請求中只缺少一些次要細節(jié)時,用戶通常希望 Claude直接給出一個合理的嘗試結果,而不是先被反復追問。只有在確實無法回答的情況下(例如引用了不存在的附件),Claude 才會先提問。

  • 如果存在可以解決歧義或補充信息的工具(例如搜索、定位用戶位置、查看日歷、發(fā)現(xiàn)可用能力等),Claude 應優(yōu)先調用工具來解決問題,而不是讓用戶自己去查。

  • 一旦 Claude 開始執(zhí)行任務,就應該完整地完成答案,而不是中途停止。

Willison 還注意到,Claude chat 現(xiàn)在似乎有了一個“工具搜索機制”。

根據 API 文檔以及 2025 年 11 月的一篇文章描述:在斷定自己“不具備某種能力”(比如訪問用戶位置、記憶、日歷、文件、歷史對話或外部數據)之前,Claude 會先調用tool_search來確認是否存在相關但尚未啟用的工具。只有在 tool_search 確認沒有匹配工具之后,Claude 才可以說“我無法訪問 X”。

此外還有新的約束,鼓勵 Claude減少冗長表達:Claude 會保持回答聚焦且簡潔,避免用過長的回復讓用戶產生負擔。即使需要加入免責聲明或補充說明,也會盡量簡短,把重點放在核心答案上。

還有一些內容在 4.6 中存在,但 4.7 版本中被移除。 Willison 猜測,很可能是因為新模型已經不再出現(xiàn)這些問題,比如 Claude 避免使用星號中的動作或表情(除非用戶明確要求這種風格)、Claude 避免使用 “genuinely”“honestly”“straightforward” 等表達。

Opus 4.7 中新增了一個關于“進食障礙”的部分(此前沒有明確提及):“如果用戶表現(xiàn)出進食障礙的跡象,Claude 不應在對話中提供具體的營養(yǎng)、飲食或運動建議,包括任何具體數字、目標或步驟。即使這些內容是出于幫助用戶建立健康目標或提醒風險,也可能會觸發(fā)或強化不良傾向?!?/p>

針對一種常見攻擊(誘導模型對爭議問題給出“是 / 否”答案),系統(tǒng)提示詞也增加了防護(在 部分):“如果用戶要求 Claude 對復雜或有爭議的問題給出簡單的‘是或否’(或單詞式回答),Claude 可以拒絕這種簡化回應,轉而給出更有層次的解釋,并說明為什么不能用簡單答案回應?!?/p>

Claude 4.6 中曾有一段特別說明: “Donald Trump 是現(xiàn)任美國總統(tǒng),并于 2025 年 1 月 20 日就職?!边@是因為在此前的知識截止時間下,模型可能會錯誤否認這一點。Willison 發(fā)現(xiàn),在 4.7 中,這段內容被移除,反映出模型的知識截止時間已更新到 2026 年 1 月,并具備更可靠的事實認知。

要真正理解 Claude chat UI 的能力,模型的“工具描述”反而是更關鍵的,但 Anthropic 并未給公開信息。Willison 則通過對話獲得了一些信息。

他直接問 Claude:“列出你所有可用的工具,并提供完整的工具描述和參數。”根據回答結果,下面工具列表與 Opus 4.6 相比并沒有發(fā)生變化:

https://www.businessinsider.com/anthropic-claude-opus-4-7-backlash-tokens-2026-4

https://www.youtube.com/watch?v=KFisvc-AMII&t=44s

https://simonwillison.net/2026/Apr/18/opus-system-prompt/

聲明:本文為 InfoQ 整理,不代表平臺觀點,未經許可禁止轉載。

直播推薦

Q:Lab 龍蝦季 Vol.1「牛馬場景篇」——當老板的奪命需求遇上 AI,KimiClaw / DuMate / WorkBuddy 同步接單,實測誰能在 1 小時內讓混亂 Excel、PDF 合同、Word 周報等零碎信息,變成投資人 One-Pager!

4 月 21 日 19:00-20:30 直播實測,碼上預約~

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
廣告使用“清朝長辮”被指辱華,法國品牌Lemaire致歉

廣告使用“清朝長辮”被指辱華,法國品牌Lemaire致歉

南方都市報
2026-04-26 20:40:18
男子一身名牌坐地鐵,被指像成功人士,網友:再有錢也怕堵車

男子一身名牌坐地鐵,被指像成功人士,網友:再有錢也怕堵車

丫頭舫
2026-04-27 17:39:57
38歲王思聰近照認不出!滿頭白發(fā)穿睡衣度假,駝背顯老像 50 歲

38歲王思聰近照認不出!滿頭白發(fā)穿睡衣度假,駝背顯老像 50 歲

橙星文娛
2026-04-27 14:17:09
2-3!3-3!瘋狂一夜,亞特蘭大爆大冷,拉齊奧補時絕平,曼聯(lián)險勝

2-3!3-3!瘋狂一夜,亞特蘭大爆大冷,拉齊奧補時絕平,曼聯(lián)險勝

足球狗說
2026-04-28 05:07:09
“酩酊大醉”不讀míng dīng dà zuì了,正確讀音是什么?

“酩酊大醉”不讀míng dīng dà zuì了,正確讀音是什么?

未央看點
2026-04-27 22:13:40
從排隊入籍到集體觀望?美國入籍申請驟降,綠卡人群態(tài)度變了?

從排隊入籍到集體觀望?美國入籍申請驟降,綠卡人群態(tài)度變了?

紐約時間
2026-04-28 02:29:16
看完女排最新集訓,心里五味雜陳!別說里約,連倫敦周期都比不上

看完女排最新集訓,心里五味雜陳!別說里約,連倫敦周期都比不上

金毛愛女排
2026-04-28 00:00:04
Deepseek,光通信之后的下一個主升浪

Deepseek,光通信之后的下一個主升浪

靜姐的財富第六感
2026-04-26 22:31:06
淚目 趙心童曬兒時與丁俊暉合照:偶像暉哥讓我加油 你也要加油啊

淚目 趙心童曬兒時與丁俊暉合照:偶像暉哥讓我加油 你也要加油啊

風過鄉(xiāng)
2026-04-27 06:15:09
有的人為了當官,把老婆送給領導睡

有的人為了當官,把老婆送給領導睡

斜杠人生
2026-04-28 00:00:04
金價:大家不用等候了!不出意外,金價可能將歷史重演!

金價:大家不用等候了!不出意外,金價可能將歷史重演!

殘夢重生來
2026-04-28 04:40:09
不到72小時,俞敏洪再迎兩大壞消息,主播集體辭職只是“開胃菜”

不到72小時,俞敏洪再迎兩大壞消息,主播集體辭職只是“開胃菜”

阿廢冷眼觀察所
2026-04-28 00:24:36
皮蛋再次成為關注對象!研究發(fā)現(xiàn):高血脂吃皮蛋,身體或有6改善

皮蛋再次成為關注對象!研究發(fā)現(xiàn):高血脂吃皮蛋,身體或有6改善

健康科普365
2026-04-25 09:27:08
七萬匹東洋大馬的覆滅:國民黨三年敗光日本四十五年心血

七萬匹東洋大馬的覆滅:國民黨三年敗光日本四十五年心血

小莜讀史
2026-04-26 22:44:33
特朗普轉發(fā)“中印是人間地獄”,印度痛批低俗,中方態(tài)度耐人尋味

特朗普轉發(fā)“中印是人間地獄”,印度痛批低俗,中方態(tài)度耐人尋味

線裝史冊
2026-04-28 02:38:29
東南亞隱藏的“電詐大佬”,一個個正在浮出水面

東南亞隱藏的“電詐大佬”,一個個正在浮出水面

現(xiàn)實的聲音
2026-04-27 20:36:14
大姑子一家9口住進來,老公說他5200養(yǎng)活全家足夠,我?guī)夯啬锛?>
    </a>
        <h3>
      <a href=麥子情感故事
2026-04-27 21:34:15
沒人再提激光雷達數量?直擊北京車展:今年智能駕駛“卷”什么

沒人再提激光雷達數量?直擊北京車展:今年智能駕駛“卷”什么

時代周報
2026-04-26 18:14:26
涉黃被傳喚,馬斯克出事了

涉黃被傳喚,馬斯克出事了

營銷頭版
2026-04-27 14:42:14
中國排協(xié)官宣!16點30分,女排訓練將直播,第二批球員恐揭曉

中國排協(xié)官宣!16點30分,女排訓練將直播,第二批球員恐揭曉

跑者排球視角
2026-04-27 23:48:17
2026-04-28 05:28:49
InfoQ incentive-icons
InfoQ
有內容的技術社區(qū)媒體
12309文章數 51863關注度
往期回顧 全部

科技要聞

DeepSeek V4上線三天,第一批實測出來了

頭條要聞

坐在特朗普身邊親歷槍擊案的女記者 身份非常不一般

頭條要聞

坐在特朗普身邊親歷槍擊案的女記者 身份非常不一般

體育要聞

人類馬拉松"破二"新紀元,一場跑鞋軍備競賽

娛樂要聞

黃楊鈿甜為“耳環(huán)風波”出鏡道歉:謠言已澄清

財經要聞

Meta 140億收購Manus遭中國發(fā)改委否決

汽車要聞

不那么小眾也可以 smart的路會越走越寬

態(tài)度原創(chuàng)

手機
親子
旅游
公開課
軍事航空

手機要聞

一加Nord CE6 Lite官宣5月7日發(fā)布,7000mAh電池

親子要聞

警惕!深圳1歲女童小區(qū)玩耍后高燒半年,元兇竟是常見的它

旅游要聞

不止看花 京津冀春日游花樣翻新

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

伊朗外長折返伊斯蘭堡內情披露

無障礙瀏覽 進入關懷版