国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

智源:ArXiv CLI開源!2億+開放論文,即將化身科研智能體技能包

0
分享至



機器之心發(fā)布

DeepXiv 是專為智能體設計的科技文獻基礎設施,把論文搜索、漸進式閱讀、熱點追蹤和深度調(diào)研變成可調(diào)用、可編排、可自動化的能力。

它做的不是把論文網(wǎng)站搬到命令行,而是把科技文獻本身轉化為智能體可以直接消費的數(shù)據(jù)接口與技能系統(tǒng)。

DeepXiv 由智源研究院聯(lián)合高校與社區(qū)開發(fā)者共同研發(fā),項目現(xiàn)已開源并免費開放使用。

資源鏈接

  • GitHub:https://github.com/DeepXiv/deepxiv_sdk
  • PyPI:https://pypi.org/project/deepxiv-sdk/
  • API 文檔:https://data.rag.ac.cn/api/docs
  • 技術報告:https://arxiv.org/abs/2603.00084

引言

隨著大模型智能體的快速發(fā)展,由 AI 驅動的自動化科研(Autonomous Research)正從概念快步走進現(xiàn)實。

從自動發(fā)現(xiàn)科學問題、生成研究計劃,到設計理論方法、開展實驗探究,科研智能體正在全流程、根本性地重塑科學研究的范式。

然而,要讓智能體真正服務于科學研究,一個基礎性的技術瓶頸亟待解決:智能體如何高效地使用科技文獻?

智源研究院率先洞察這一核心痛點:今天,科技文獻的利用方式仍然是為人類用戶設計的。在傳統(tǒng)模式下,智能體必須通過繁瑣的互聯(lián)網(wǎng)搜索及網(wǎng)頁解析才能獲取相關論文,還需進一步借助復雜的閱讀工具,才能從高度視覺化的論文中提取有效信息。

這套基于搜索引擎(Search Engine)與圖形用戶界面(GUI)的基礎設施,與智能體的工作方式高度不符,嚴重制約了智能體的工作效果與執(zhí)行效率。

換句話說,我們坐擁海量開放科技文獻,卻缺少一套面向智能體的 "科技文獻基礎設施"。

如果說過去的論文僅僅是 "給人看的",那么現(xiàn)在,論文需要兼顧 "給智能體看" 這一全新需求。

一個行之有效的做法是:讓論文成為 CLI,使智能體可以方便地獲取并加以利用

因此,智源研究院聯(lián)合高校與開源社區(qū)攻堅突破,提出讓論文適配 CLI 交互、搭建專屬文獻基礎設施的核心思路,打通海量開放論文與智能體的銜接壁壘,為自動化科研筑牢核心基礎設施底座。



DeepXiv

DeepXiv是面向智能體的科技文獻綜合性工具集,其目標是讓開放科技文獻從 "人類可讀" 升級為 "智能體可用"

為此,DeepXiv 提供三大核心能力。

一、數(shù)據(jù)接入

把開放科技文獻變成 "智能體可消費的數(shù)據(jù)"

DeepXiv 可接入對智能體友好的數(shù)據(jù)格式,如 JSON / Markdown 原生支持。論文數(shù)據(jù)變得直接可讀、可用,智能體不再需要從復雜的 PDF 及 HTML 文件中 "艱難扒取信息"。此外,智能體還可以直接獲取標題、作者、摘要、參考文獻等元信息,使論文利用更加便捷。

同時,對智能體而言,真正的考驗不僅是如何獲取信息,而是如何在有限上下文和有限推理預算下,精準地利用信息。圍繞這一點,DeepXiv 提供了面向智能體優(yōu)化的數(shù)據(jù)組織方式。如在預覽(Preview)層面,DeepXiv 先快速獲取論文核心信息,低成本判斷相關性;再通過分塊(Chunking)功能按結構或語義切分論文內(nèi)容,支持論文局部精讀;在整體閱讀過程中,DeepXiv 還會實現(xiàn)漸進披露(Progressive Disclosure):先看少量、再按需展開,避免一次性灌入整篇長文。

這些設計帶來的價值非常直接:降低 token 消耗、提升檢索與閱讀效率,同時支持復雜多步科研任務,讓智能體得以專注于真正有價值的信息。

這并不是一種停留在理念層面的設計,而是可以直接落到具體調(diào)用方式中。圍繞一個新研究主題,智能體最自然的動作不是一開始就把整篇論文全部讀完,而是先搜索候選文獻,再快速判斷是否值得繼續(xù)投入更多上下文預算,最后只展開真正關鍵的部分。例如:

pip install deepxiv-sdk # 安裝工具包

deepxiv search "agent memory" # 搜索研究主題

deepxiv paper 2602.16493 --brief # 快速看摘要與要點

deepxiv paper 2602.16493 --head # 查看結構與章節(jié)分布

deepxiv paper 2602.16493 --section "Experiments" # 只讀實驗部分

這組命令對應的正是一個非常貼近真實研究過程的文獻利用路徑:

  • search 先找候選論文
  • --brief 預覽論文核心信息,用極低成本判斷論文價值
  • --head 幫助智能體掌握全文結構與章節(jié)分布
  • --section 讓 Agent 按需讀取 Introduction、Method、Experiments 這類最有價值的內(nèi)容。其結果并不是簡單地 "少讀一點",而是讓智能體真正具備按信息價值分配 token 預算的能力。

Deepxiv 返回的論文內(nèi)容,是完成解析的 markdown 或 json 格式,Agent 閱讀無壓力!比如下面就是 --brief 和 --head 命令的返回內(nèi)容。

MMA: Multimodal Memory Agent

arXiv: 2602.16493

Published: 2026-02-18T00:00:00

Citations: 0

PDF: https://arxiv.org/pdf/2602.16493

GitHub: https://github.com/AIGeeksGroup/MMA

? Keywords: memory-level reliability, temporal decay, conflict-aware consensus, epistemic prudence, visual placebo effect

TLDR:

[research paper] MMA introduces a memory-level reliability framework that dynamically scores retrieved items using source credibility, temporal decay, and conflict-aware network consensus to mitigate overconfidence from stale or inconsistent memories. It reveals the 'Visual Placebo Effect'—where RAG agents generate unwarranted certainty from ambiguous visual inputs due to latent biases in foundation models—and demonstrates superior performance on FEVER (35.2% lower variance), LoCoMo (higher actionable accuracy, fewer wrong answers), and MMA-Bench (41.18% Type-B accuracy vs. 0.0% baseline) under epistemic-aware evaluation protocols that reward abstention and penalize overconfidence.

"arxiv_id": "2602.16493",

"title": "MMA: Multimodal Memory Agent",

"abstract": "Long-horizon multimodal agents depend on external memory; however, similarity-based retrieval often surfaces stale, low-credibility, or conflicting items, which can trigger overconfident errors. We propose Multimodal Memory Agent (MMA), which assigns each retrieved memory item a dynamic reliability score by combining source credibility, temporal decay, and conflict-aware network consensus, and uses this signal to reweight evidence and abstain when support is insufficient. We also introduce MMA-Bench, a programmatically generated benchmark for belief dynamics with controlled speaker reliability and structured text-vision contradictions. Using this framework, we uncover the \"Visual Placebo Effect\", revealing how RAG-based agents inherit latent visual biases from foundation models. On FEVER, MMA matches baseline accuracy while reducing variance by 35.2% and improving selective utility; on LoCoMo, a safety-oriented configuration improves actionable accuracy and reduces wrong answers; on MMA-Bench, MMA reaches 41.18% Type-B accuracy in Vision mode, while the baseline collapses to 0.0% under the same protocol. Code: https://github.com/AIGeeksGroup/MMA.",

"authors": [

"misc": {},

"name": "Yihao Lu",

"orgs": [

"School of Computer Science, Peking University"

],

"token_count": 17386,

"sections": [

"name": "Introduction",

"idx": 0,

"tldr": "MMA introduces a memory-level confidence scoring framework that uses source credibility, temporal decay, and conflict-aware consensus to prioritize reliable memories and prevent retrieval traps, while introducing an incentive-aligned benchmark that rewards epistemic prudence and calibrated abstention.",

"token_count": 1098

],

"categories": [

"cs.CV"

],

"publish_at": "2026-02-18T00:00:00",

"keywords": [

"memory-level reliability",

"temporal decay",

"conflict-aware consensus"

],

"tldr": "[research paper] MMA introduces a memory-level reliability framework that dynamically scores retrieved items using source credibility, temporal decay, and conflict-aware network consensus to mitigate overconfidence from stale or inconsistent memories. It reveals the 'Visual Placebo Effect'\u2014where RAG agents generate unwarranted certainty from ambiguous visual inputs due to latent biases in foundation models\u2014and demonstrates superior performance on FEVER (35.2% lower variance), LoCoMo (higher actionable accuracy, fewer wrong answers), and MMA-Bench (41.18% Type-B accuracy vs. 0.0% baseline) under epistemic-aware evaluation protocols that reward abstention and penalize overconfidence.",

"github_url": "https://github.com/AIGeeksGroup/MMA"

DeepXiv 已覆蓋全量 ArXiv 數(shù)據(jù),并保持每日增量更新。

與此同時,DeepXiv 正在快速擴展至更多開放文獻源,包括 PubMed Central (PMC)、ACM、bioRxiv /medRxiv/ ChemRxiv 等各類 *Rxiv,以及 Semantic Scholar,最終建立覆蓋超過 2 億篇開放科技文獻的統(tǒng)一智能體接入層。

這種擴展并不會停留在 "數(shù)據(jù)收進來了" 這一層,而是會繼續(xù)沿用面向智能體的統(tǒng)一服務方式對外提供。例如,在 PMC 場景下,智能體同樣可以通過類似的命令直接獲取論文內(nèi)容:

deepxiv pmc PMC544940 --head # 查看全文結構

deepxiv pmc PMC544940 # 查看全文 json

這意味著,隨著更多開放文獻源被接入,智能體面對的并不會是一組彼此割裂、調(diào)用方式各異的新接口,而仍然是一套可復用、可遷移、可自動化編排的文獻利用方式。換句話說,未來無論是 ArXiv、PMC,還是更多 *Rxiv 與 OA 數(shù)據(jù)源,都會盡可能以一致的方法向智能體持續(xù)開放服務能力。

二、一站式能力集成

不只是檢索,更是 "幫智能體做事"

DeepXiv 自建有專屬的論文搜索引擎,提供優(yōu)化的檢索結果及可配置的搜索模式。當然,僅僅把論文 "搜出來" 遠遠不夠?;谒阉髂芰?,DeepXiv 進一步打造了更豐富的技能:在問答能力層面,DeepXiv 可圍繞文獻直接完成信息提取與理解,例如:"論文的核心貢獻是什么?"" 實驗設置和對比基線是什么?",實現(xiàn)對文獻的深入理解;同時 DeepXiv 還可實現(xiàn)熱點追蹤,了解每天 / 每周 / 每月關于某一主題的熱點論文有哪些;在面向復雜問題時,DeepXiv 還將開展深入研究,例如:" 過去三年關于 Agent Memory 的代表性工作有哪些?""多模態(tài)檢索增強在金融場景中的公開基準及數(shù)據(jù)集有哪些?"

DeepXiv 的技能包仍在持續(xù)擴展,智能體可通過其內(nèi)置 Skills 以及命令行 --help 機制進行感知并靈活調(diào)用。

這種 "不只是檢索,更是圍繞任務去調(diào)用能力" 的特點,在實際使用時會更明顯。比如,一個很典型的熱點追蹤流程,可以簡單到下面這樣:

deepxiv trending --days 7 --limit 30 --json # 抓取近期熱點論文池

deepxiv paper 2603.28767 --brief # 快速預覽論文要點

deepxiv paper 2603.28767 --popularity # 查看傳播熱度信號

先抓出近一周最熱的論文池,再快速預覽單篇論文內(nèi)容,并補上它在社交媒體上的傳播熱度。接下來,智能體就可以順著這條鏈路繼續(xù)完成摘要、篩選、排序與生成周報。

而如果任務是進入一個新研究主題,流程同樣可以非常直接:

deepxiv search "agentic memory" --limit 20 # 搜索主題相關論文

deepxiv paper 2506.07398 --head # 查看全文結構

deepxiv paper 2506.07398 --section Experiments # 精讀關鍵章節(jié)

先找到候選論文,再查看結構,最后只讀取最關鍵的實驗部分。必要時,智能體還可以繼續(xù)調(diào)用互聯(lián)網(wǎng)搜索補充通用 Web 信息,或者基于 Semantic Scholar 數(shù)據(jù)庫獲取論文元數(shù)據(jù)。也就是說,DeepXiv 提供的不是孤立命令,而是一套可被智能體連續(xù)調(diào)用的科研任務能力集。

deepxiv wsearch "agent memory" # 調(diào)用互聯(lián)網(wǎng)搜索

deepxiv sc 161990727 # 獲取 semantic scholar 元數(shù)據(jù)

如果希望進一步把這些能力直接收束成一個可交付任務,DeepXiv 還內(nèi)置了深度調(diào)研 Agent。它可以把搜索、篩選、漸進式閱讀、信息提取與歸納整理串成一條完整鏈路,讓用戶不必自己手動拼接每一步調(diào)用。例如,開發(fā)者可以直接讓它回答 "最近關于 Agent Memory 的代表性工作有哪些?" 或者 "過去一年有哪些值得關注的多模態(tài)檢索增強論文?" 這使得 DeepXiv 不僅能提供底層命令,更能直接承接一部分高層科研任務。 當然,用戶也可把 DeepXiv 直接封裝成 Skills,注入任意 Agent,快速開始 Agent 研究工作。

pip install "deepxiv-sdk[all]" # 安裝完整工具依賴

deepxiv agent config # 配置API key

deepxiv agent query "What are the latest papers about agent memory?" --verbose # 開始深度調(diào)研

三、豐富的接入形式

適配從智能體到開發(fā)者的全場景需求

DeepXiv 并不將自己限定為一個單點工具,而是提供多種接入形態(tài),滿足從智能體到開發(fā)者的多層需求。

首先,CLI 是 DeepXiv 的核心形態(tài)。通過命令行,智能體可以無縫接入文獻搜索、論文獲取、論文利用等全部能力,并通過編排運行腳本實現(xiàn)更復雜的工作流。

其次,DeepXiv 同樣提供 MCP 接入能力,這意味著你可以將 DeepXiv 嵌入各類智能體開發(fā)框架,讓 "科技文獻利用" 成為智能體的標準工具。

再者,對于需要深度定制工作流的開發(fā)者,DeepXiv 也提供 Python SDK,使之靈活集成于高度定制化的科研智能體。

更重要的是,基于 deepxiv,開發(fā)者可以非常快速地封裝出一批面向具體科研任務的定制化 Skills。比如,每周自動追蹤某個方向的新論文、自動篩出帶開源代碼的工作、批量抽取實驗設置與結果、生成某個主題的 baseline 表格,甚至持續(xù)維護某個研究方向的動態(tài)知識庫。這意味著,DeepXiv 不只是提供一個 "可調(diào)用的工具",而是在為日常科研工作流提供一層可快速復用、可持續(xù)擴展的能力底座。

實戰(zhàn)演示

讓 Codex 整理 30 天內(nèi) Agent Memory 相關論文信息

如果說前面這些能力描述的是 DeepXiv 能做什么,那么更能體現(xiàn)它價值的,其實是它如何在一次真實任務中把這些能力串起來。

下面這個 demo,對應的是一個非常典型、也非常高頻的科研需求:

幫我整理最近 1 個月 agent memory 相關 paper,看看都在什么數(shù)據(jù)集上跑的,效果如何,有沒有開源。

這個任務看起來像是 "找?guī)灼撐目偨Y一下",但真正做起來,通常會包含一整條鏈路:先確定時間范圍,限定最近一個月。再圍繞主題做搜索,并處理噪聲結果,并對候選論文逐篇預覽,篩掉只是詞面相關但主題不符的工作。在找到真正 relevant 的論文后,繼續(xù)查看結構與實驗章節(jié),并提取 benchmark、metrics、score、code link 等關鍵信息,最后整理成一張可交付、可繼續(xù)編輯的 markdown baseline 表。

如果沒有面向智能體的數(shù)據(jù)與工具支持,這個過程往往意味著來回切網(wǎng)頁、翻 PDF、復制粘貼、再人工整理成表格。而在 DeepXiv 的工作流里,這件事可以被拆解成一組非常自然的動作。

第一步:按主題與時間范圍搜索候選論文



首先,智能體會圍繞用戶主題做多個近義搜索,而不是只押寶一個 query:

deepxiv search "agent memory" --date-from 2026-03-02 --limit 50 --format json

deepxiv search "agentic memory" --date-from 2026-03-02 --limit 50 --format json

deepxiv search "memory agents long-horizon" --date-from 2026-03-02 --limit 50 --format json

這樣做的好處是,智能體可以先盡可能召回足夠多的候選論文,再在后續(xù)步驟里用更低成本的方式逐步收縮范圍。

在這一步里,它很快就能找到像 AdaMem、All-Mem、D-MEM、Memex (RL)、AndroTMem、LMEB 這類高相關論文,同時也能識別出一些只是沾到關鍵詞、但其實不屬于 agent memory 主線的結果。

第二步:先用 brief 做低成本篩選



搜索出來的結果,沒必要一上來就整篇通讀。更合理的做法是先預覽:

deepxiv paper 2603.16496 --brief

deepxiv paper 2603.19595 --brief

deepxiv paper 2603.14597 --brief

deepxiv paper 2603.18429 --brief

--brief 會把標題、時間、TL;DR、關鍵詞、GitHub 鏈接等最關鍵的信息先拿出來。對智能體來說,這一步的價值非常大,因為它可以用極低的 token 成本完成第一輪判斷:比如說 “這篇論文到底是不是在做 agent memory”、“它是方法論文、benchmark 論文,還是更偏系統(tǒng) / 治理架構”、“有沒有 GitHub,值不值得優(yōu)先繼續(xù)讀”?

也正是在這一層,智能體可以快速把候選論文拆成主集合和次集合,避免在一堆邊緣相關結果上浪費預算。

第三步:用 head 看結構,再只讀實驗相關章節(jié)



篩出真正 relevant 的論文之后,下一步不是 "把全文喂進去",而是先看結構,再定點讀?。?/p>

deepxiv paper 2603.16496 --head

deepxiv paper 2603.16496 --section Experiments

deepxiv paper 2603.19595 --head

deepxiv paper 2603.19595 --section Experiments

deepxiv paper 2603.18429 --head

deepxiv paper 2603.18429 --section "Anchored State Memory"

這一步對應的是一個非常像人類研究者的過程:比如人類研究者會先看這篇論文有哪些章節(jié),確認實驗部分叫什么,再只展開 Experiments、Results、Evaluation 這種真正有 benchmark 和 score 的內(nèi)容。如果有需要,再補讀 Appendix 中的數(shù)據(jù)集或實驗設置部分。



例如,在這次任務中,智能體就從實驗章節(jié)里提取到了很多直接可比較的信息:

  • AdaMem 在 LoCoMo 和 PERSONAMEM 上評測,LoCoMo 最高到 44.65 F1,PERSONAMEM 平均準確率 63.25%
  • AndroTMem 提出 AndroTMem-Bench,并比較 raw history、summary、ASM 三種 history 表示,像 Gemini-3-Flash 在 ASM 下可達到 AMS 59.03 / TCR 65.05
  • Memex (RL) 在改造后的 ALFWorld 上,把任務成功率從 24.22% 提升到 85.61%
  • Trajectory-Informed Memory Generation 在 AppWorld 上把 held-out 場景的 SGC 從 50.0 拉到 64.3
  • LMEB 作為 benchmark 則匯總了 22 個數(shù)據(jù)集、193 個 zero-shot retrieval 任務

換句話說,DeepXiv 在這里提供的不是 "把論文內(nèi)容給出來" 這么簡單,而是讓智能體可以按照 "先粗篩、再結構化定位、最后定點精讀" 的方式去消費文獻。

第四步:自動落成 markdown baseline 表



當論文、數(shù)據(jù)集、指標、分數(shù)和開源狀態(tài)都被提取出來后,最后一步就是把它整理成結構化交付物。

在這次 demo 里,智能體最終把結果寫成了一份 markdown 表格,包含:論文標題與 arXiv 鏈接,是否開源、代碼地址,跑過哪些 benchmark /dataset,使用了什么指標,核心結果與可對比分數(shù),對論文定位的簡短備注等內(nèi)容。

這一步很關鍵,因為它意味著 DeepXiv 服務的不是一次性問答,而是一個可以繼續(xù)復用的研究資產(chǎn):你可以直接把 markdown 文件繼續(xù)改寫成調(diào)研文檔、slides、周報,或者作為后續(xù)項目的 baseline 起點。

這個 skills 已經(jīng)放到 project 中,可以直接使用!例如,復制到~/.codex/skills/ 目錄下即可在 codex 中直接喚出。

這個 demo 真正說明了什么

這個例子真正有意思的地方在于,它并不是一個 "炫技式" 任務,而是一個非常日常、非常真實的科研動作。

對于研究者而言,"最近一個月這個方向都出了什么工作、跑了哪些數(shù)據(jù)集、效果怎么樣、有沒有開源" 本就是高頻需求。而 DeepXiv 首次以真正貼近智能體工作流的方式完成了這一任務:其搜索是結構化的,無需網(wǎng)頁解析;預覽是低成本的,無需通讀全文;閱讀是漸進式的,僅展開關鍵章節(jié);提取結果面向表格與下游任務,而非停留在自然語言總結;最終輸出更可保存、可復用、可繼續(xù)擴展,成為研究過程中的中間產(chǎn)物。

這也正是 DeepXiv 想解決的核心問題:不是把論文 "搬上命令行",而是把論文真正變成智能體可以調(diào)用、篩選、閱讀、分析、交付的一等對象。

如果說傳統(tǒng)論文網(wǎng)站服務的是 "人類點開頁面然后自己讀",那么 DeepXiv 服務的則是 "智能體圍繞科研任務主動調(diào)用文獻能力并完成交付"。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
盧比奧驅逐伊朗前副總統(tǒng)兒子一家,蘇萊曼尼侄女求救

盧比奧驅逐伊朗前副總統(tǒng)兒子一家,蘇萊曼尼侄女求救

移光幻影
2026-04-12 18:52:51
柏林聯(lián)合官方:女主帥埃塔接任鮑姆加特執(zhí)教到賽季末;成德甲首位女性主帥

柏林聯(lián)合官方:女主帥埃塔接任鮑姆加特執(zhí)教到賽季末;成德甲首位女性主帥

懂球帝
2026-04-12 06:41:05
紐卡悄悄爬到第3,水晶宮保級無憂后踢得像在交作業(yè)

紐卡悄悄爬到第3,水晶宮保級無憂后踢得像在交作業(yè)

籃壇第一線
2026-04-12 18:33:03
伊朗果然上當!24小時不到,以色列大量回血,70架運輸機抵達中東

伊朗果然上當!24小時不到,以色列大量回血,70架運輸機抵達中東

軒逸阿II
2026-04-12 03:11:24
卡塔爾宣布12日起“全面恢復海上航運”

卡塔爾宣布12日起“全面恢復海上航運”

界面新聞
2026-04-12 12:20:27
4.12日早評|談崩了!美伊未達成協(xié)議!A股要爆了!

4.12日早評|談崩了!美伊未達成協(xié)議!A股要爆了!

龍行天下虎
2026-04-12 11:46:41
黎巴嫩一國兩軍:真主黨這個“國中之國”,為何徹底綁架黎巴嫩?

黎巴嫩一國兩軍:真主黨這個“國中之國”,為何徹底綁架黎巴嫩?

環(huán)球情報員
2026-04-11 21:23:51
字節(jié)員工:工作9年,北京全款房子一套,40多萬的車,存款237萬

字節(jié)員工:工作9年,北京全款房子一套,40多萬的車,存款237萬

螞蟻大喇叭
2026-04-12 16:57:57
雪浪環(huán)境將被“ST”,公司股價年內(nèi)漲超130%,“90后”中科院博士或成新實控人

雪浪環(huán)境將被“ST”,公司股價年內(nèi)漲超130%,“90后”中科院博士或成新實控人

紅星資本局
2026-04-12 19:36:53
全民考公考編,是這個時代的悲哀。

全民考公考編,是這個時代的悲哀。

老陸不老
2026-04-12 12:19:50
蘋果高管曬娃照片,開發(fā)者集體盯上鍵盤數(shù)字

蘋果高管曬娃照片,開發(fā)者集體盯上鍵盤數(shù)字

報錯免疫體
2026-04-11 08:42:53
網(wǎng)友提醒劉蕓注意兒子內(nèi)八問題,鄭鈞在線回應,感謝云爹媽操碎心

網(wǎng)友提醒劉蕓注意兒子內(nèi)八問題,鄭鈞在線回應,感謝云爹媽操碎心

露珠聊影視
2026-04-11 15:14:00
中將在蕪湖當?shù)匚睍?,毛主席大怒:重新分配,就說是我要求的

中將在蕪湖當?shù)匚睍?,毛主席大怒:重新分配,就說是我要求的

墨道榮
2026-04-12 09:56:26
別被騙了!宋朝官帽那兩根“翅膀”,根本不是用來防交頭接耳的

別被騙了!宋朝官帽那兩根“翅膀”,根本不是用來防交頭接耳的

瘋狂的小歷史
2026-04-11 08:47:51
晚間公告丨4月12日這些公告有看頭

晚間公告丨4月12日這些公告有看頭

新浪財經(jīng)
2026-04-12 18:39:22
穿過你的襠下的我的手?美媒曬圖:勇士為了防詹姆斯啥招都用

穿過你的襠下的我的手?美媒曬圖:勇士為了防詹姆斯啥招都用

懂球帝
2026-04-12 16:24:20
男子出門上班把5個月大的孩子留在家,寶寶躺在床上不哭不鬧自己玩,男子:每4個小時回來一次給孩子喂奶,我也不想這樣的,可要掙錢

男子出門上班把5個月大的孩子留在家,寶寶躺在床上不哭不鬧自己玩,男子:每4個小時回來一次給孩子喂奶,我也不想這樣的,可要掙錢

觀威海
2026-04-11 17:40:04
遇上這樣“奇葩鄰居”,我連夜掛中介賣房,只想過個普通人的生活

遇上這樣“奇葩鄰居”,我連夜掛中介賣房,只想過個普通人的生活

家居設計師蘇哥
2026-03-14 13:13:59
哇,這大身板,豐腴有度,放到唐朝不是皇后,也得是個貴妃

哇,這大身板,豐腴有度,放到唐朝不是皇后,也得是個貴妃

可樂談情感
2026-04-12 08:22:47
伊朗果然上當!24小時不到,以色列大量回血,70架運輸機抵達中東

伊朗果然上當!24小時不到,以色列大量回血,70架運輸機抵達中東

老赳說歷史
2026-04-12 13:39:50
2026-04-12 21:07:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12729文章數(shù) 142623關注度
往期回顧 全部

科技要聞

理想稱遭惡意拉踩,東風日產(chǎn):尊重同行

頭條要聞

上海阿婆被"干兒子"分80次轉走95萬氣癱 畢生積蓄沒了

頭條要聞

上海阿婆被"干兒子"分80次轉走95萬氣癱 畢生積蓄沒了

體育要聞

創(chuàng)造歷史!五大聯(lián)賽首位女性主教練誕生

娛樂要聞

賭王女兒何超蕸病逝,常年和乳癌斗爭

財經(jīng)要聞

美伊談判破裂的三大癥結

汽車要聞

煥新極氪007/007GT上市 限時19.39萬起

態(tài)度原創(chuàng)

教育
游戲
時尚
藝術
軍事航空

教育要聞

難哭學霸的思維題,家長都不會做

誠意不足!《星空》新DLC褒貶不一:性價比太差

臺灣票房第一,讓人邊哭邊罵?

藝術要聞

殯葬新規(guī)落地,小區(qū)里的“骨灰房”真能絕跡嗎?

軍事要聞

美國副總統(tǒng)萬斯:美伊談判未能達成協(xié)議

無障礙瀏覽 進入關懷版