国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

當(dāng)AI開(kāi)始“記得”你:與兩位創(chuàng)業(yè)者拆解AI記憶技術(shù)

0
分享至



進(jìn)入 2026 年,AI 記憶正在成為行業(yè)最熱的競(jìng)爭(zhēng)焦點(diǎn)之一。Google 為 Gemini 上線了“個(gè)人智能”(Personal Intelligence)功能,經(jīng)用戶授權(quán)后可調(diào)取 Gmail、Google Photos、搜索記錄等個(gè)人數(shù)據(jù),實(shí)現(xiàn)跨應(yīng)用的語(yǔ)境理解,而非簡(jiǎn)單地檢索單封郵件或一張照片,讓 Gemini 開(kāi)始對(duì)用戶的數(shù)據(jù)進(jìn)行“思考”,而非僅僅“獲取”它。而在更早之前,OpenAI 的 ChatGPT 也已大幅升級(jí)了記憶系統(tǒng),使其能夠引用用戶所有歷史對(duì)話,奧特曼在發(fā)布時(shí)表示,“這指向了我們興奮的方向:AI 系統(tǒng)在你的一生中了解你,并變得極其有用和個(gè)性化。”

在基礎(chǔ)設(shè)施層面,AI 記憶正在成為一條獨(dú)立賽道。2025 年 10 月,專注于為 AI Agent 構(gòu)建“記憶層”的初創(chuàng)公司 Mem0 宣布完成 2,400 萬(wàn)美元 A 輪融資,被 AWS 選為其 Agent SDK 的獨(dú)家記憶提供商,GitHub 星標(biāo)超過(guò) 4.1 萬(wàn),季度 API 調(diào)用從 3,500 萬(wàn)飆升至 1.86 億。同賽道的 Zep 用時(shí)序知識(shí)圖譜組織記憶,脫胎于 UC Berkeley MemGPT 研究項(xiàng)目的 Letta 則主張“編程 Agent 的本質(zhì)就是編程記憶”。從開(kāi)發(fā)者工具到平臺(tái)級(jí)基礎(chǔ)設(shè)施,“讓 AI 記住用戶”正在從一個(gè)附加功能變成剛性需求。

從產(chǎn)品側(cè)的個(gè)人化記憶,到模型架構(gòu)層的記憶機(jī)制革新,AI Memory 不僅是技術(shù)熱點(diǎn),更是決定 AI 能否從“每次重新開(kāi)始的工具”進(jìn)化為“持續(xù)了解你的伙伴”的關(guān)鍵分水嶺。

為了深入探討 AI Memory 的技術(shù)路徑、落地挑戰(zhàn)與產(chǎn)業(yè)前景,本期 DeepTalk 邀請(qǐng)到了兩位深耕這一領(lǐng)域的創(chuàng)業(yè)者,丘腦科技 CTO、浙江大學(xué)博士趙翔;中科院自動(dòng)化所 AI 博士,智悅云創(chuàng)及 TiMEM 記憶引擎創(chuàng)始人余宣慶。圍繞 AI 記憶的核心技術(shù)、應(yīng)用場(chǎng)景與未來(lái)走向展開(kāi)了一場(chǎng)深度對(duì)談。

以下是對(duì)話正文:

DeepTech:歡迎兩位老師,請(qǐng)先給大家做個(gè)自我介紹。

余宣慶:大家好,我是中科院自動(dòng)化研究所博士五年級(jí)的余宣慶。我們做記憶其實(shí)是有淵源的——我的科研方向原來(lái)就是知識(shí)圖譜,我們課題組又聚焦在工業(yè)制造場(chǎng)景,對(duì)于時(shí)序數(shù)據(jù)非常關(guān)注。我從博士課題開(kāi)始就研究時(shí)序知識(shí)圖譜的預(yù)測(cè),當(dāng)時(shí)更多探討的是知識(shí)圖譜與大模型之間的關(guān)系,后來(lái)自然而然地切入到記憶這個(gè)方向,面向智能體場(chǎng)景做學(xué)術(shù)研究。

創(chuàng)業(yè)方面,我從 2023 年 初就在探索求職招聘方向的應(yīng)用層創(chuàng)新,在這個(gè)過(guò)程中發(fā)現(xiàn)記憶對(duì)性能起著非常關(guān)鍵的作用。2025 年 3 月 開(kāi)始,我們正式研究記憶中的痛點(diǎn),做科研驅(qū)動(dòng)的產(chǎn)品化。目前推出了“TiMEM 太憶 AI”自進(jìn)化認(rèn)知引擎,包含記憶、經(jīng)驗(yàn)學(xué)習(xí)和事件預(yù)測(cè)等功能幫助智能體學(xué)會(huì)學(xué)習(xí)、能預(yù)測(cè)、能記憶,成為用戶真正的伙伴。

趙翔:大家好,我是趙翔,丘腦科技的 CTO,2025 年 6 月從浙大博士畢業(yè)。不過(guò)畢業(yè)之前大概 3 月 就已經(jīng)在做現(xiàn)在這件事了,一直做到現(xiàn)在。我們公司叫“丘腦”,主要產(chǎn)品叫 Omni Memory,做多模態(tài)的記憶。

我們關(guān)注到一個(gè)趨勢(shì):2025 年 甚至 2026 年,人類所有的公開(kāi)數(shù)據(jù)可能都會(huì)被大模型用完,AI 在人類知識(shí)邊界上會(huì)達(dá)到一個(gè)平臺(tái)期。前段時(shí)間也有人在講,整個(gè)能力進(jìn)化在 C 端用戶那里已經(jīng)感覺(jué)不到那么強(qiáng)了。所以我覺(jué)得后期 AI 很大的一個(gè)方向會(huì)是下沉到每個(gè)人身邊,實(shí)現(xiàn)個(gè)性化。Memory 這件事情就變得非常重要。

另外余總也說(shuō)到他們很關(guān)注時(shí)間,我們也是。因?yàn)槲覀円婚_(kāi)始就做全模態(tài),會(huì)把視頻模態(tài)考慮進(jìn)去,而視頻天然對(duì)時(shí)間很敏感。此外,我們認(rèn)為記憶要可審計(jì)、可定位、可修改,而要實(shí)現(xiàn)這些,最好的錨定就是時(shí)間。目前我們的產(chǎn)品已經(jīng)上線了 SaaS 平臺(tái),對(duì)外提供 SDK 和 API 接口,歡迎大家試用。

從上下文到外部存儲(chǔ),再到原生記憶

DeepTech:咱們從技術(shù)路線聊起。大模型剛出來(lái)的時(shí)候,訓(xùn)練階段用了海量語(yǔ)料,我們感覺(jué)它其實(shí)也有“記憶”,只不過(guò)不是針對(duì)個(gè)人的。后來(lái)我們發(fā)現(xiàn),大模型的知識(shí)來(lái)源主要是上下文窗口,再后來(lái)模型越來(lái)越大,可以外掛知識(shí)庫(kù),我們又會(huì)覺(jué)得它的信息是基于知識(shí)庫(kù)的,知識(shí)庫(kù)里的信息也可以被視為一種記憶。這些技術(shù)發(fā)展的脈絡(luò)和我們現(xiàn)在說(shuō)的 AI Memory 之間有什么區(qū)別?

余宣慶:最開(kāi)始我們感知到的“記憶”,更多是模型好像知道我歷史的交互數(shù)據(jù),不再是一次輸入一次輸出,下一次再問(wèn)的時(shí)候它還記得之前聊過(guò)什么。這種上下文記憶的實(shí)現(xiàn)方式,本質(zhì)上是把過(guò)往的聊天歷史重新作為提示詞的一部分再次輸給大模型。

但問(wèn)題很明顯:上下文窗口有限,當(dāng)交互歷史達(dá)到一定長(zhǎng)度后,就不得不開(kāi)一個(gè)新會(huì)話,之前的內(nèi)容就丟棄了。于是我們自然會(huì)想,這些歷史對(duì)話數(shù)據(jù)能不能成為外部存儲(chǔ)?比如用壓縮或者向量存儲(chǔ)的方式來(lái)檢索。但這又會(huì)帶來(lái)新的痛點(diǎn):里面含有大量噪音,無(wú)法建立事件之間的關(guān)系和聯(lián)系,在需要找到相關(guān)語(yǔ)義信息時(shí)無(wú)法提供精準(zhǔn)的上下文支持。

所以現(xiàn)在我們談的 AI Memory,其實(shí)是一種面向智能體的原生記憶操作系統(tǒng)——從上下文記憶,到外部存儲(chǔ),再到智能記憶體,不斷緩解每個(gè)階段的痛點(diǎn)。我們現(xiàn)在要探討的,正是記憶如何不只做存儲(chǔ),而是進(jìn)化到可以認(rèn)知、可以把經(jīng)驗(yàn)提取出來(lái)的階段。

趙翔:我補(bǔ)充一下。AI Memory 這個(gè)概念其實(shí)很泛,包括模型本身權(quán)重中的記憶,以及外部輸入的知識(shí)庫(kù)。我們現(xiàn)在經(jīng)常把它當(dāng)作 Context Engineering 來(lái)做,就是因?yàn)槟壳暗哪P捅旧硎菬o(wú)狀態(tài)的——在大規(guī)模分布式部署時(shí),用戶拿著他的 ID 和全部上下文一起扔給模型,模型可能通過(guò) KV Cache 實(shí)現(xiàn)一個(gè)短期的工作記憶。但目前所有的 Agent,本質(zhì)上都是在做 Context Engineering:怎么又好又準(zhǔn),在 Token 效率的前提下把整個(gè) Context 組織好,交給模型,利用好它的上下文窗口。

以前大家用 RAG 檢索文檔,或者利用文件系統(tǒng)存一些文本拉回到上下文,這些都是早期的做法。但我們現(xiàn)在希望 Memory 能夠隨著用戶不斷學(xué)習(xí)和進(jìn)化——逐漸生長(zhǎng)成一個(gè)人的 Life Context:他的記憶、經(jīng)歷、背景、偏好。通過(guò) RAG 或 Graph RAG 的形式儲(chǔ)存,再通過(guò)用戶的一句 Query 模糊召回相關(guān) Context。目前整個(gè) AI Memory 的方向,就是希望它是 Token 高效的、精確的、能根據(jù)語(yǔ)義精準(zhǔn)召回用戶以前說(shuō)過(guò)的話和偏好。

AI 記憶與人類記憶的相似性

DeepTech:我們?nèi)祟惖挠洃浻泄ぷ饔洃洝⒍唐谟洃洝㈤L(zhǎng)期記憶,而且很多時(shí)候人類記憶是模糊的,先模糊召回,隨著檢索深入再逐漸變得清晰。AI 記憶的開(kāi)發(fā)過(guò)程中,是不是有某種與人類記憶相似的原理?

趙翔:確實(shí)有一定相似性。人的工作記憶存在大腦皮層,短期記憶和情景記憶可能存在海馬體,通過(guò)不同頻率的信號(hào),大腦會(huì)重新建立新的突觸和連接,形成持久性記憶。AI 現(xiàn)在也在嘗試模擬這個(gè)過(guò)程。

比如說(shuō),我們可能先模糊地想到一件事,這就是模糊匹配,先命中這件事本身。然后神經(jīng)元向外擴(kuò)散突觸連接,想到一些與之相關(guān)的記憶進(jìn)行召回。這和 Graph RAG 很像:命中了一些節(jié)點(diǎn)之后,沿著圖做一跳或多跳的擴(kuò)散,召回新的節(jié)點(diǎn)。從模糊匹配到仔細(xì)回想,再到形成整個(gè)認(rèn)知并拉回來(lái),這個(gè)過(guò)程和人類記憶還是很像的。

余宣慶:我也非常認(rèn)可。人工智能確實(shí)從腦科學(xué)、認(rèn)知心理學(xué)中獲取理論基礎(chǔ)和靈感來(lái)建設(shè)系統(tǒng)。但我不完全認(rèn)為它一定要和人腦的神經(jīng)結(jié)構(gòu)完全對(duì)應(yīng)。因?yàn)槿祟愄烊挥猩砭窒扌裕瑫?huì)自然遺忘。而存在計(jì)算機(jī)系統(tǒng)里的數(shù)據(jù)是否有必要專門(mén)去遺忘,我打個(gè)問(wèn)號(hào)。我們更多探討的是:在下一次 AI 輔助決策或執(zhí)行任務(wù)時(shí),它能不能用最低的成本、最高的響應(yīng)速度找回需要的信息——這個(gè)信息可以是精細(xì)粒度的,也可以是概要性的。

人腦記憶是結(jié)合了情境的:結(jié)合我們當(dāng)下正在發(fā)生的事情的話題、任務(wù)和目標(biāo),把內(nèi)容和情境關(guān)聯(lián)起來(lái)再去存儲(chǔ)?,F(xiàn)在一些記憶工程的實(shí)現(xiàn),也開(kāi)始分主題保存、分層保存,探索加入環(huán)境交互、目標(biāo)感知,來(lái)決定記什么、重點(diǎn)記多少。記憶這個(gè)學(xué)科,確實(shí)是腦科學(xué)和實(shí)際工程場(chǎng)景的需求雙向哺育發(fā)展的。

同時(shí),記憶的作用不只是服務(wù)人。智能體對(duì)自身的工具調(diào)用、行動(dòng)軌跡也需要提取經(jīng)驗(yàn);智能體之間的交互也需要學(xué)習(xí)和記憶。記憶的作用范圍不只是 Human 和 Agent 之間,還可能是 Agent 和 Agent 之間,或者 Agent 對(duì)自身的。

短期記憶與長(zhǎng)期記憶的實(shí)現(xiàn)機(jī)制

DeepTech:那短期記憶和長(zhǎng)期記憶在具體的實(shí)現(xiàn)機(jī)制上有什么不同?

趙翔:短期記憶和工作記憶其實(shí)差不多,目前的實(shí)現(xiàn)方式就是 Context Window 上下文窗口。因?yàn)槟P捅旧硎菬o(wú)狀態(tài)的,只負(fù)責(zé)計(jì)算和輸出 Token 預(yù)測(cè)。為了解決工作記憶的一致性,使得下一次對(duì)話時(shí)能把前面的思考和內(nèi)容全部帶上,就用了 KV Cache。以前單體模型部署在顯存里,現(xiàn)在大規(guī)模部署用分布式 KV Cache 來(lái)緩存。我們?cè)诠こ躺弦矔?huì)盡量讓上下文前綴保持 Token 級(jí)的穩(wěn)定,確保 KV Cache 命中,降低重新計(jì)算量,實(shí)現(xiàn)對(duì)話窗口中短期記憶和人格的一致性。

長(zhǎng)期記憶方面,除了持續(xù)學(xué)習(xí)以外,目前我們?cè)谧龅?Memory,是在 Context Engineering 中從人和 AI 的對(duì)話里去記情景記憶或語(yǔ)義記憶。情景記憶就是原始對(duì)話的細(xì)節(jié),語(yǔ)義記憶則是對(duì)這些細(xì)節(jié)做語(yǔ)義抽象,抽象到更高層級(jí),相當(dāng)于做了一個(gè)摘要,本質(zhì)上是一種壓縮。對(duì)人來(lái)說(shuō),記憶事情也是以事件為中心的——不會(huì)一下子記到很細(xì)的東西,可能先回想起來(lái)“我們昨天做了一件什么事”,再去想里面的細(xì)節(jié)。語(yǔ)義記憶就是把事件本身做一個(gè)簡(jiǎn)短的 Summary 抽象保存。

余宣慶:趙總說(shuō)得很好。我補(bǔ)充一下工作記憶這塊:我認(rèn)為它更多關(guān)注的是 AI 完成當(dāng)次會(huì)話所要關(guān)注的任務(wù)中,哪些是關(guān)鍵信息、哪些可以丟棄。在技術(shù)實(shí)現(xiàn)上,短期記憶中也可以利用強(qiáng)化學(xué)習(xí)來(lái)判斷哪些信息在下次使用中應(yīng)該被遺忘,這本質(zhì)上是對(duì)注意力的加強(qiáng)。因?yàn)?AI 在執(zhí)行任務(wù)過(guò)程中可能會(huì)注入冗余信息,對(duì)上下文窗口的占用和大模型的注意力都會(huì)產(chǎn)生干擾。

常規(guī)的實(shí)現(xiàn)方式是:最近的保留原文,遠(yuǎn)端保留摘要,再遠(yuǎn)端保留長(zhǎng)期記憶,這樣一個(gè)組合給到 AI。對(duì)于長(zhǎng)期記憶中的語(yǔ)義記憶,我覺(jué)得除了保留事件和話題外,更重要的是關(guān)注結(jié)構(gòu)化——不只是顯性的概念性事實(shí)信息,還有 AI 聯(lián)想思考延伸出來(lái)的內(nèi)在屬性,以及不同主題信息之間的關(guān)聯(lián)。這樣在回憶時(shí)可以借助類比思考、相似案例來(lái)做一些啟發(fā)性的工作。

信息壓縮與丟失的權(quán)衡

DeepTech:形成摘要的過(guò)程中,會(huì)不會(huì)造成信息丟失?隨著記憶越來(lái)越多,AI 會(huì)不會(huì)在需要時(shí)調(diào)用不出這些記憶,或者調(diào)用出錯(cuò)誤的記憶?

余宣慶:壓縮比這件事非常關(guān)鍵。不是每一輪交互輸入都很長(zhǎng),如果都用同樣的壓縮比,肯定不合適,需要調(diào)控。

我最近看到一篇研究,把壓縮看成一個(gè)“可旋轉(zhuǎn)的旋鈕”,更多關(guān)注的是某個(gè)任務(wù)、某個(gè)目標(biāo)下壓縮是否合適,有些細(xì)節(jié)信息要不要保留,可以根據(jù)臨時(shí)情況判斷。我們自己的一個(gè)工作則是持續(xù)分層級(jí)壓縮:先做一步壓縮,再異步做二次、三次壓縮??缭降臅r(shí)間范圍越長(zhǎng),壓縮粒度越粗。第一層壓縮盡量去除冗余信息,保留大部分細(xì)節(jié)。至于這些信息要不要在每次記憶調(diào)用時(shí)都拿出來(lái),可以根據(jù)問(wèn)題的復(fù)雜度靈活判斷。

摘要確實(shí)是一個(gè)很重要的話題——記憶本身就是對(duì)原始數(shù)據(jù)的凝練,把它變成有用的 Context。要不要丟失、丟失多少,可以單獨(dú)設(shè)計(jì)模塊來(lái)提升性能。這也是記憶在落地業(yè)務(wù)場(chǎng)景后,結(jié)合數(shù)據(jù)反饋和垂直任務(wù),能慢慢形成壁壘的關(guān)鍵點(diǎn)。

記憶的更新機(jī)制

DeepTech:比如我今天想吃火鍋,下周腸胃不好不想吃了,這種個(gè)人偏好的變更,記憶能跟著更新嗎?

余宣慶:有一種實(shí)現(xiàn)方式是直接找到原來(lái)的記憶存儲(chǔ)位置進(jìn)行更新,記錄一個(gè)版本的更新時(shí)間。下次檢索這個(gè)話題時(shí)就能得到最新信息。

我們的方式是增量更新補(bǔ)充:你在什么時(shí)刻多了一個(gè)新的偏好,我把你過(guò)往每個(gè)時(shí)間點(diǎn)的偏好或事實(shí)都保存下來(lái)。召回時(shí)按時(shí)間線全部拎出來(lái),再通過(guò)記憶體中的一個(gè)門(mén)控機(jī)制,判斷當(dāng)前問(wèn)題的話題場(chǎng)景下,歷史偏好要不要利用。比如回憶偏好變化時(shí),當(dāng)然要用到全部歷史;如果只是問(wèn)“你當(dāng)前喜歡什么”,那原來(lái)喜不喜歡就不重要了。

趙翔:記憶更新確實(shí)是很多 Memory 框架的一個(gè)大痛點(diǎn)。比如以前的 RAG,想對(duì)一個(gè)特定記憶進(jìn)行更新其實(shí)非常難,因?yàn)樗悄:ヅ?,召回的東西不一定是你想要的。

我們引入了一個(gè)顯式的時(shí)間軸,所有進(jìn)來(lái)的對(duì)話或多模態(tài)證據(jù)都先和時(shí)間軸進(jìn)行錨定,先錨定一個(gè)物理的具體輸入時(shí)間,然后再進(jìn)行語(yǔ)義抽象建立認(rèn)知層。這樣首先做到可追溯。狀態(tài)更新方面,我們也是做累加的,只不過(guò)會(huì)把失效的記憶標(biāo)記為“invalid”,在新的記憶上標(biāo)注“valid at”某個(gè)時(shí)間。后期需要追溯或修改某個(gè)記憶時(shí),也是根據(jù)時(shí)間定位到具體的注入點(diǎn),然后去更改它的認(rèn)知 Summary。

記憶的強(qiáng)化與遺忘

DeepTech:人類學(xué)習(xí)中,隨著不斷鞏固某個(gè)知識(shí),記憶會(huì)被強(qiáng)化,能更快調(diào)出來(lái)。AI Memory 能實(shí)現(xiàn)類似的強(qiáng)化和反思嗎?

余宣慶:如果在 AI 的 Memory 機(jī)制里,某篇課文已經(jīng)以 Knowledge 的方式存儲(chǔ)過(guò)了,對(duì) AI 來(lái)說(shuō)回憶就不是難事,幾乎每次都能召回所有細(xì)節(jié)。這和人類不同,人類必須通過(guò)不斷反思強(qiáng)化來(lái)加深記憶,把短時(shí)記憶變成長(zhǎng)期記憶。

但在 AI 中,你每次反思加工產(chǎn)生的新內(nèi)容,比如哪些地方要關(guān)注、前后篇章的邏輯關(guān)聯(lián),這些會(huì)作為增量更新補(bǔ)充到記憶中。這些相關(guān)內(nèi)容在記憶總量中的占比會(huì)越來(lái)越高。下次用 Top K 方式召回時(shí),它原來(lái)可能只占三分之一,后面就變成三分之二了。大模型在回答時(shí)自然就會(huì)給予更多注意力。

同時(shí),如果每次召回加上反思經(jīng)驗(yàn)一起拼接后,對(duì)下游任務(wù)有正向反饋,我們就可以給它加權(quán)重,不斷提升。召回排序是綜合性的,通過(guò)時(shí)間、相似度、成功帶來(lái)的置信度做融合排序。

趙翔:我們也是類似的方案。我們有一個(gè)綜合權(quán)重的 Ranking 體系,里面有很多權(quán)重分?jǐn)?shù),比如關(guān)注度、BM25 等,綜合成一個(gè) Score。其中一個(gè)很重要的點(diǎn)是:當(dāng)這個(gè)節(jié)點(diǎn)被反復(fù)提及或反復(fù)被召回時(shí),我們會(huì)對(duì)它的 Importance 進(jìn)行更新,把重要性拉起來(lái)。這樣它在排序中的位置就會(huì)非??壳?,只要提到它的次數(shù)足夠多,每次召回時(shí)它就會(huì)排第一。通過(guò)排序來(lái)實(shí)現(xiàn)記憶的增強(qiáng)和鞏固。

反過(guò)來(lái),也可以通過(guò)這種方式實(shí)現(xiàn)遺忘,這是一種 TTL(Time To Live)的功能。如果一個(gè)記憶經(jīng)常未被召回,激活時(shí)就會(huì)顯示出非常低的分?jǐn)?shù)。我們會(huì)通過(guò)異步掃描去檢查這些長(zhǎng)期未被激活的節(jié)點(diǎn),對(duì)它進(jìn)行清理,模擬人類的遺忘曲線。

余宣慶:我再補(bǔ)充一個(gè)思路。我之前有一份工作叫“在線式神經(jīng)符號(hào)融合增強(qiáng)事件預(yù)測(cè)(ONSEP)”,其中設(shè)計(jì)了一個(gè)動(dòng)態(tài)因果挖掘的規(guī)則學(xué)習(xí)器。我們用規(guī)則集來(lái)補(bǔ)充檢索器自身的能力。

具體來(lái)說(shuō),關(guān)注原因和結(jié)果事件的發(fā)生——如果某個(gè)原因被反復(fù)提及,或者對(duì)結(jié)果的預(yù)測(cè)和推理有正向作用,我們就會(huì)用 AI 的反思能力總結(jié)出一條規(guī)則:這個(gè)原因可能導(dǎo)致這個(gè)結(jié)果,標(biāo)注一個(gè)置信度,存在規(guī)則集合里。下次召回記憶時(shí),用規(guī)則集去海量歷史中優(yōu)先查找,這些原因事件就通過(guò)規(guī)則這種顯式方式加強(qiáng)了權(quán)重。規(guī)則的置信度和數(shù)量都可以隨時(shí)間更新。

AI 記住了,但能遵守嗎?

DeepTech:我們?cè)谌粘J褂?AI 時(shí),會(huì)發(fā)現(xiàn)它很難完美遵循它之前的承諾。比如我們告訴 AI“這個(gè)你一定要記住”,雖然很早之前 ChatGPT 就推出了記憶功能,但在需要召回時(shí),它是很難完美記住的?,F(xiàn)在的技術(shù)能解決嗎?

余宣慶:這個(gè)問(wèn)題的本質(zhì)是記憶機(jī)制、記憶鞏固天然會(huì)帶來(lái)一定的細(xì)節(jié)損失。一個(gè)好用、可靠的記憶體,一定需要意圖識(shí)別能力。我們到底是要對(duì)某個(gè)話題做摘要,還是要原封不動(dòng)地記住所有內(nèi)容?需要有路由策略,可以歸到 Knowledge,可以歸到長(zhǎng)期記憶做結(jié)構(gòu)化事件保存,也可以定義成規(guī)則。你要求它記住的可能是某個(gè)業(yè)務(wù)規(guī)則、必須做什么或不準(zhǔn)做什么。我們可以把它歸類到 Rules 這一欄,盡量保留所有細(xì)節(jié),在召回時(shí)做事件觸發(fā),把內(nèi)容填充到上下文中。

趙翔:我們的處理思路也不復(fù)雜。AI 本身是概率性的發(fā)散,每次輸出可能不太一樣。但用戶會(huì)明確表達(dá)一個(gè)偏好,這次輸出好或不好,或者要求它記住某件事。這本質(zhì)上是一個(gè) User Preference 的問(wèn)題。所以我們會(huì)維護(hù)一個(gè) User Preference 的 Schema 和 Profile,在召回時(shí)做條目召回,作為 AI 自我遵循的補(bǔ)充。

我們?cè)诖鎯?chǔ)原始證據(jù)層時(shí),因?yàn)樽C據(jù)層是可審計(jì)的,每輪 Turn 都會(huì)掛進(jìn)去。召不回的時(shí)候,其實(shí)可以召回到用戶和 AI 每一輪對(duì)話的細(xì)節(jié)。我們實(shí)現(xiàn)了一個(gè)五路并行 Retrieval,除了 RAG 檢索,還有圖檢索、時(shí)間序列檢索、實(shí)體節(jié)點(diǎn)檢索,以及證據(jù)層檢索,分別命中。在測(cè)試中,當(dāng)證據(jù)層召回打開(kāi)的情況下,AI 是可以完整回顧自己那段對(duì)話中的承諾的。

余宣慶:我再補(bǔ)充一點(diǎn)。我認(rèn)為大部分記憶框架缺少一個(gè)“記憶的指導(dǎo)器”。記憶體更多是一個(gè)多模塊協(xié)同的系統(tǒng),需要各司其職,意圖識(shí)別、記什么類型、記多少、要不要記、什么時(shí)候記。我們?cè)O(shè)計(jì)了一個(gè)元記憶的指導(dǎo)器,來(lái)調(diào)控各種不同的記憶組織結(jié)構(gòu)應(yīng)該怎么記。另外,記憶和大模型的組織問(wèn)題目前有點(diǎn)解耦,技術(shù)本身怎么記、應(yīng)用場(chǎng)景的用戶反饋、是否真正影響到了下游結(jié)果,這幾方面分別在推進(jìn)。整個(gè)記憶領(lǐng)域的基準(zhǔn)測(cè)試集也還不夠全面,未來(lái)會(huì)有一個(gè)融合和產(chǎn)品化的進(jìn)展。

當(dāng)前技術(shù)面臨的挑戰(zhàn)

DeepTech:目前記憶技術(shù)還有哪些未解決的挑戰(zhàn)?準(zhǔn)確性和幻覺(jué)、關(guān)聯(lián)性和推理性、過(guò)擬合、容量和效率的上限等等。

余宣慶:任務(wù)目標(biāo)的識(shí)別感知、記多少記什么的評(píng)估、召回的內(nèi)容是否真正有用以及如何評(píng)估,這些方面都還需要研究。比如召回的到底應(yīng)該是細(xì)節(jié)、概念還是模糊的摘要片段,它們?nèi)绾侮P(guān)聯(lián),要不要結(jié)合用戶 Query 做重寫(xiě)再給到下游模型。另外,當(dāng)前對(duì)記憶的評(píng)估更多聚焦于幻覺(jué)和檢索準(zhǔn)確性,但對(duì)于人機(jī)交互場(chǎng)景來(lái)說(shuō),是否深度理解了用戶、全面的用戶畫(huà)像能力,這方面也需要被討論和關(guān)注。

趙翔:我補(bǔ)充一些我們?cè)陂_(kāi)發(fā)中遇到的具體挑戰(zhàn)。首先是上下文信息是否完整、是否全面,它本身是對(duì)對(duì)話文本的抽象和原始證據(jù),所以存在一個(gè) Token Efficiency 的問(wèn)題:怎樣用盡量精準(zhǔn)且少量的 Token 去模糊匹配到用戶當(dāng)時(shí)的上下文。

對(duì)應(yīng)用側(cè)來(lái)說(shuō),Token Efficiency 就是成本的重大衡量。你可以提高 Top K 來(lái)達(dá)到更高的準(zhǔn)確率,但降低 Top K 實(shí)現(xiàn) Token 效率后準(zhǔn)確率就會(huì)下降。這是一個(gè)權(quán)衡問(wèn)題。

另外是垂直場(chǎng)景的定制化。當(dāng)我們嘗試構(gòu)建通用 AI Memory 時(shí),一些非常具體的場(chǎng)景,例如陪伴、醫(yī)療、法律,它們各自可能有一類特定的記憶需求,和業(yè)務(wù)深度綁定。在通用記憶基礎(chǔ)能力之上,如何滿足各個(gè)垂直場(chǎng)景的高度專業(yè)化或定制化需求,這也是持續(xù)的挑戰(zhàn)。

行業(yè)應(yīng)用:從知識(shí)庫(kù)到記憶

DeepTech:除了聊天和個(gè)人 Agent,金融、醫(yī)療、客服這些垂直行業(yè)已經(jīng)用上 AI Memory 了嗎?

趙翔:真正嚴(yán)肅的金融、醫(yī)療、客服場(chǎng)景里,大概率還是用 RAG——把話術(shù)或知識(shí)庫(kù)切分,RAG 召回作為數(shù)據(jù)庫(kù)。真正使用 AI Memory 的話,比如和醫(yī)生或個(gè)人專家實(shí)現(xiàn)強(qiáng)耦合,記憶就必須是可審計(jì)的。不能是 RAG 里那種模糊匹配加排序——隨機(jī)性很高,不可控,隨著向量庫(kù)膨脹、圖膨脹,召回噪聲的概率越大,正確 Ranking 的概率就越低。所以必須可治理、可審計(jì)。這也是我們特意引入時(shí)間和證據(jù)這兩個(gè)層級(jí)的原因。

不過(guò)要真正和醫(yī)療、金融這種極其嚴(yán)肅的場(chǎng)景耦合,還需要更細(xì)致的工程。比如現(xiàn)在有一種叫 Skill 的方式,本質(zhì)上也是上下文或 Few-shot,通過(guò)逐步暴露來(lái)降低 Token 占用率,先只讓 AI 看到標(biāo)題和功能,里面的細(xì)節(jié)先不暴露。后續(xù)在專業(yè)場(chǎng)景中,Memory 可能會(huì)落到用戶 Preference 或工作中 Skill 的收集和構(gòu)建上來(lái)。

余宣慶:我補(bǔ)充一下。我們關(guān)注了很多智能體對(duì)自身記憶的場(chǎng)景——現(xiàn)在智能體已經(jīng)從聊天機(jī)器人走向可以執(zhí)行任務(wù)、動(dòng)手做事的工作伙伴。它對(duì)于自身在某個(gè)任務(wù)目標(biāo)下的工具調(diào)用編排的記憶,以及在成功或失敗中能否提煉經(jīng)驗(yàn)、下次運(yùn)用經(jīng)驗(yàn)的能力,這是我們?cè)陉P(guān)注的。

比如我們有一個(gè)工業(yè)場(chǎng)景:焊接工藝參數(shù)生成。讓焊接機(jī)器人更好地適應(yīng)新的焊接目標(biāo)任務(wù),結(jié)合圖像識(shí)別得到工藝參數(shù)。這個(gè)過(guò)程中往往需要一個(gè)工藝專家站在邊上反饋參數(shù)是否合理。這種反饋很難僅僅靠 RAG 或外部知識(shí)圖譜作為靜態(tài)知識(shí)來(lái)沉淀。我們認(rèn)為未來(lái)要做到人類知識(shí)的蒸餾,把人在交互過(guò)程中反饋的審美判斷、一系列 Approve 事件,變成 AI 可以沉淀的 Skills 或 Rules,成為個(gè)性化或組織個(gè)性化的經(jīng)驗(yàn)。

另外在教育陪伴、養(yǎng)老等場(chǎng)景,教育方面的因材施教,例如學(xué)生學(xué)習(xí)某個(gè)知識(shí)的風(fēng)格和理解方式能不能通過(guò)一次測(cè)試反饋后自主調(diào)控?陪伴和養(yǎng)老場(chǎng)景則更關(guān)注情緒,比如什么事件激發(fā)什么興趣。這些都需要在業(yè)務(wù)適配時(shí)調(diào)控記憶關(guān)注的點(diǎn),設(shè)計(jì)專門(mén)的 Schema 來(lái)告訴系統(tǒng)應(yīng)該記什么方面的內(nèi)容。

挑戰(zhàn)一是能否理解這些業(yè)務(wù)場(chǎng)景的目標(biāo)任務(wù),二是推理響應(yīng)速度能否加強(qiáng)。因?yàn)槎嗄K協(xié)同的記憶體中,簡(jiǎn)單的壓縮可以用小模型,但高層次的抽象信息提煉或 SOP 提煉可能需要大模型,而大模型又非常慢。能否把大模型的能力注入到某個(gè)記憶小模型里,也是我們?cè)谔剿鞯姆较颉?/p>

個(gè)人記憶會(huì)“污染”知識(shí)庫(kù)嗎?

DeepTech:比如說(shuō)金融從業(yè)者或醫(yī)療人員把自己的知識(shí)沉淀為記憶后,這些記憶會(huì)轉(zhuǎn)化到知識(shí)庫(kù)里嗎?轉(zhuǎn)化之后會(huì)不會(huì)污染知識(shí)庫(kù)?

趙翔:知識(shí)庫(kù)和記憶的區(qū)別在于:記憶和人是強(qiáng)綁定的。在專業(yè)場(chǎng)景里,通用底座模型的知識(shí)在任何領(lǐng)域都已經(jīng)觸達(dá)人類邊界了,它知道的肯定比你多。

人在這里起的作用是什么?是怎么去調(diào)用這些知識(shí),在一個(gè)非常具體的場(chǎng)景或崗位里,通過(guò)沉淀下來(lái)的經(jīng)驗(yàn)和技巧把工作流組織起來(lái)。但這個(gè)事情現(xiàn)在也受到了 Skill 的挑戰(zhàn)。我們內(nèi)部經(jīng)常討論:如果一個(gè)公司強(qiáng)制要求每個(gè)員工把工作經(jīng)驗(yàn)和邏輯全部沉淀到文檔里作為 Skill,那這個(gè)人是不是就隨時(shí)可被 AI 替代了?

對(duì)于垂直場(chǎng)景來(lái)說(shuō),通過(guò)個(gè)人的工作經(jīng)驗(yàn)反饋、工作文檔、對(duì)話甚至文件,可以沉淀出一個(gè) Skill 節(jié)點(diǎn),按層級(jí)先只暴露一個(gè)摘要,再往下是類似 Schema 的模板,把整個(gè)經(jīng)驗(yàn)沉淀下來(lái)。這其實(shí)是從個(gè)人的零碎情景記憶,轉(zhuǎn)向高度抽象、高度凝練、高度專業(yè)化的經(jīng)驗(yàn)知識(shí)。在通用底座之上,各個(gè)垂直場(chǎng)景可以有專業(yè)化的 SDK 或 ADK。

余宣慶:可以理解為一個(gè)場(chǎng)景的適配器,拼在模型外面作為單獨(dú)一層。

至于幻覺(jué)問(wèn)題——專家經(jīng)驗(yàn)反饋中如果有某次的錯(cuò)誤操作注入了不相關(guān)的記憶或錯(cuò)亂的 Skill——我覺(jué)得需要持續(xù)監(jiān)控在應(yīng)用場(chǎng)景中的效果。通過(guò)環(huán)境交互的反饋,理解記憶帶來(lái)的效果是否有效。如果它導(dǎo)致了失敗,通過(guò)類似強(qiáng)化學(xué)習(xí)的機(jī)制,它就會(huì)被擠到l候選列表下面去,慢慢被遺忘掉。

To B 還是 To C?

DeepTech:AI 的產(chǎn)業(yè)化上一直有 To B 和 To C 之爭(zhēng)。兩位怎么看 AI Memory 在這方面的前景?

余宣慶:記憶更多可能帶來(lái)體驗(yàn)升級(jí)。很多陪伴類產(chǎn)品或兒童 AI 玩具場(chǎng)景,購(gòu)買意向可能很高,但留存率是否滿意?我看到一些玩具類產(chǎn)品說(shuō)自己有記憶,實(shí)際上就是把所有交互數(shù)據(jù)壓縮成了 1000 字,很淺,沒(méi)辦法實(shí)現(xiàn)深度的長(zhǎng)期記憶。

人在 C 端場(chǎng)景有一個(gè)社交底層需求:我真正被看到了,我的內(nèi)在好的一面、不好的一面都被關(guān)注到了。如果 AI 能在我需要幫助時(shí)回憶到那些點(diǎn),提供真正深度有用的建議,這種情緒價(jià)值,C 端消費(fèi)者是愿意買單的。

B 端則更關(guān)注生產(chǎn)力效率提升。銷售客服場(chǎng)景大家都愿意花錢(qián)獲得更多客單,代碼或?qū)懽鬟@種直接產(chǎn)出內(nèi)容的商業(yè)化場(chǎng)景,做一些記憶提效更容易落地。

趙翔:我覺(jué)得最終還是 To C。哪怕我們把 C 分成個(gè)人開(kāi)發(fā)者(小 B 或小 C),目前 To B 其實(shí)是一個(gè)介質(zhì),我們的 Memory 作為一個(gè)相對(duì)底層的 Infrastructure 能力,To B 的話 B 還是要把這個(gè)能力接到它上面面向 C。最終場(chǎng)景還是面向 C,因?yàn)?Memory 本身是一個(gè)高度個(gè)性化的東西,以用戶為中心,對(duì)用戶的記憶或 Life Context 進(jìn)行托管。只不過(guò)前期在哪些 B 端場(chǎng)景或 C 端場(chǎng)景先商業(yè)落地,這可能是路徑問(wèn)題??赡芮捌谙?To B,但最終一定面向 C。

余宣慶:我個(gè)人認(rèn)為,記憶這件事更多是面向 Agent 的。這個(gè) Agent 可以是組織創(chuàng)建的,也可以是個(gè)人創(chuàng)建的,服務(wù)于人或者企業(yè)內(nèi)部的數(shù)字員工。服務(wù)形態(tài)和商業(yè)模式可以分開(kāi)來(lái)看。

B 端更愿意付費(fèi)的場(chǎng)景,除了高價(jià)值的生產(chǎn)創(chuàng)作和銷售場(chǎng)景,還有組織經(jīng)驗(yàn)的沉淀。我們自己團(tuán)隊(duì)在探索如何更好地使用 Claude Code 或 Agent。用得好的人能在站會(huì)上分享使用經(jīng)驗(yàn),但現(xiàn)在還需要用口頭方式溝通、寫(xiě)文檔做示范教學(xué)。如果這些經(jīng)驗(yàn)?zāi)苤苯颖?AI 記住,然后另一個(gè)同事的 AI 在做類似任務(wù)時(shí)直接運(yùn)用,那就直接提效了。作為組織負(fù)責(zé)人,我非常愿意為這個(gè)買單。把員工和 AI 的交互沉淀下來(lái),這是一個(gè)非常有商業(yè)想象空間的場(chǎng)景。

隱私與信任

DeepTech:企業(yè)愿不愿意把交互記憶托管給第三方?用戶愿不愿意把隱私托管給 Agent?

余宣慶:落地推進(jìn)時(shí)確實(shí)會(huì)遇到顧慮。我們從技術(shù)層面要做數(shù)據(jù)加密,更重要的是以數(shù)據(jù)主權(quán)為中心,用戶的記憶能不能全部導(dǎo)出歸自己所有,像 U 盤(pán) 一樣可插拔地在各個(gè)新產(chǎn)品上使用。對(duì)企業(yè),也可以提供本地化部署方案。

趙翔:這是我們都要面對(duì)的問(wèn)題。To B 客戶非常在意把數(shù)據(jù)留在自己公司。我們?cè)诩軜?gòu)設(shè)計(jì)時(shí)就考慮了數(shù)據(jù)庫(kù)和 Service 之間的可解耦,對(duì)于隱私要求極高的大 B 企業(yè),數(shù)據(jù)庫(kù)可以自行托管和加密,Memory 的抽取、建圖等 Service 從我們這邊走。

對(duì) C 端來(lái)說(shuō),我們主打的是用戶的記憶托管平臺(tái),“一處記住,處處可用”。用戶在聊天過(guò)程中把信息放在這邊,通過(guò)跨平臺(tái)、跨 AI、跨 Agent 的交互,降低溝通成本,為每一個(gè) AI 構(gòu)建熟悉感和偏好了解。

余宣慶:當(dāng)然,當(dāng)我們提供的提效價(jià)值或解決剛需的價(jià)值超過(guò)了數(shù)據(jù)隱私顧慮時(shí),客戶其實(shí)不一定以此作為決策的阻塞點(diǎn)。實(shí)踐下來(lái),有些公司本地本來(lái)就有留存,只需要數(shù)據(jù)價(jià)值和服務(wù)穩(wěn)定性就夠了。

記憶孤島與遷移成本

DeepTech:當(dāng) AI Memory 沉淀到某一家公司的產(chǎn)品里,記憶遷移成本一定很高,就像微信的社交關(guān)系一樣形成壁壘。未來(lái)會(huì)出現(xiàn)基于個(gè)人數(shù)據(jù)的新壟斷嗎?

趙翔:你說(shuō)的其實(shí)就是“記憶孤島”。比如我和 Claude 聊了很重要的東西,但覺(jué)得回答不好想換成 GPT,這個(gè)遷移成本就很高,得一個(gè)對(duì)話框打開(kāi),一個(gè)復(fù)制粘貼。

我們做 Memory 上云、上 SaaS 托管,就是要去中心化,解決記憶孤島問(wèn)題。大廠天然有壁壘,它們自身就是一個(gè)中心、一個(gè)孤島,數(shù)據(jù)都在它們里面,和其他生態(tài)不互通。我們作為第三方記憶托管平臺(tái),任何支持 MCP 或通過(guò)幾行代碼接入我們記憶功能的 Agent,都實(shí)現(xiàn)了去中心化。用戶在一個(gè) Agent 里形成的記憶,可以帶著它隨處遷移,是可插拔式的。

余宣慶:另外,記憶導(dǎo)出目前還沒(méi)有建立行業(yè)標(biāo)準(zhǔn),導(dǎo)出的形態(tài)是什么?每家的記憶框架不同,導(dǎo)出數(shù)據(jù)對(duì)原框架可能非常好用,對(duì)別的框架可能就不那么適配了。這件事需要行業(yè)討論。

不過(guò)我們也可以看到,這和之前筆記類、日記類軟件的問(wèn)題類似,比如 Flomo 這樣的碎片化記憶管理工具,容量到了上限就得開(kāi) Pro,導(dǎo)出到本地也沒(méi)地方導(dǎo)入。這其實(shí)慢慢形成了社區(qū)壁壘。

趙翔:用戶經(jīng)過(guò)冷啟動(dòng)后,確實(shí)會(huì)慢慢形成壁壘。從生態(tài)角度講,積累大量用戶的依賴和粘性,可以反過(guò)來(lái)倒推開(kāi)源 Agent 或 Agent 開(kāi)發(fā)者來(lái)接入你的 Memory 能力,形成生態(tài)。

為什么大廠都在做硬件?

DeepTech:既然聊到了個(gè)人化,為什么現(xiàn)在大廠都扎堆做 AI 硬件?

余宣慶:智能硬件可以隨身攜帶、一鍵觸發(fā),降低了打開(kāi)手機(jī)、打開(kāi) App 再點(diǎn)按鈕的流程。它帶來(lái)的體驗(yàn)效率升級(jí)讓我們?cè)絹?lái)越“懶”,比手機(jī)打開(kāi)應(yīng)用的某個(gè)功能要便捷。

趙翔:有點(diǎn)類似以前互聯(lián)網(wǎng)時(shí)代大家都開(kāi)發(fā) App 以此為中心?,F(xiàn)在越來(lái)越 AI Native,大家在探索一種新的人機(jī)交互范式,盡量繞開(kāi)屏幕式交互,通過(guò)耳夾、眼鏡等硬件降低人和 AI 服務(wù)的交互成本。

DeepTech:今天也看到新聞?wù)f蘋(píng)果要開(kāi)發(fā)一個(gè)帶兩個(gè)麥克風(fēng)、一個(gè)攝像頭的胸針產(chǎn)品。AI Memory 肯定可以和智能眼鏡、智能座艙、機(jī)器人這些有頻繁交互的設(shè)備結(jié)合,成為大腦端非常重要的倉(cāng)庫(kù)。

趙翔:是的。我們之前就想從全模態(tài)開(kāi)始做,考慮的和您說(shuō)的一致。無(wú)論智能配件、機(jī)器狗、陪伴玩具,本質(zhì)上都在探索和人類直接交互的范式。這些范式的核心點(diǎn)就是必須克服“有狀態(tài)”的問(wèn)題,智能眼鏡得記住它看到的東西,陪伴機(jī)器人得記住它做過(guò)什么和要做什么。所以我們一開(kāi)始就以全模態(tài)為底座,目前能夠支持視頻、音頻和文本,全部在一張圖上做下來(lái)。

余宣慶:大廠戰(zhàn)略上考慮硬件,一是從交互層面提高效率,二是搶占入口——GUI 可能慢慢被新的交互形態(tài)替代。我們也非常歡迎硬件廠商和我們的記憶體進(jìn)行合作。我們自己也探索過(guò) C 端產(chǎn)品——時(shí)間管理和規(guī)劃助手,通過(guò)對(duì)話拆解任務(wù),結(jié)合歷史偏好經(jīng)驗(yàn)做預(yù)測(cè)。高頻、高價(jià)值、有粘性的場(chǎng)景如果有硬件形態(tài),集成一些細(xì)分功能,就是很好的創(chuàng)業(yè)方向。

Token 消耗與持續(xù)運(yùn)行

DeepTech:像智能眼鏡一直戴在臉上工作十幾個(gè)小時(shí),Token 消耗量會(huì)很大,而且更多是圖像處理。

趙翔:這在以前 CV 領(lǐng)域其實(shí)也有解決方案。視頻每秒 30 幀,但一天中以攝像頭或眼鏡為例,可能 80% 甚至 90% 的幀是靜止的??梢詫?duì)幀進(jìn)行去重,只獲取那些有價(jià)值的幀。這個(gè)技術(shù)在 CV 時(shí)代已經(jīng)相對(duì)成熟了,我們做記憶時(shí)也是這樣。

余宣慶:在云端上面可以探索更高效的模型來(lái)處理壓縮,終端設(shè)備利用到的數(shù)據(jù)可能是“夠用的低分辨率”就可以了。另外能否把計(jì)算分布式放到硬件端,用端側(cè)小模型處理,也是一個(gè)方向。Token 成本、模型進(jìn)化、硬件計(jì)算設(shè)備都在進(jìn)化,關(guān)鍵是什么時(shí)候進(jìn)入這個(gè)賽道把產(chǎn)品打磨出來(lái)。

比如現(xiàn)在有些眼鏡已經(jīng)在識(shí)別哪些重要場(chǎng)景值得記錄然后才開(kāi)始拍攝。有了記憶體后可以先保存到 App 端,聯(lián)網(wǎng)環(huán)境下用戶不需要那么實(shí)時(shí)感知時(shí)再處理。如果需要實(shí)時(shí)輔助當(dāng)前決策,也可以先用工作記憶在上下文窗口里實(shí)現(xiàn)。

數(shù)字人格:會(huì)替代我嗎?

DeepTech:今天上午和實(shí)習(xí)生聊天,他會(huì)有恐懼——未來(lái)會(huì)不會(huì)出現(xiàn)一個(gè)數(shù)字人格把我替代掉?AI 有了我的記憶之后,會(huì)變成另一個(gè)“我”嗎?

余宣慶:數(shù)字分身其實(shí)是一個(gè)很高效的場(chǎng)景。在咨詢服務(wù)或客服領(lǐng)域,讓知識(shí)服務(wù)不再是一對(duì)一的、每次消耗腦力的。一個(gè)心理咨詢師、法律咨詢師,學(xué)了這么多年知識(shí),一次只能服務(wù)一小部分人,效率很低。如果能通過(guò)帶有記憶和經(jīng)驗(yàn)的數(shù)字分身作為專家模型,幫你提供給其他 Agent 或人類服務(wù),產(chǎn)生被動(dòng)收入,我覺(jué)得這是一個(gè)很看好的新商業(yè)模式。但你要不要授權(quán)、給它的行動(dòng)范圍和參與場(chǎng)景做什么限制,主動(dòng)權(quán)和控制權(quán)還是留在用戶自己手上。

趙翔:最近確實(shí)讓我感覺(jué)到這個(gè)趨勢(shì)。如果通過(guò) Skill 把每個(gè)人的崗位職責(zé)固化,某種程度上大部分人其實(shí)在做相對(duì)固定的事情,如果真能固化到 Skill 里,我覺(jué)得確實(shí)可以替代。

數(shù)字人格這個(gè)東西后面肯定會(huì)慢慢出現(xiàn)。如果能把一個(gè)人的各種行為偏好、思想記憶以高帶寬的 Embedding 空間形式無(wú)損傳給模型,模型可以模仿他的所作所為和思想。但目前來(lái)看,在非持續(xù)學(xué)習(xí)的形態(tài)下還很難替代,因?yàn)槟P捅旧硎潜粍?dòng)響應(yīng)的。

不過(guò)我想提到一個(gè)有意思的東西,之前 Google 可能提了一個(gè)叫 HOPE 架構(gòu)的 continue learning ,在人和 AI 交互過(guò)程中不斷更新,先是工作記憶,再慢慢傳遞到內(nèi)部,類似于快羅盤(pán)和慢羅盤(pán)之間的傳遞,緩慢更新自己的權(quán)重。他們甚至給這種模型起了個(gè)名字叫 Live Model 活體模型。當(dāng)模型能夠?qū)崿F(xiàn)熱權(quán)重更新和活體化時(shí),可能真的會(huì)有一些主動(dòng)性。再結(jié)合 Skill 沉淀和 Personality,也許真的能替代人。

但也不需要害怕。當(dāng)生產(chǎn)力極大豐富的時(shí)候,也許就是按需勞動(dòng)、物資極大豐盛的時(shí)代——暢想一下而已。

余宣慶:目前的 AI 不能完全模仿人類。人類在持續(xù)學(xué)習(xí),有從自己做過(guò)的事情中反思提煉經(jīng)驗(yàn)的學(xué)習(xí)能力。更重要的是主觀能動(dòng)性——有意志、有沖動(dòng)去打破現(xiàn)狀。這種內(nèi)在動(dòng)機(jī)是目前 AI 很難模仿和復(fù)刻的。

趙翔:對(duì),主體性。這可能是一個(gè)倫理問(wèn)題、社會(huì)倫理問(wèn)題。

總結(jié)

余宣慶:今天我們從最新的記憶進(jìn)展聊到了記憶的分類、技術(shù)難點(diǎn)以及產(chǎn)業(yè)化。通過(guò)和趙總的討論,我學(xué)到了很多技術(shù)實(shí)現(xiàn)的不同路線和發(fā)展方向的思考。

我們的太憶 TiMEM 認(rèn)知引擎,以時(shí)間區(qū)間分隔和分層的方式作為第一性原理來(lái)組織記憶,保證事件連續(xù)性和用戶畫(huà)像鞏固的穩(wěn)定性,再上升到從中高效提煉經(jīng)驗(yàn)性內(nèi)容來(lái)服務(wù) Agent 的自我增強(qiáng)。商業(yè)化場(chǎng)景不只 C 端,主要面向 Agent,它可以是任何組織或個(gè)人創(chuàng)建的,服務(wù)形態(tài)可以根據(jù)垂直場(chǎng)景適配。未來(lái)要學(xué)會(huì)任務(wù)感知、目標(biāo)感知,與實(shí)際工作場(chǎng)景結(jié)合。關(guān)于數(shù)字分身,我的判斷是一定要把主權(quán)交給人類和 IP 本身,否則就會(huì)失控。

趙翔:今天我們從 AI Memory 的概念一直聊到很細(xì)的技術(shù)問(wèn)題,再到行業(yè)趨勢(shì)展望。我們現(xiàn)在已經(jīng)通過(guò) STKG(時(shí)空知識(shí)圖譜)的手段實(shí)現(xiàn)了比較好的效果,在 LongMemEval 等基準(zhǔn)上打了比較好的榜。

對(duì)于未來(lái)的展望,我們也有一些深入思考。現(xiàn)在在嘗試做一個(gè)潛空間(Latent Space)注入回憶的形式——文本作為載體,人類語(yǔ)言的帶寬其實(shí)相對(duì)較低。Embedding 思想很重要:如果能把非常密集的獎(jiǎng)勵(lì)信號(hào)和 Memory 壓縮到稠密向量空間,雖然人看不懂、大模型可能也不完全懂,但如果能映射到 Embedding 交給模型做潛空間交流,這將是非常有意義的事情。這也是我們正在做的,可以期待一下。

DeepTech:非常感謝兩位老師的深度對(duì)談,也感謝大家的收聽(tīng)。關(guān)于本期內(nèi)容,歡迎在評(píng)論區(qū)和我們交流。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
“00后”陳某某被押赴刑場(chǎng) 執(zhí)行死刑

“00后”陳某某被押赴刑場(chǎng) 執(zhí)行死刑

閃電新聞
2026-02-07 16:53:35
確認(rèn)參賽!941萬(wàn)美金戰(zhàn)場(chǎng),鄭欽文攜新帥出征,首戰(zhàn)即考驗(yàn)?

確認(rèn)參賽!941萬(wàn)美金戰(zhàn)場(chǎng),鄭欽文攜新帥出征,首戰(zhàn)即考驗(yàn)?

卿子書(shū)
2026-03-01 09:25:20
伊朗宗教政權(quán)的重要支柱——伊斯蘭革命衛(wèi)隊(duì)

伊朗宗教政權(quán)的重要支柱——伊斯蘭革命衛(wèi)隊(duì)

老頭和你隨便聊聊
2026-01-15 08:01:47
法國(guó)美女嫁到中國(guó)后,直言:錢(qián)可以借中國(guó)婆婆卻不會(huì)給父母,為何

法國(guó)美女嫁到中國(guó)后,直言:錢(qián)可以借中國(guó)婆婆卻不會(huì)給父母,為何

哄動(dòng)一時(shí)啊
2026-02-15 11:28:54
以色列遭伊朗第三輪導(dǎo)彈襲擊

以色列遭伊朗第三輪導(dǎo)彈襲擊

財(cái)聯(lián)社
2026-02-28 16:44:06
玄學(xué)真相:凡事“反著來(lái)”,你就贏了——這才是人生最高級(jí)的破局之道

玄學(xué)真相:凡事“反著來(lái)”,你就贏了——這才是人生最高級(jí)的破局之道

青蘋(píng)果sht
2026-02-27 06:28:52
他曾是河北省委書(shū)記,橫行霸道,上班警車開(kāi)道,兒子仍潛逃在海外

他曾是河北省委書(shū)記,橫行霸道,上班警車開(kāi)道,兒子仍潛逃在海外

舊時(shí)樓臺(tái)月
2024-07-26 09:57:13
液冷天塌了?英偉達(dá)金剛石散熱GPU交付 7大龍頭鉆石散熱產(chǎn)品已量產(chǎn)

液冷天塌了?英偉達(dá)金剛石散熱GPU交付 7大龍頭鉆石散熱產(chǎn)品已量產(chǎn)

時(shí)尚的弄潮
2026-02-26 13:52:18
新華社消息|以色列北部響起爆炸聲

新華社消息|以色列北部響起爆炸聲

新華社
2026-02-28 17:10:42
3月1日起,銀行存款50萬(wàn)以下10萬(wàn)以上的人,這幾個(gè)消息一定要了解

3月1日起,銀行存款50萬(wàn)以下10萬(wàn)以上的人,這幾個(gè)消息一定要了解

別人都叫我阿腈
2026-03-01 02:00:06
劉鄧大軍本有42萬(wàn)人,挺進(jìn)大別山后只剩7萬(wàn),其余35萬(wàn)都去哪了

劉鄧大軍本有42萬(wàn)人,挺進(jìn)大別山后只剩7萬(wàn),其余35萬(wàn)都去哪了

嘆為觀止易
2026-02-21 16:14:58
俄軍彈藥“心臟”停跳!156萬(wàn)噸產(chǎn)能瞬間清零,烏克蘭這波無(wú)人機(jī)立了大功

俄軍彈藥“心臟”停跳!156萬(wàn)噸產(chǎn)能瞬間清零,烏克蘭這波無(wú)人機(jī)立了大功

Ck的蜜糖
2026-02-28 16:21:43
大戰(zhàn)可能馬上開(kāi)始了

大戰(zhàn)可能馬上開(kāi)始了

安安說(shuō)
2026-02-25 10:11:39
臉在江山在?事實(shí)證明,失去黃曉明的楊穎,又回到了她的“怪圈”

臉在江山在?事實(shí)證明,失去黃曉明的楊穎,又回到了她的“怪圈”

觀察鑒娛
2026-02-28 10:07:44
“我老公家要絕后了,我娘家也要絕后了”,一廣西網(wǎng)友發(fā)帖引共鳴

“我老公家要絕后了,我娘家也要絕后了”,一廣西網(wǎng)友發(fā)帖引共鳴

火山詩(shī)話
2026-02-26 09:41:57
醫(yī)生提醒:無(wú)論多壞的肺,只要常吃這5樣,肺一天比一天好

醫(yī)生提醒:無(wú)論多壞的肺,只要常吃這5樣,肺一天比一天好

路醫(yī)生健康科普
2026-02-28 23:20:03
多米尼加總統(tǒng)稱發(fā)現(xiàn)逾1.5億噸稀土礦藏 或?qū)⒊申P(guān)鍵礦產(chǎn)供應(yīng)國(guó)

多米尼加總統(tǒng)稱發(fā)現(xiàn)逾1.5億噸稀土礦藏 或?qū)⒊申P(guān)鍵礦產(chǎn)供應(yīng)國(guó)

財(cái)聯(lián)社
2026-02-28 19:05:08
西方媒體譏笑:全球90%激光雷達(dá)來(lái)自中國(guó),結(jié)果中國(guó)每年虧上億元

西方媒體譏笑:全球90%激光雷達(dá)來(lái)自中國(guó),結(jié)果中國(guó)每年虧上億元

王二哥老搞笑
2026-02-28 16:11:19
伊朗退了,敘利亞退了,巴勒斯坦退了,黎巴嫩退了,塞爾維亞退了

伊朗退了,敘利亞退了,巴勒斯坦退了,黎巴嫩退了,塞爾維亞退了

南權(quán)先生
2026-01-29 15:57:27
前線首次拍到烏克蘭幻影2000,“鐵錘”數(shù)量大漲!俄軍又炸水壩

前線首次拍到烏克蘭幻影2000,“鐵錘”數(shù)量大漲!俄軍又炸水壩

鷹眼Defence
2026-02-28 17:01:01
2026-03-01 11:39:00
DeepTech深科技 incentive-icons
DeepTech深科技
麻省理工科技評(píng)論獨(dú)家合作
16340文章數(shù) 514679關(guān)注度
往期回顧 全部

科技要聞

小米超跑概念車全球首秀!殺入頂豪俱樂(lè)部

頭條要聞

哈梅內(nèi)伊遇襲身亡 特朗普:被擊斃的領(lǐng)導(dǎo)人都無(wú)計(jì)可施

頭條要聞

哈梅內(nèi)伊遇襲身亡 特朗普:被擊斃的領(lǐng)導(dǎo)人都無(wú)計(jì)可施

體育要聞

球隊(duì)主力全報(bào)銷?頂風(fēng)擺爛演都不演了

娛樂(lè)要聞

《江山為聘》:吳謹(jǐn)言陳哲遠(yuǎn)燃炸朝堂

財(cái)經(jīng)要聞

中東局勢(shì)升級(jí) 如何影響A股、黃金和原油

汽車要聞

小米汽車2月交付超20000臺(tái) 雷軍:為新SU7量產(chǎn)作準(zhǔn)備

態(tài)度原創(chuàng)

旅游
手機(jī)
教育
親子
軍事航空

旅游要聞

春節(jié)假期珠峰景區(qū)游客量創(chuàng)新高

手機(jī)要聞

華為HarmonyOS 6花粉Beta版更新包超18G,曝端側(cè)模型占大半

教育要聞

稅務(wù)專業(yè)別選錯(cuò)!精準(zhǔn)定位財(cái)政學(xué)類

親子要聞

深圳光明以“生態(tài)育人”賦能高質(zhì)量發(fā)展 這所幼兒園提供樣本

軍事要聞

美國(guó)以色列聯(lián)合襲擊伊朗 實(shí)時(shí)戰(zhàn)況

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版