19岁,常青藤辍学,这群中国年轻人重构了AI记忆

2026-04-05 jxgzhc 0 条评论 0 阅读
📰 资讯来源
量子位

🔗 查看原文 →

📖 阅读导引

唯一原生支持指代消解,Benchmark现象级领先 Claude Code源码泄漏的余波,还在AI圈持续发酵!…

唯一原生支持指代消解,Benchmark现象级领先

Claude Code源码泄漏的余波,还在AI圈持续发酵!

说起来还挺反常,Claude几乎Contribute了所有RAG记忆项目,结果泄露的代码却显示——

这就很矛盾了,Anthropic在官方文档和技术博客里,一直明确提到支持RAG检索。

而它“弃用”传统RAG的玩法,其实恰恰也说明了一个问题:现有的RAG解决方案,性能并没有达标。

从2023年起,混合检索就成了记忆引擎的标配逻辑,向量+关键词、加权排序……这些套路不断迭代。

但随着AI记忆场景越来越复杂,传统RAG的瓶颈也彻底暴露,明明叫记忆引擎,却还在干着搜索引擎的活儿,只会匹配相似文本,做不到真正的理解,更谈不上联想推理。

回头看AI记忆的演化路径,脉络其实非常清晰:

第一代是直接硬塞全量上下文,就像通读日记;第二代依靠向量+关键词匹配,类似查字典,可是只能找到相似内容,抓不住真实关联;

能够自主联想、推理、跨结构建立关联的认知模型

让AI能够实现推理与联想,大家都知道跨粒度记忆的有效组织是关键。

简单点说就是让AI能同时处理细颗粒的事实和粗颗粒的上下文,还能在它们之间自由跳转(切换关联)。

但这个问题正是2023到2026年间,整个记忆引擎行业难以突破的核心瓶颈。

不过最近,我们观察到一个平均年龄19岁的中国年轻团队,心流元素,给出了可行解法——

M-FLOW,凭借自研的图路由Bundle Search架构,实现了benchmark的现象级领先。

对比Mem0、Graphiti、Cognee等主流方法,M-FLOW在多轮对话、长期记忆、多跳推理三大核心场景下,性能优势显著。

深度测评之后,可以更清晰地看到在覆盖写入、检索、预处理、知识组织等环节等29项能力维度中,M-FLOW在绝大多数关键维度上都实现了完整支持。(下图可上下滑动完整查看)

尤其在图增强检索、指代消解、多粒度索引等决定记忆质量的核心能力上表现突出。

这份成绩的背后,其实可以看到的是M-FLOW架构带来的系统性优势:

而且基本没什么使用门槛,部署流程非常简单,在具备Docker环境时只需要一行代码就能完成接入。

当然了,虽然上手简单,但在部署之前,咱也先来说说大家好奇的问题:

与当前行业里大量同质化的记忆方案不同,M-FLOW并不是用LLM辅助检索来抬高Benchmark分数,也不是简单叠加功能。

准确说,它是从根本上重构了AI记忆的组织与使用体系。

事实上,所有RAG系统都会面临的一个问题是,给定用户查询,如何精准定位存储的相关知识?

主流方案的逻辑很直接,就是将文档切块、向量化后存入向量库,检索时按余弦相似度排序。

这种方式本质上只回答“哪段文本和查询语义最接近”这一个层级的问题,对简单事实查找的效果还不错,但在复杂场景中会完全失效,因为:

究其原因,是因为平坦向量检索丢弃了知识的内在结构

它能判断文本与查询的相似度,却完全不清楚这段文本在整个知识体系中的拓扑位置。

在这一点上,M-FLOW以图路由检索替代传统平坦检索,核心逻辑围绕分层知识拓扑展开,其核心洞察是:

不止找到“匹配的文本”,更要定位匹配点所属的完整知识结构,再对整个结构进行评分。

本文转载自量子位,版权归原作者所有

jxgzhc

暂无个人简介

查看全部文章
上一篇 下一篇

评论

评论已关闭。