唯一原生支持指代消解,Benchmark现象级领先 Claude Code源码泄漏的余波,还在AI圈持续发酵!…
唯一原生支持指代消解,Benchmark现象级领先
Claude Code源码泄漏的余波,还在AI圈持续发酵!
说起来还挺反常,Claude几乎Contribute了所有RAG记忆项目,结果泄露的代码却显示——
这就很矛盾了,Anthropic在官方文档和技术博客里,一直明确提到支持RAG检索。
而它“弃用”传统RAG的玩法,其实恰恰也说明了一个问题:现有的RAG解决方案,性能并没有达标。
从2023年起,混合检索就成了记忆引擎的标配逻辑,向量+关键词、加权排序……这些套路不断迭代。
但随着AI记忆场景越来越复杂,传统RAG的瓶颈也彻底暴露,明明叫记忆引擎,却还在干着搜索引擎的活儿,只会匹配相似文本,做不到真正的理解,更谈不上联想推理。
回头看AI记忆的演化路径,脉络其实非常清晰:
第一代是直接硬塞全量上下文,就像通读日记;第二代依靠向量+关键词匹配,类似查字典,可是只能找到相似内容,抓不住真实关联;
能够自主联想、推理、跨结构建立关联的认知模型。
让AI能够实现推理与联想,大家都知道跨粒度记忆的有效组织是关键。
简单点说就是让AI能同时处理细颗粒的事实和粗颗粒的上下文,还能在它们之间自由跳转(切换关联)。
但这个问题正是2023到2026年间,整个记忆引擎行业难以突破的核心瓶颈。
不过最近,我们观察到一个平均年龄19岁的中国年轻团队,心流元素,给出了可行解法——
M-FLOW,凭借自研的图路由Bundle Search架构,实现了benchmark的现象级领先。
对比Mem0、Graphiti、Cognee等主流方法,M-FLOW在多轮对话、长期记忆、多跳推理三大核心场景下,性能优势显著。
深度测评之后,可以更清晰地看到在覆盖写入、检索、预处理、知识组织等环节等29项能力维度中,M-FLOW在绝大多数关键维度上都实现了完整支持。(下图可上下滑动完整查看)
尤其在图增强检索、指代消解、多粒度索引等决定记忆质量的核心能力上表现突出。
这份成绩的背后,其实可以看到的是M-FLOW架构带来的系统性优势:
而且基本没什么使用门槛,部署流程非常简单,在具备Docker环境时只需要一行代码就能完成接入。
当然了,虽然上手简单,但在部署之前,咱也先来说说大家好奇的问题:
与当前行业里大量同质化的记忆方案不同,M-FLOW并不是用LLM辅助检索来抬高Benchmark分数,也不是简单叠加功能。
准确说,它是从根本上重构了AI记忆的组织与使用体系。
事实上,所有RAG系统都会面临的一个问题是,给定用户查询,如何精准定位存储的相关知识?
主流方案的逻辑很直接,就是将文档切块、向量化后存入向量库,检索时按余弦相似度排序。
这种方式本质上只回答“哪段文本和查询语义最接近”这一个层级的问题,对简单事实查找的效果还不错,但在复杂场景中会完全失效,因为:
究其原因,是因为平坦向量检索丢弃了知识的内在结构。
它能判断文本与查询的相似度,却完全不清楚这段文本在整个知识体系中的拓扑位置。
在这一点上,M-FLOW以图路由检索替代传统平坦检索,核心逻辑围绕分层知识拓扑展开,其核心洞察是:
不止找到“匹配的文本”,更要定位匹配点所属的完整知识结构,再对整个结构进行评分。
本文转载自量子位,版权归原作者所有
评论