免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

MIT搞了个骚操作:让AI记忆力暴涨1000万倍,还更便宜了

发布日期:2026-01-28 08:03:20 浏览次数: 1524
作者:龙大聊AI

微信搜一搜,关注“龙大聊AI”

推荐语

MIT突破性研究:无需增加硬件,仅靠新思维方式就让AI记忆力暴涨1000万倍,成本更低效果更精准!

核心内容:
1. 传统AI模型的记忆瓶颈与"上下文腐烂"问题
2. MIT创新的RLM架构原理:递归搜索替代直接记忆
3. 实测性能完胜现有模型且成本大幅降低

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

你有没有遇到过这种情况:跟 AI 聊着聊着,它突然“失忆”了?

或者当你把一份几百页的文档丢给它,想让它总结一下,结果它只记住了开头和结尾,中间的关键细节全给吞了?

这就是目前大模型最让人头疼的上下文限制。虽然现在很多模型号称支持 128k 甚至 100万 token,但实际上,只要内容一多,它们的智商就会直线下降。

但最近,MIT(麻省理工学院)的研究人员搞了一个**“骚操作”。他们没有重新训练模型,也没有增加硬件成本,仅仅是用了一套新的“思维方式”**,就让 AI 的记忆力暴涨到了 1000万 token 级别,而且——更便宜、更精准

这篇论文简直是给 AI 圈的一记响亮耳光:原来我们之前的路,可能走窄了。

为什么AI会脑雾?

首先,我们要理解为什么现在的 AI 记不住东西。

传统的做法是把所有的信息(比如一整本书)一股脑塞进 AI 的“大脑”(Context Window)里。这就像是让你在考试前一分钟背下一本字典。

结果就是上下文腐烂(Context Rot)

随着输入的信息越来越多,模型在海量数据中“大海捞针”的能力会急剧下降。为了解决这个问题,很多厂商采用“压缩”策略——把前面的对话总结一下再喂给 AI。

但这就像是“复印件的复印件”,每压缩一次,细节就丢失一次。最后你得到的,可能是一个只有主干没有灵魂的骨架。

上下文腐烂问题

MIT 的神来之笔:递归搜索(RLM)

MIT 的研究人员想:既然脑子装不下,为什么非要塞进脑子里?

他们提出了一种名为 RLM(Recursive Language Models,递归语言模型) 的新架构。

这个原理说出来简单到让你怀疑人生:

  1. 外部存储:他们不把那 1000万字的资料直接喂给 AI,而是把它存成一个普通的文本文件,放在一个 Python 环境里。

  2. 赋予工具:然后,他们给 AI 一把“放大镜”——也就是写代码搜索文件的能力。

  3. 递归挖掘:这是最精彩的一步。当 AI 需要回答问题时,它不是去“回忆”,而是去“查阅”。

比如你问:“这本小说里,主角在第三章提到的那个神秘宝藏,后来在第十章是怎么被发现的?”

AI 会先搜索“第三章”和“宝藏”,找到线索后,发现需要通过“藏宝图”这个关键词去关联;于是它再次发起搜索,去全书查找“藏宝图”和“第十章”的交集。

它一层一层地往下挖,直到找到最精准的答案,然后把这些碎片拼凑起来给你。

它不需要记住整本书,它只需要知道怎么去“翻书”。

RLM递归机制

没想到吧?更强,还更省钱!

通常在科技圈,性能越强意味着越贵。但 RLM 打破了这个定律。

在测试中,面对 1000万 token 级别的超长文本任务(比如分析整个巨大的代码库,或者从几千篇论文中寻找关联),RLM 的表现完爆了现有的 GPT-5(基准测试版)和其他长文本模型。

更离谱的是成本。

  • 传统方法:如果你要把 1000万 token 喂给 GPT-5,大概需要花费 150 到 275 美元

  • RLM 方法:平均只需要 99 美元

为什么?因为传统方法每次都要把那 1000万字重新“读”一遍,消耗巨大的算力。而 RLM 只需要“读”它搜索到的那几百个字的关键片段。

性能提升了 29% 以上,成本却降低了。这简直是资本家的梦中情模。

成本与性能对比

AI 的未来:不是更大的大脑,而是更好的工具

这项研究给我们的最大启示,不仅仅是省了多少钱,而是AI 进化的方向变了

过去几年,大家都在卷参数、卷模型大小,试图造一个全知全能的“超级大脑”。但 MIT 告诉我们:核心智能(Core Intelligence)其实已经够用了。

现在的 GPT-4 或 Claude 3,智商已经足够处理 99.9% 的逻辑问题。它们缺的不是智商,而是“脚手架”(Scaffolding)

我们需要围绕这个“大脑”,构建更好的外部环境:

  • 给它无限的硬盘(外部存储);

  • 给它精准的搜索引擎(递归工具);

  • 给它执行环境(代码解释器)。

这就像一个天才科学家,你不需要把图书馆所有的书都塞进他脑子里,你只需要给他一间图书馆,和一套高效的检索系统,他就能创造奇迹。

围绕AI构建工具

写在最后

MIT 的这项 RLM 技术,实际上是把 AI 从“死记硬背”的学生,变成了一个懂得“查资料、做研究”的学者。

这意味着,未来我们处理长难任务——比如分析一家公司十年的财报、梳理一个巨大的法律案件、或者维护一套上古时期的屎山代码——将变得轻而易举。

AI 的无限上下文时代,可能真的要来了。不是靠堆算力,而是靠更聪明的架构。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询