微信扫码
添加专属顾问
我要投稿
LLM 界的大力出奇迹是什么样的?
美国初创公司 Magic 最近发布了一个具有1亿Token 的上下文模型。通俗点说就是你发给 AI 的消息可以写1亿个字,和国产的 Kimi 走的路子有点像。
Magic 为新发布的 LTM 模型则不依赖于传统的模糊记忆训练方法,而是设计了一种新的名为 HashHop 的技术。
基于这种技术的模型可以对推理过程中给予的多达1亿个上下文标记进行推理,Magic 还表示:
虽然这些超长上下文模型的商业应用很多,但我们只搞上游模型。
回到现实,其实当前的长上下文评估并不理想。
就拿“大海捞针”这个故事来比喻评估,将一个随机事实(针)放在长上下文窗口(大海)中,要求模型检索这件事。
Magic 因此设计了 HashHop 技术,一个新的评估上下文长度和可靠性的体系。
但哈希是随机的,所以导致不可压缩,要求模型能够始终存储和检索给定上下文大小的最大可能信息内容。
先是提出一个使用哈希对进行训练的模型:
然后要求它完成随机选择的哈希对的值:
这里衡量了单步感应头的出现,但实际应用通常需要多跳。
为了实现这一点,让模型完成一个哈希链:
强调保证顺序和位置不变性,将对提示中的哈希对进行打乱:
并提出了一种更有挑战的变体,使其中模型跳过一些步骤。
例如直接从哈希1映射到哈希6:
团队发现,在没有思路链的情况下尝试3次或更多次跳跃时性能会变差。
但对于一次2次跳跃(哈希1 → 哈希3),在没有思路链的情况下,性能上却提升了不少。
利用超长上下文机制在 text-to-diff 数据上训练了一个原型模型。
虽比前沿模型小几个数量级,但也承认了它的代码合成能力并不是很好,只能偶尔会产生合理的输出。
Google Cloud 将成为 Magic 的重要合作伙伴。
所谓超级计算机正是得到 NVIDIA 的大力支持,一共两台:
NVIDIA H100 Tensor Core GPU 提供的 Magic-G4 以及和 NVIDIA GB200 NVL72 提供的 Magic-G5。
还能够随着时间的推移扩展到数万个 Blackwell GPU。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-03
从 CLI 到桌面:Codex 把 coding agent 变成“任务指挥台”
2026-02-03
谷歌重大更新:国内手动开启 Gemini AI 侧边栏与 Auto Browse 自动浏览全攻略
2026-02-03
OpenAI 发布新的 Codex 桌面版,我现在不骂 Codex 难用了
2026-02-03
OpenClaw 技术解析:Agent Skills 机制与应用
2026-02-03
Claude Skills 官方最全指南
2026-02-03
一文搞懂Claude Skills和SubAgents及背后本质
2026-02-03
刚刚!OpenAI 正式发布 Codex App,一人指挥一支 AI 军队,Cursor 慌了?
2026-02-03
深度解读:OpenClaw 架构及生态
2026-01-24
2026-01-10
2025-11-19
2025-11-13
2026-01-26
2026-01-01
2025-12-09
2025-11-12
2026-01-09
2025-11-15
2026-02-03
2026-02-03
2026-02-02
2026-02-02
2026-02-02
2026-01-31
2026-01-30
2026-01-29