微信扫码
添加专属顾问
我要投稿
LLM 界的大力出奇迹是什么样的?
美国初创公司 Magic 最近发布了一个具有1亿Token 的上下文模型。通俗点说就是你发给 AI 的消息可以写1亿个字,和国产的 Kimi 走的路子有点像。
Magic 为新发布的 LTM 模型则不依赖于传统的模糊记忆训练方法,而是设计了一种新的名为 HashHop 的技术。
基于这种技术的模型可以对推理过程中给予的多达1亿个上下文标记进行推理,Magic 还表示:
虽然这些超长上下文模型的商业应用很多,但我们只搞上游模型。
回到现实,其实当前的长上下文评估并不理想。
就拿“大海捞针”这个故事来比喻评估,将一个随机事实(针)放在长上下文窗口(大海)中,要求模型检索这件事。
Magic 因此设计了 HashHop 技术,一个新的评估上下文长度和可靠性的体系。
但哈希是随机的,所以导致不可压缩,要求模型能够始终存储和检索给定上下文大小的最大可能信息内容。
先是提出一个使用哈希对进行训练的模型:
然后要求它完成随机选择的哈希对的值:
这里衡量了单步感应头的出现,但实际应用通常需要多跳。
为了实现这一点,让模型完成一个哈希链:
强调保证顺序和位置不变性,将对提示中的哈希对进行打乱:
并提出了一种更有挑战的变体,使其中模型跳过一些步骤。
例如直接从哈希1映射到哈希6:
团队发现,在没有思路链的情况下尝试3次或更多次跳跃时性能会变差。
但对于一次2次跳跃(哈希1 → 哈希3),在没有思路链的情况下,性能上却提升了不少。
利用超长上下文机制在 text-to-diff 数据上训练了一个原型模型。
虽比前沿模型小几个数量级,但也承认了它的代码合成能力并不是很好,只能偶尔会产生合理的输出。
Google Cloud 将成为 Magic 的重要合作伙伴。
所谓超级计算机正是得到 NVIDIA 的大力支持,一共两台:
NVIDIA H100 Tensor Core GPU 提供的 Magic-G4 以及和 NVIDIA GB200 NVL72 提供的 Magic-G5。
还能够随着时间的推移扩展到数万个 Blackwell GPU。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-30
o3 深度解读:OpenAI 终于发力 tool use,agent 产品危险了吗?
2025-04-30
深度解析OpenAI和Google智能体白皮书及背后两种路线|大模型研究
2025-04-30
MCP入门指南:大模型时代的USB接口
2025-04-30
通俗易懂的梳理MCP的工作流程(以高德地图MCP为例)
2025-04-30
一文说明 Function Calling、MCP、A2A 的区别!
2025-04-30
MCP很好,但它不是万灵药|一文读懂 MCP
2025-04-30
旅行规划太难做?5 分钟构建智能Agent,集成地图 MCP Server
2025-04-29
10万元跑满血版DeepSeek,这家公司掀了一体机市场的桌子|甲子光年
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-04-30
2025-04-29
2025-04-29
2025-04-29
2025-04-28
2025-04-28
2025-04-28
2025-04-28