微信扫码
添加专属顾问
我要投稿
字节开源大模型Seed-OSS-36B,性能超越Qwen,支持512K长上下文和智能体任务,开发者友好且商用免费。 核心内容: 1. Seed-OSS-36B的核心特性:长上下文、推理优化、智能体能力 2. 独特技术亮点:动态思考预算控制与原生512K上下文支持 3. 开源策略:Apache-2.0商用许可及研究友好设计
昨晚,字节 Seed 团队开源首个 LLM:Seed-OSS-36B。该模型具备长上下文、推理、智能体和通用能力,开发者友好,而且还主要针对国际化场景进行了优化。尽管仅用 12T 数据训练,依然在多项主流基准上表现优异,并以 Apache-2.0 许可证开放商用。
Seed-OSS 为Dense模型,模型参数量为36B,架构设计上采用了 RoPE、GQA 注意力机制、RMSNorm 和 SwiGLU 激活函数,具体模型配置如下所示:
Seed-OSS-36B模型的主要特性如下:
Seed-OSS-36B一大特色是支持用户设置thinking budget参数来灵活指定模型的思考预算,和谷歌的Gemini 2.5 Flash一样。下图展示了在不同任务下,随着思考预算变化的性能曲线。对于较简单的任务(如 IFEval),模型的链式思维(CoT)较短,分数在思考预算增加时会出现波动;而在更具挑战性的任务(如 AIME 和 LiveCodeBench)中,模型的 CoT 更长,分数会随着思考预算的增加而提升。
下面是一个将思考预算设置为 512 的示例:在推理过程中,模型会周期性地进行自我反思,以估算已消耗和剩余的预算,并在预算耗尽或推理完成时给出最终回答:
<seed:think>Got it, let's try to solve this problem step by step. The problem says ... ...<seed:cot_budget_reflect>I have used 129 tokens, and there are 383 tokens remaining for use.</seed:cot_budget_reflect>Using the power rule, ... ...<seed:cot_budget_reflect>I have used 258 tokens, and there are 254 tokens remaining for use.</seed:cot_budget_reflect>Alternatively, remember that ... ...<seed:cot_budget_reflect>I have used 393 tokens, and there are 119 tokens remaining for use.</seed:cot_budget_reflect>Because if ... ...<seed:cot_budget_reflect>I have exhausted my token budget, and now I will start answering the question.</seed:cot_budget_reflect></seed:think>To solve the problem, we start by using the properties of logarithms to simplify the given equations: (full answer omitted).
如果未设置思维预算(默认模式),Seed-OSS 将以无限长度启动思维过程。若指定了思维预算,建议优先选择 512 的整数倍(如 512、1K、2K、4K、8K 或 16K),因为模型在这些区间上经过了大量训练。当思维预算设为 0 时,模型会直接输出回答,这里建议将低于 512 的预算统一设为该值。
Seed-OSS-36B共包括三个模型:Seed-OSS-36B-Base、Seed-OSS-36B-Base-woSyn 和 Seed-OSS-36B-Instruct。前两个为预训练模型,其中Seed-OSS-36B-Base为在预训练中引入合成数据的版本,而Seed-OSS-36B-Base-woSyn则是不含合成数据训练的版本。
Seed-OSS-36B-Base-woSyn在主流基准测试上超过了Qwen3-30B-A3B-Base-2507和Qwen2.5-32B-Base,而加入合成数据的Seed-OSS-36B-Base在性能上有进一步的提升:
后训练版本Seed-OSS-36B-Instruct也在主流基准测试上大部分优于OpenAI的OSS-20B、阿里的Qwen3-30B-A3B-Thinking-2507和Qwen3-32B,以及谷歌的Gemma3-27B:
当前 Seed-OSS 已经提了PR给transformers库,你可以安装制定的transformers库来使用这个模型:
# pip3 install -r requirements.txt
# pip install git+ssh://git@github.com/Fazziekey/transformers.git@seed-oss
from transformers import AutoModelForCausalLM, AutoTokenizer
import os
import re
model_name_or_path = "ByteDance-Seed/Seed-OSS-36B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, device_map="auto") # You may want to use bfloat16 and/or move to GPU here
messages = [
{"role": "user", "content": "How to make pasta?"},
]
tokenized_chat = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt",
thinking_budget=512 # control the thinking budget
)
outputs = model.generate(tokenized_chat.to(model.device), max_new_tokens=2048)
output_text = tokenizer.decode(outputs[0])
感觉Seed-OSS-36B应该只是字节加入开源大模型社区的开始,后面应该有更多的开源模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-22
微软炸裂新开源!POML:用“网页”思维重塑LLM提示词工程,告别手搓Prompt噩梦!
2025-08-22
腾讯开源的知识库、智能问答、微信对话机器人
2025-08-22
深度评测智能体平台Coze Studio:附部署教程
2025-08-22
DeepSeek-V3.1发布,拿下全球开源第一,确实可以封神了!(附一手实测)
2025-08-22
阿里AI编程 IDE Qoder 正式发布,BAT 终于凑齐了!
2025-08-21
QA Pairs生成开源项目:大模型应用评测实践
2025-08-21
Agent文档编写有了统一标准!OpenAI开源了AGENTS.md
2025-08-21
AI 时代的新物种,重新定义 AI DataAgent|To B 十问
2025-07-23
2025-06-17
2025-06-17
2025-08-20
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-12
2025-07-29