微信扫码
添加专属顾问
我要投稿
Qwen3-Coder-Flash以30B小参数实现480B级性能,专为高效编码任务优化,支持256K长上下文与Agentic Coding功能。 核心内容: 1. Qwen3-Coder-Flash的核心技术突破与参数配置 2. 在Agentic Coding和长上下文处理上的突出表现 3. 快速开始指南与模型应用场景
Qwen3-Coder-30B-A3B-Instruct发布,官方起名叫Qwen3-Coder-Flash,小参数3B激活同时兼具效果和效率,主要改进如下:
Qwen3-Coder-30B-A3B-Instruct 具备以下特征:
注意:该模型仅支持非思考模式,不会在输出中生成 <think></think>
区块,因此不再需要设置 enable_thinking=False
。
如需了解基准评估、硬件需求及推理性能等更多细节,请参阅我们的博客、GitHub 与文档。
建议使用最新版 transformers
。
若使用 transformers<4.51.0
,将出现以下错误:
下方代码片段演示如何基于给定输入使用模型生成内容。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-Coder-30B-A3B-Instruct"
# 加载 tokenizer 与模型
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
# 准备模型输入
prompt = "Write a quick sort algorithm."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# 进行文本补全
generated_ids = model.generate(
**model_inputs,
max_new_tokens=65536
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
content = tokenizer.decode(output_ids, skip_special_tokens=True)
print("content:", content)
提示:如遇内存不足 (OOM) 问题,可将上下文长度缩小至如 32,768
。
本地使用时,Ollama、LMStudio、MLX-LM、llama.cpp 与 KTransformers 均已支持 Qwen3。
Qwen3-Coder 在工具调用方面表现出色。
可如下例所示简单定义或使用任意工具。
# 你的工具实现
def square_the_number(num: float) -> dict:
return num ** 2
# 定义 Tools
tools=[
{
"type":"function",
"function":{
"name": "square_the_number",
"description": "output the square of the number.",
"parameters": {
"type": "object",
"required": ["input_num"],
"properties": {
'input_num': {
'type': 'number',
'description': 'input_num is a number that will be squared'
}
},
}
}
}
]
import OpenAI
# 定义 LLM
client = OpenAI(
# 使用与 OpenAI API 兼容的自定义端点
base_url='http://localhost:8000/v1', # api_base
api_key="EMPTY"
)
messages = [{'role': 'user', 'content': 'square the number 1024'}]
completion = client.chat.completions.create(
messages=messages,
model="Qwen3-Coder-30B-A3B-Instruct",
max_tokens=65536,
tools=tools,
)
print(completion.choice[0])
为获得最佳表现,建议按以下设置:
采样参数:
temperature=0.7
、top_p=0.8
、top_k=20
、repetition_penalty=1.05
。充足的输出长度:大多数查询建议使用 65,536 tokens 的输出长度,这对 instruct 模型已足够。
若我们的工作对您有帮助,欢迎引用。
@misc{qwen3technicalreport,
title={Qwen3 Technical Report},
author={Qwen Team},
year={2025},
eprint={2505.09388},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2505.09388},
}
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-02
大模型时代的AI Infra内容浅析与趋势思考
2025-08-02
阿里Qwen-MT翻译模型发布: 挑战GPT-4.1,专业术语、领域风格精准拿捏!
2025-08-02
AI开发者必看:深度解析MCP,打造高效LLM应用的秘密武器!
2025-08-02
【深度】企业 AI 落地实践(四):如何构建端到端的 AI 应用观测体系
2025-08-02
Ollama vs vLLM:哪个框架更适合推理?(第二部分)
2025-08-02
刚刚,Anthropic切断OpenAI对Claude的访问权限
2025-08-02
金融大模型的“垂直突围”:蚂蚁数科打造更懂金融的行业大脑
2025-08-02
一个人干掉整个技术部
2025-05-29
2025-05-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-06-07
2025-06-21
2025-06-12
2025-05-20
2025-08-02
2025-08-02
2025-07-31
2025-07-31
2025-07-31
2025-07-30
2025-07-30
2025-07-30