微信扫码
添加专属顾问
我要投稿
因此,Meta 在今年的最后一次发布中推出了 Llama3.3,这是一个 700 亿参数的生成式 AI 模型,已经展示了一些非常出色的结果,并在基准数据集上击败了一些最先进的大语言模型。正如 Meta 所承诺的,该模型是开源的,因此可以免费使用。
如果你不知道的话,Llama3.3 是 Llama 系列中的第 3 个版本,前两个版本分别是 Llama3.1(80 亿、700 亿、4050 亿参数),Llama3.2(4 个变体,多模态),而现在是 Llama3.3(700 亿参数,纯文本)。
Llama 3.3 采用自回归方式运行,这意味着它通过预测序列中的下一个词来生成文本,预测的依据是前面的词。这种方法使得生成的文本连贯且上下文相关,使其适用于自然语言处理中的各种任务。Llama 3.3 的架构基于经过性能优化的变压器设计。
关键特性包括:
Llama 3.3 采用两种主要的训练方法来提升其性能:
训练数据: 基于多种公开的在线资源混合构建。
上下文长度: 可处理长达 128k 个标记的输入。
标记数量: 在超过 15 万亿个标记上进行训练。
知识截止日期: 更新至 2023 年 12 月。
支持的语言: 英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。
如上表所示
Llama3.3 在几乎所有基准测试中都优于 Llama3.1 70B
在 GPQA Diamond、MATH、IFEval 等指标上也超过了 Llama3.1 405B
甚至成本也仅为 Llama3.1 405B 的约 1/5。
总体而言,指标表现良好,考虑到模型的大小,性能非常出色。
该模型可在 HuggingFace 上使用。首先你需要
pip install --upgrade transformers
import transformers
import torch
model_id = "meta-llama/Llama-3.3-70B-Instruct"
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
model_kwargs={"torch_dtype": torch.bfloat16},
device_map="auto",
)
messages = [
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
{"role": "user", "content": "Who are you?"},
]
outputs = pipeline(
messages,
max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])
总之,Llama 3.3 作为 Llama 3.1 405B 等大型模型的强大且经济实惠的替代品,在关键基准测试中表现出色,同时保持开源和易访问性。其优化的架构、先进的训练方法和对多种语言的支持使其成为广泛 NLP 应用的理想选择。无论你是在探索文本生成、推理任务还是编程挑战,Llama 3.3 都能以较低的成本提供强大的解决方案,使其成为开发人员和研究人员的宝贵工具。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-30
速报!DeepSeek-Prover-V2-671B 悄然上线,或为 R2 铺路?
2025-04-30
“Qwen3之后,我才真正敢投AI应用”
2025-04-30
真·开源MCP平台来了!ACI.dev能一站直连600+工具,让你的智能体秒变全能王!
2025-04-30
n8n:免费+开源的自动化神器,比dify更简单,比Make更强大!
2025-04-30
宝藏发现:Sim Studio,一款让AI工作流搭建变简单的开源利器
2025-04-29
我们有必要使用 Qwen3 吗?
2025-04-29
Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
2025-04-29
阿里 Qwen3 技术详解: 4B 参数媲美 72B,MoE 架构的开源突破
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-08-13
2024-12-26
2025-04-30
2025-04-29
2025-04-28
2025-04-28
2025-04-28
2025-04-21
2025-04-19
2025-04-17