微信扫码
添加专属顾问
我要投稿
Mistral发布并开源了Mixtral-8x22B-v0.1和Mixtral-8x22B-Instruct-v0.1,Mixtral 8x22B是Mistral最新的开放模型。它为人工智能社区在性能和效率方面树立了新的标准。这是一个稀疏的专家混合(SMoE)模型,在使用的1410亿参数中,只有390亿是活跃的,为其大小提供了无与伦比的成本效率。
在Apache 2.0许可下免费使用
性能超越所有开放模型
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-23
2025-06-17
2025-06-17
2025-05-29
2025-05-23
2025-07-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-07-30
2025-07-29
2025-07-29
2025-07-29
2025-07-29
2025-07-29
2025-07-28
2025-07-28