支持私有云部署
AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


中国人自己的Llama:Qwen1.5开源110B参数模型
浏览次数: 1606

写在前面

大家好,我是刘聪NLP。

开源界最近属实是太疯狂了,前有Llama3-70B模型开源,后有Qwen1.5开源千亿(110B)级别参数模型。

Qwen你真的让我开始捉摸不透了,1.5系列已经从0.5B、1.8B、7B、14B、32B、72B到现在的110B、还有Code系列模型、MOE系列模型,太全了,感觉已经快把中文开源模型市场给垄断了。

并且,值得注意的是,110B的模型是Dense的模型,不是虚胖的MOE模型(个人总觉得MOE模型的参数有点不真实,不喜勿喷)。

上周的时候,Qwen1.5-110B-Chat的Demo已经放出,其实早有内部消息说本周开源参数,果然,你是说话算数的。

Blog: https://qwenlm.github.io/blog/qwen1.5-110b
HF: https://huggingface.co/Qwen/Qwen1.5-110B-Chat
Demo: https://huggingface.co/spaces/Qwen/Qwen1.5-110B-Chat-demo

Qwen1.5-110B介绍

模型结构与之前模型相似,采用Transformer-Decoder架构,并使用分组查询注意力(Grouped Query Attention,GQA),加速模型推理计算。模型的最大长度为32K,支持英、中、法、西、德、俄、日、韩、越等多种语言。

在基础能力上的效果全面领先72B模型,与Llama3-70B模型也是平分秋色。

在Chat能力上,在MT-Bench和AlpacaEval 2.0上进行了评估,也是优于Llama-3-70B-Instruct。

由于在训练110B模型过程中,没有对预训练的方法进行大幅改变,因此与72B相比的性能提升主要来自于增加模型规模。

此外,在lmsys的对战榜单上,原来Llama3-70B是开源最强,排在第6,Qwen1.5-72B排在13。按照这个架势,Qwen1.5-110B完全有机会成为开源最强模型,期待后续大家投票的结果。

Qwen1.5-110B本身就有很多中文数据,相较于Llama3模型来说,对中文的适配也会更好。(反正我基本全面拥抱了,主要是各个尺寸都有,用着就很舒服

模型使用

直接transformers走起,模型下载有困难的同学,详见我之前写的一篇文章《大模型下载使我痛苦》。

from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto

model = AutoModelForCausalLM.from_pretrained(
    "Qwen/Qwen1.5-110B-Chat",
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-110B-Chat")

prompt = "你叫什么名字"
messages = [
    {"role""system""content""You are a helpful assistant."},
    {"role""user""content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)

generated_ids = model.generate(model_inputs.input_ids,max_new_tokens=512)

generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

print(response)

PS:自己没有显卡的也没关系,反正HF上是由Demo的,嫖就完事儿了。

测试几个弱智吧问题

石油也是油,为啥没人用它来炒菜?

如果把脏话都说出来了,那么嘴是不是就干净了

为什么孙悟空是中国猴子却叫美猴王,不应该叫中猴王吗

下雨天关节疼 那我骗它是晴天不就不会疼了

PS:大部分回答还是不错的,自己体验下来整体效果也是很强。

写在最后

Qwen2系列模型说是下个月会开源,十分期待。

大模型开源社区也是越来月繁荣昌盛,个人认为与闭源直接的差距是在缩小的,请各位头部开源组织继续加油,我会紧紧跟随。

推荐新闻
RAG系列04:使用ReRank进行重排序
本文介绍了重排序的原理和两种主流的重排序方法:基于重排模型和基于 LLM。文章指出,重排序是对检索到的上下文进行再次筛选的过程,类似于排序过程中的粗排和精排。在检索增强生成中,精排的术语就叫重排序。文章还介绍了使用 Cohere 提供的在线模型、bge-reranker-base 和 bge-reranker-large 等开源模型以及 LLM 实现重排序的方法。最后,文章得出结论:使用重排模型的方法轻量级、开销较小;而使用 LLM 的方法在多个基准测试上表现良好,但成本较高,且只有在使用 ChatGPT 和 GPT-4 时表现良好,如使用其他开源模型,如 FLAN-T5 和 Vicuna-13B 时,其性能就不那么理想。因此,在实际项目中,需要做出特定的权衡。
LangGPT论文:面向大语言模型的自然语言编程框架(中文版)
大语言模型 (Large Language Models, LLMs) 在不同领域都表现出了优异的性能。然而,对于非AI专家来说,制定高质量的提示来引导 LLMs 是目前AI应用领域的一项重要挑战。
第三篇:要真正入门AI,OpenAI的官方Prompt工程指南肯定还不够,您必须了解的强大方法论和框架!!!
自从ChatGPT(全名:Chat Generative Pre-trained Transformer)于2022年11月30日发布以来,一个新兴的行业突然兴起,那就是提示工程(Prompt engineering),可谓如日冲天。从简单的文章扩写,到RAG,ChatGPT展现了前所未有的惊人能力。
(三)12个RAG痛点及其解决方案
痛点9:结构化数据QA 痛点10:从复杂 PDF 中提取数据 痛点11:后备模型 痛点12:LLM安全
(二)12个RAG痛点及其解决方案
痛点5:格式错误 痛点6:不正确的特异性 痛点7:不完整 痛点8:数据摄取可扩展性

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询