支持私有云部署
AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


微软Phi-3:小模型大能力,引领手机上的 AI 革命
浏览次数: 1574

人工智能的迅猛发展离不开大规模语言模型的驱动,但其庞大的计算资源需求限制了其在终端设备上的应用。微软最新推出的Phi-3系列小型语言模型,突破了这一瓶颈,将大模型级别的自然语言处理能力集成到手机等移动终端中,为AI应用开辟了广阔的新空间。

Phi-3系列模型拥有三大核心优势:

  • 突破传统:小规模模型却拥有接近大型语言模型的语言理解和推理水平。

  • 高效低耗:计算资源占用极少,非常适合嵌入式应用和移动智能终端。

  • 聚焦核心:避免存储大量事实知识,着力培养核心的语言理解与逻辑推理能力。

引言:AI 语言大未来现身终端

人工智能的突飞猛进离不开大规模语言模型的驱动,但在嵌入式、移动等终端场景,庞大的计算资源需求仍然是一大障碍。为解决这一难题,微软最新推出了 Phi-3 系列小型语言模型,将大模型般的自然语言处理能力集成到手机等移动终端中。AI 的大未来,就从这个小小的 3.8B 参数模型开始。

Phi-3:创新之处

Phi-3系列模型的创新之处,首先在于训练数据的设计。研发团队着眼于儿童习得语言知识的过程,利用大型语言模型生成了主题丰富却语句通俗易懂的睡前故事书类数据,作为训练集的基础。这种数据策略有效地提升了模型的语言理解和推理能力,证明了数据质量比模型规模更重要。正是这种前所未有的训练数据构建方式,Phi-3 系列在小规模下就能掌握复杂的语言理解和推理能力。


其次,Phi-3 模型通过精心训练,已在多项权威测评中展现出了惊人的语言大模型级别能力。Phi-3 采用了高效的 Transformer 解码器架构,并针对移动设备进行了优化,使其能够在手机等个人设备上流畅运行。其默认上下文长度为 4K,并通过 LongRope 技术扩展到 128K,可处理更长的文本输入。以首款产品 Phi-3 Mini(3.8B 参数)为例,其在 MMLUHellaSwagAnLIGSM-8KMedQA 等数据集上的表现,几乎到达了 GPT-3.5 的高度,但体型却只有后者的十分之一。

此外,Phi-3 系列最大的优势在于极高的计算效率。与传统大模型相比,Phi-3 在保持优异语言能力的同时,对计算资源的占用却少得多。这使其不仅可部署于云端,更可轻松嵌入移动设备和物联网终端,为广阔的应用场景打开了全新的可能性。Phi-3 可以量化为 4 位,仅占用约 1.8GB 的内存,可以在 iPhone 等手机上本地运行,实现完全离线、实时的 AI 应用。实测在 iPhone 14 上,phi-3 每秒可生成超过 12  token,足以满足流畅的交互体验。

Phi-3家族:规模化发展

除了 phi-3-mini,微软还发布了 Phi-3 系列的其他模型,包括 phi-3-small (7B 参数 phi-3-medium (14B 参数),它们在性能和功能上都有进一步提升:

Phi-3-small: 使用了 tiktoken tokenizer 以支持更好的多语言处理,并采用了分组查询注意力和块稀疏注意力等技术,在保持长上下文检索性能的同时,进一步优化了 KV 缓存占用。

Phi-3-medium: 拥有 40 个头和 40 层,嵌入维度为 5120,在各项基准测试中都取得了优异的成绩。

Phi-3系列模型的推出,为开发者提供了更多选择,可以根据不同的需求和应用场景选择合适的模型。

优势总结

总的来说,Phi-3 系列模型的优势主要有三点:

突破传统: 小规模模型却拥有接近大型语言模型的语言理解和推理水平。

高效低耗: 计算资源占用极少,非常适合嵌入式应用和移动智能终端。

聚焦核心: 避免存储大量事实知识,着力培养核心的语言理解与逻辑推理能力。

应用前景:AI 无处不在

凭借其小巧高效但又智能强大的特点,Phi-3 系列模型的应用前景是广阔的:

垂直领域: 为用户提供接近大模型级别的自然语言交互体验,例如智能客服、专业领域问答、特定知识库的检索咨询等。

终端设备: 直接部署在移动设备、智能硬件和物联网等终端中,实现语音交互、信息检索等功能的隐私与实时响应。

企业应用: 为企业量身定制高端的自然语言处理方案,有效降低成本,提升效率。

与竞品对比:脱颖而出

近年来,小型语言模型发展迅速,除了 Phi-3 系列,还有其他一些优秀的模型,例如 Google GemmaAnthropic Claude 3 Haiku  Meta Llama 3 等。与这些模型相比,Phi-3 系列在推理能力、代码能力和安全性方面具有显著优势,并且拥有更大的模型规模选择,能够满足更广泛的应用需求。

未来展望:AI 新纪元的引领者

Phi-3系列的诞生标志着小规模高性能语言模型的时代已经到来。凭借突破性的创新,微软必将引领自然语言处理 AI 在更广阔的领域大显身手,推动人工智能技术触及生活的方方面面。未来,微软将持续加大在这一领域的投资力度,不断扩大模型规模、丰富训练数据,以进一步提升模型性能,并致力于进一步优化模型训练方法,在性能和计算资源占用之间寻求更加平衡的最佳组合,为更多应用场景提供完美的语言 AI 解决方案。


推荐新闻
RAG系列04:使用ReRank进行重排序
本文介绍了重排序的原理和两种主流的重排序方法:基于重排模型和基于 LLM。文章指出,重排序是对检索到的上下文进行再次筛选的过程,类似于排序过程中的粗排和精排。在检索增强生成中,精排的术语就叫重排序。文章还介绍了使用 Cohere 提供的在线模型、bge-reranker-base 和 bge-reranker-large 等开源模型以及 LLM 实现重排序的方法。最后,文章得出结论:使用重排模型的方法轻量级、开销较小;而使用 LLM 的方法在多个基准测试上表现良好,但成本较高,且只有在使用 ChatGPT 和 GPT-4 时表现良好,如使用其他开源模型,如 FLAN-T5 和 Vicuna-13B 时,其性能就不那么理想。因此,在实际项目中,需要做出特定的权衡。
LangGPT论文:面向大语言模型的自然语言编程框架(中文版)
大语言模型 (Large Language Models, LLMs) 在不同领域都表现出了优异的性能。然而,对于非AI专家来说,制定高质量的提示来引导 LLMs 是目前AI应用领域的一项重要挑战。
第三篇:要真正入门AI,OpenAI的官方Prompt工程指南肯定还不够,您必须了解的强大方法论和框架!!!
自从ChatGPT(全名:Chat Generative Pre-trained Transformer)于2022年11月30日发布以来,一个新兴的行业突然兴起,那就是提示工程(Prompt engineering),可谓如日冲天。从简单的文章扩写,到RAG,ChatGPT展现了前所未有的惊人能力。
(三)12个RAG痛点及其解决方案
痛点9:结构化数据QA 痛点10:从复杂 PDF 中提取数据 痛点11:后备模型 痛点12:LLM安全
(二)12个RAG痛点及其解决方案
痛点5:格式错误 痛点6:不正确的特异性 痛点7:不完整 痛点8:数据摄取可扩展性

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询