AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


安装指南
浏览次数: 1540

? 苹果Apple Silicon原生MLX框架Qwen-14B整合包!

苹果公司最近推出了一款新的机器学习框架,名为MLX,它类似于NumPy数组,并专为苹果芯片优化。这一框架旨在提高在苹果设备上运行各种规模机器学习模型的效率,尤其是大型模型。通过MLX,用户可以在Mac或iPhone上本地运行如llama3、apple openELM等大型模型,其运行效率比使用pytorch提高近3倍。MLX的推出可能使得Apple芯片成为未来在推理及训练方面性价比最高的选择。

Mac爱范团队整合了包含分别包含5亿和140亿参数的Qwen-14B模型,5亿参数的模型运行速度快得令人难以置信!

下面是视频演示:

? MLX的关键特性

  • 熟悉的API:MLX提供了一个Python API,该API紧密遵循NumPy的设计。此外,MLX还提供了一个功能齐全的C++ API,与Python API保持高度一致。通过如mlx.nn和mlx.optimizers等高级包,MLX的API在设计上与PyTorch非常相似,旨在简化更复杂模型的构建过程。

  • 可组合的函数转换:MLX支持可组合的函数转换功能,这包括自动微分、自动向量化以及计算图优化,为开发者提供了高度的灵活性和效率。

  • 延迟计算:在MLX框架中,计算操作是延迟执行的。这意味着数据数组只有在真正需要时才会被实体化,从而优化了内存的使用和计算效率。

  • 动态图构建:MLX的计算图是动态构建的,这使得更改函数参数的形状时不会触发缓慢的编译过程,同时也使得调试过程更为简单和直观。

  • 多设备支持:MLX支持在多种设备上执行操作,目前支持的设备包括CPU和GPU。

  • 统一内存模型:与其他框架不同,MLX采用了统一内存模型。在这种模型中,MLX数组存储在共享内存中,任何设备上的操作都可以直接在这些数组上执行,无需进行数据迁移,大大提高了操作的效率和便捷性。

安装指南

为了简化安装流程,Mac爱范团队将上述工具封装成了一个独立的启动包,用户只需简单点击即可运行,无需配置繁琐的Python环境。以下是获取和安装该应用的详细步骤:

下载应用

前往下载页面:https://aifun.fans/212/,点击页面右侧的下载按钮进行下载。

注意:仅支持搭载有 Mac M1/2/3 系列芯片的设备。

安装步骤

  1. 从上述链接下载DMG镜像文件。
  2. 双击打开镜像文件,将会看到如下界面:

app文件拖拽到Applications文件夹中。

  1. 复制安装完成后,首次启动先不要在启动台打开,在应用程序文件夹右键打开,原因参考Mac 安装软件常见问题
  1. 首次启动可能需要较长时间,请耐心等待。启动成功后界面如下:
  1. 软件会自动在默认浏览器打开操作界面,地址为 http://127.0.0.1:7860/,此时可以开始在浏览器中使用。

各位新老朋友,麻烦点个赞?和在看?吧!

推荐新闻
RAG系列04:使用ReRank进行重排序
本文介绍了重排序的原理和两种主流的重排序方法:基于重排模型和基于 LLM。文章指出,重排序是对检索到的上下文进行再次筛选的过程,类似于排序过程中的粗排和精排。在检索增强生成中,精排的术语就叫重排序。文章还介绍了使用 Cohere 提供的在线模型、bge-reranker-base 和 bge-reranker-large 等开源模型以及 LLM 实现重排序的方法。最后,文章得出结论:使用重排模型的方法轻量级、开销较小;而使用 LLM 的方法在多个基准测试上表现良好,但成本较高,且只有在使用 ChatGPT 和 GPT-4 时表现良好,如使用其他开源模型,如 FLAN-T5 和 Vicuna-13B 时,其性能就不那么理想。因此,在实际项目中,需要做出特定的权衡。
LangGPT论文:面向大语言模型的自然语言编程框架(中文版)
大语言模型 (Large Language Models, LLMs) 在不同领域都表现出了优异的性能。然而,对于非AI专家来说,制定高质量的提示来引导 LLMs 是目前AI应用领域的一项重要挑战。
第三篇:要真正入门AI,OpenAI的官方Prompt工程指南肯定还不够,您必须了解的强大方法论和框架!!!
自从ChatGPT(全名:Chat Generative Pre-trained Transformer)于2022年11月30日发布以来,一个新兴的行业突然兴起,那就是提示工程(Prompt engineering),可谓如日冲天。从简单的文章扩写,到RAG,ChatGPT展现了前所未有的惊人能力。
(三)12个RAG痛点及其解决方案
痛点9:结构化数据QA 痛点10:从复杂 PDF 中提取数据 痛点11:后备模型 痛点12:LLM安全
(二)12个RAG痛点及其解决方案
痛点5:格式错误 痛点6:不正确的特异性 痛点7:不完整 痛点8:数据摄取可扩展性

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询