微信扫码
添加专属顾问
我要投稿
探索AI模型微调的前沿技术,了解LoRA与QLoRA如何优化资源消耗和提高效率。 核心内容: 1. 参数高效微调(PEFT)技术对比传统微调的优势 2. LoRA与QLoRA技术原理及操作差异 3. LoRA技术如何实现资源节约与效率提升
LoRA(低秩自适应)和 QLoRA(量化低秩自适应)技术都可用于训练 AI 模型。更具体地说,它们都属于参数高效微调(PEFT),这种微调技术比训练大语言模型(LLM)所用的其他方法更节省资源,因此广受欢迎。
LoRA and QLoRA 都有助于更高效地对 LLM 进行微调,但在操作模型和利用存储来达到预期结果方面,它们有所不同。
LLM 是由大量参数组成的复杂模型,有些模型可能包含数十亿个参数。有了这些参数,模型可以根据一定数量的信息进行训练。参数越多,数据占用的存储空间就越多,这通常意味着模型的能力越强。
传统微调需要重新拟合(更新或调整)每个单独的参数,以便更新 LLM。这可能意味着需要对数十亿个参数进行微调,这需要耗费大量的计算时间和资金。
每次更新参数都可能会导致“过拟合”,这个术语是指 AI 模型除了学习常规训练数据之外,还学习了“噪声”数据或无用的数据。
想象一位老师在课堂上讲课的情景。这个班级一整年都在学习数学。在考试前,老师强调了长除法的重要性。在考试期间,很多学生发现自己过于关注长除法,而忘记了关键的数学方程式,这对于一些问题也同样重要。这就是传统微调过程中过拟合会对 LLM 造成的影响。
除了过拟合的问题之外,传统微调也会带来巨大的资源成本。
QLoRA 和 LoRA 都是微调技术,可以快捷地提高全面微调的效率。它们不是训练所有参数,而是将模型分解成矩阵,只训练学习新信息所需的参数。
按照我们的比喻来说,这些微调技术能够高效地引入新主题,同时又不会让模型分散对测试中其他主题的注意力。
LoRA 技术使用新参数根据新数据训练 AI 模型。
不是训练整个模型和所有预训练权重,而是将它们放在一边或“冻结”,然后训练样本量较小的参数。这些样本量被称为“低秩”自适应矩阵,LoRA 就是这么来的。
它们之所以被称为低秩矩阵,是因为它们的参数和权重数量较少。训练完成后,它们会与原始参数组合,然后作为一个单独的矩阵。这样一来,就可以更高效地进行微调。
将 LoRA 矩阵看作添加到矩阵中的一行或一列会更容易理解。
将下面这个矩阵看作需要训练的所有参数:
训练参数中的所有权重需要耗费大量时间、资金和内存。训练完成后,您可能仍然需要进行更多训练,这就浪费了大量资源。
下面这列代表低秩权重:
新的低秩参数经过训练后,将单个“行”或“列”添加到原始矩阵中。这样一来,它就可以将新训练应用到所有参数。
现在,AI 模型可以与新微调的权重一起运行。
训练低秩权重需要更少的时间、内存和成本。样本量经过训练后,它就可以在更大的矩阵中应用所学知识,而不会占用任何额外内存。
采用 LoRA 技术时,可以用更少的时间、资源和精力对模型进行微调。其优势包括:
QLoRA 是 LoRA 的扩展。它是一种与 LoRA 类似的技术,但具有额外的优势:所需内存更少。
“QLoRA” 中的“Q”代表“量化”。在这种情况下,量化模型意味着将非常复杂、精确的参数(大量小数和大量内存)压缩成更小、更简洁的参数(较少的小数和较少的内存)。
它的目标是使用单个图形处理单元(GPU)的存储和内存对模型的一部分进行微调。它使用 4 位 NormalFloat(NF4)来实现这一点,这种新的数据类型能够量化矩阵,而且所需内存甚至比 LoRA 更少。通过将参数压缩成更小、更易于管理的数据,它可以将所需的内存占用量减少到原始大小的 4 倍。
模型经过量化后,体积会变小,因此对其进行微调就变得容易多了。
将下面这行看作原始模型的参数:
// 图图图 https://www.redhat.com/rhdc/managed-files/WholeParameterV4_Original-model-parameter%20copy%203.png
共有 12 个参数,3 个绿色,6 个蓝色,2 个黄色,还有 1 个粉色。模型经过量化后,它被压缩成之前模型的表示法。
// 图图图 https://www.redhat.com/rhdc/managed-files/WholeParameterV4_Quantized-model%20copy%203.png
量化后,剩下的样本量是 1 个绿色、2 个蓝色和 1 个黄色。
在量化过程中,有些数据可能会因为太小而在压缩过程中丢失。例如,丢失了 1 个粉色参数,这是因为它在参数中所占比例极小,不能在压缩版本中代表足够的数据。
在以上示例中,我们将参数从 12 个压缩到 4 个。但实际上,数十亿个参数被压缩成几个,可以在单个 GPU 上对这些参数进行可控的微调。
理想情况下,将新训练的矩阵添加回原始矩阵后,任何丢失的数据都可能从原始参数中恢复,而不会损失精度或准确性,但不一定如此。
这项技术结合了高性能计算和易于维护的内存存储。这样一来,模型在资源有限的情况下也能保持极高的准确性。
QLoRA 技术着重易于维护的内存需求。与 LoRA 类似,它优先考虑效率,能够实现更快、更轻松的微调训练过程。其优势包括:
LoRA 本身就是一种高效的微调技术。QLoRA 是一种扩展,在 LoRA 的基础上增加了多层技术来提高效率。QLoRA 所需的存储空间明显更少。
如果您正在纠结使用哪种技术来满足自己的需求,建议考虑一下您拥有多少存储空间和资源。如果存储空间有限,使用 QLoRA 会更轻松。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-27
2025-04-27
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16