微信扫码
添加专属顾问
我要投稿
LoRA微调技术揭秘:如何用低成本实现大模型能力升级? 核心内容: 1. 大模型微调的必要场景与替代方案对比 2. LoRA技术原理图解:低秩矩阵的旁路训练机制 3. 矩阵分解思想在参数优化中的实际应用
矩阵分解要做的是预测出矩阵中缺失的评分,使得预测评分能反映用户的喜欢程度,可以把预测评分最高的前K个电影推荐给用户了。
要从评分矩阵中分解出User矩阵和Item矩阵,只有左侧的评分矩阵R是已知的,User矩阵和Item矩阵是未知,学习出User矩阵和Item矩阵,使得User矩阵*Item矩阵与评分矩阵中已知的评分差异最小=> 最优化问题。(要得到User矩阵和Item矩阵,我们要先自行了解矩阵分解的目标函数和训练过程,目标函数最优化问题的工程解法,主要有交替最小二乘法(ALS)和随机梯度下降(SDG))。
对于这个场景问题,我们可以将电影分成动作、动画、爱情三个类别,用户的电影爱好体现在User向量上,观察Item矩阵,电影的风格也会体现在Item向量上,MF用user向量和item向量的内积去拟合评分矩阵中该user对该item的评分,内积的大小反映了user对item的喜欢程度。内积大匹配度高,内积小匹配度低。隐含特征个数k,k越大,隐类别分得越细,计算量越大。
某个用户u对电影i的预测评分= User向量和Item向量的内积把这两个矩阵相乘,就能得到每个用户对每部电影的预测评分了,评分值越大,表示用户喜欢该电影的可能性越大,该电影就越值得推荐给用户。
• 初始化,A采用高斯分布初始化,B初始化为全0,这样训练开始时旁路为0矩阵
• 多任务切换,当前任务W0+B1A1,将lora部分减掉,换成B2A2,即可实现任务切换
• 秩的选取:对于一般的任务,rank=1,2,4,8即可,如果任务较大,可以选择更大的rank。
下期我们就开始lora微调实操,展示几个微调案例,点个关注不迷路~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-05
2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了
2025-11-05
基于昇腾NPU的Qwen3量化因子代码生成微调实战
2025-10-21
从零教你微调一个专属领域大模型,看完小白也能学会炼丹!(完整版)
2025-10-14
用Macbook微调Qwen3!手把手教你用微调给Qwen起一个新名字
2025-10-12
微调已死?Google 和斯坦福论文指出AI 学习新范式
2025-09-25
如何将 AI 代码采纳率从30%提升到80%?
2025-09-24
一位淘宝工程同学的大模型LoRA微调尝试
2025-09-20
在Colab中微调Qwen3-4B模型实战指南
2025-10-12
2025-08-25
2025-08-23
2025-10-14
2025-09-07
2025-09-04
2025-09-09
2025-10-21
2025-09-20
2025-09-24