淄博市网站建设_网站建设公司_百度智能云_seo优化
2026/1/16 5:39:17 网站建设 项目流程

接上文:【通俗易懂】彻底搞懂 LoRA 矩阵分解:从“用户看电影”讲起

结合之前“用户 x 电影 = 评分”的例子,来进一步说明Rank(秩)与数值的确定机制。


1. 分解后矩阵的“秩”(Rank)怎么确定?

在之前的电影推荐例子中,我们将用户和电影压缩成了2个维度(动作分、爱情分)。这个“2”,在数学上就叫做矩阵的秩(Rank,通常记为 r)

在 LoRA (Low-Rank Adaptation) 中,这个r rr是由人(你)人工设定的超参数

为什么是人工设定的?

LoRA 的核心思想是:大模型参数虽然多,但在做特定任务(如写诗、改代码)时,真正起作用的参数变化不需要那么多维度。

  • 设定r rr的原则
    • r rr越小(如 4, 8)
      • 参数量越少,显存占用越低,训练越快。
      • 比喻:只用“动作”、“爱情” 2 个标签来概括所有电影。虽然粗糙,但抓住了主要矛盾。
    • r rr越大(如 64, 128)
      • 拟合能力越强,能捕捉更细微的信息。
      • 比喻:用了“动作”、“爱情”、“悬疑”、“科幻”… 64 个标签来概括电影。描述更精准,但计算量变大。

在实际 Llama 3 或 Stable Diffusion 的微调中,常见的r rr值通常设为8, 16, 32 或 64


2. 矩阵里的“数值”(初始值)是怎么确定的?

既然r rr只是个形状大小,那矩阵里面具体的数字(0.9, 0.1 这种)一开始是怎么来的?

假设我们要把一个d × d d \times dd×d的大权重矩阵,分解为B BB(d × r d \times rd×r) 和A AA(r × d r \times dr×d):

  1. 矩阵 A (降维矩阵)

    • 初始策略高斯分布随机初始化(Random Gaussian Initialization)。
    • 里面的数是随机生成的微小值,就像刚开始没人知道“战狼”是啥,先随机猜它是某个分类。
  2. 矩阵 B (升维矩阵)

    • 初始策略全零初始化(Zeros Initialization)。这非常关键!
    • 里面的数全部填0

为什么要这么做?

还记得公式吗?Δ W = B × A \Delta W = B \times AΔW=B×A
如果B BB全是 0,那么B × A B \times AB×A的结果也是全 0
这意味着:在训练刚开始的第一步,LoRA 挂载上去后,模型的表现和原始模型(Base Model)完全一模一样,没有任何变化。

随着训练开始(反向传播),梯度会更新A AAB BB里数值,让它们慢慢变成有意义的“动作分”、“爱情分”。


3. “评分”是怎么确定的?(在 LoRA 里对应什么?)

在“用户-电影”例子中,相乘的结果是“评分(Rating)”。
LoRA中,两个小矩阵相乘B × A B \times AB×A,得到的结果不是“评分”,而是原始权重的“增量”(Update /Δ W \Delta WΔW

对应关系图解

场景矩阵 A矩阵 B相乘结果 (Result)结果的意义
电影推荐用户画像 (User)电影属性 (Movie)评分 (Rating)预测用户会不会喜欢这部电影
LoRA降维投影 (A)升维投影 (B)权重增量 (Δ W \Delta WΔW)告诉大模型这句话该怎么改着说

具体计算过程:

假设你在微调一个大模型让它学会“说脏话”(仅举例):

  1. 输入:你输入 “Hello”。
  2. 原始路径:原始大模型权重W WW计算由于没学过脏话,想输出 “Hi there”。
  3. LoRA 路径
    • 输入 “Hello” 通过矩阵 A 变成了低维特征(比如捕捉到了“打招呼”这个意图)。
    • 再通过矩阵 B 变成了高维的修正信号(学到的新知识:这里应该加个脏词)。
    • 这个修正信号就是Δ W \Delta WΔW作用的结果
  4. 最终融合
    • 最终输出 = 原始输出 + LoRA修正
    • O u t p u t = W x + Δ W x = W x + B ( A x ) Output = Wx + \Delta Wx = Wx + B(Ax)Output=Wx+ΔWx=Wx+B(Ax)
    • 结果可能变成了 “Hi there, f***!”。

总结

  • Rank (秩):是你拍脑袋定的,决定了模型能学多少新花样。
  • 数值:一开始是0(为了不破坏原模型),靠由于数据产生的Loss(误差)倒逼回来修改确定的。
  • 评分(结果):不是打分,而是对原模型神经元连接强度的修正值

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询