AdaLoRA(Adaptive Low-Rank Adaptation)是一种改进的低秩自适应方法,旨在动态调整参数矩阵的秩(rank),以在模型微调过程中更高效地分配参数资源。其核心思想是通过自适应地分配不同参数矩阵的秩,使得重要的参数更新获得更高的秩(更多表达能力),而不重要的部分秩较低(节省计算资源)。以下是其动态调整秩的关键机制: 1. 参数矩阵的低秩分解 AdaLoRA基于低秩分解(类似LoRA),将待更新的权重矩阵 W 分解为两个低秩矩阵的乘积: W = W_0 + \Delta W = W_0 + …