LoRA

LoRA(Low-Rank Adaptation)是一种高效的大模型微调技术,通过引入低秩矩阵分解,在不改变原始模型参数的情况下,仅训练少量新增参数来适配下游任务,显著降低计算和存储成本。