找回密码
 立即注册
查看: 1782|回复: 0

使用 LoRA 进行 Stable Diffusion 的高效参数微调

[复制链接]

22

主题

1

回帖

233

积分

积分
233
发表于 2023-4-15 01:19:51 | 显示全部楼层 |阅读模式
LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型(例如 GPT-3)通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层(_秩-分解矩阵_)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。研究人员发现,通过聚焦大模型的 Transformer 注意力块,使用 LoRA 进行的微调质量与全模型微调相当,同时速度更快且需要更少的计算。

详细介绍地址:

https://huggingface.co/datasets/HuggingFace-CN-community/translation/blob/main/lora_cn.md
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|club.free-ai.top

GMT+8, 2025-4-3 13:46

快速回复 返回顶部 返回列表