用户名
Email
自动登录
找回密码
密码
登录
立即注册
快捷导航
Club
BBS
Prompt log
Blog
club.free-ai.top
»
Club
›
Stable Diffusion
›
部署区
›
使用 LoRA 进行 Stable Diffusion 的高效参数微调 ...
返回列表
发新帖
查看:
1782
|
回复:
0
使用 LoRA 进行 Stable Diffusion 的高效参数微调
[复制链接]
aliketen
aliketen
当前离线
积分
233
22
主题
1
回帖
233
积分
积分
233
发消息
发表于 2023-4-15 01:19:51
|
显示全部楼层
|
阅读模式
LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型(例如 GPT-3)通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层(_秩-分解矩阵_)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。研究人员发现,通过聚焦大模型的 Transformer 注意力块,使用 LoRA 进行的微调质量与全模型微调相当,同时速度更快且需要更少的计算。
详细介绍地址:
https://huggingface.co/datasets/HuggingFace-CN-community/translation/blob/main/lora_cn.md
回复
举报
返回列表
发新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
手机版
|
club.free-ai.top
GMT+8, 2025-4-3 13:46
快速回复
返回顶部
返回列表