作者bulico (abcd)
看板AI_Art
标题[闲聊] 训练 Lora 时间过久,可以如何改善
时间Sat Sep 7 10:48:14 2024
使用 ai-toolkit 训练 Lora 会一直卡在
"Generating Images..."
https://i.imgur.com/gm7DQXF.png
大约一小时产生一张图
不确定这步骤是什麽用意
想请问这步骤能不能略过?
或是可以透过升级硬体设备的方法加速 (ex: RAM)
Thanks
===============================
CPU: AMD 7800X3D 8-Core 4.20G
RAM: 32 GB
GPU: 4080s (VRAM:16G)
工具: ai-toolkit
底模: flux1-dev-fp8
图片集: 1920x1080 120张
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.234.184.235 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AI_Art/M.1725677296.A.057.html
1F:推 zero790425: Flux的话你只能往上换卡09/07 21:28
是 VRAM 不够的关系吗
或是显卡等级也要往上拉
2F:推 promaster: 用Kohya练比较省事 我觉得ai-toolkit比较麻烦09/07 21:50
3F:→ promaster: 听说ai-toolkit要32G ram以上?会不会是这问题?09/07 21:53
有怀疑过 RAM 不够的关系
但自己没办法证实
最近刚组的电脑,有点後悔没有拉到 64G
4F:推 mayasoo: 你train_batch_size设多少?这个参数严重影响VRAM占用09/08 13:04
我 batch size 是设为 1
※ 编辑: bulico (42.76.42.30 台湾), 09/09/2024 07:58:09
5F:推 kdjf: 图片太大了,基础模型就12G,训练还需要EMA/final两个weight 09/09 13:16
6F:→ kdjf: 拆block分开练勉强塞进16G但图片只适合放到768^2 09/09 13:17
7F:推 max80072: 素材太大 Vram 16G用768*768 RAM32G 用flux太紧绷 09/09 20:02
8F:→ menontw: 我用云端A40处理器30张1024x1024 处理器,设3000Steps, 09/19 12:32
9F:→ menontw: 就要用掉3个钟头。 09/19 12:32