作者bulico (abcd)
看板AI_Art
標題[閒聊] 訓練 Lora 時間過久,可以如何改善
時間Sat Sep 7 10:48:14 2024
使用 ai-toolkit 訓練 Lora 會一直卡在
"Generating Images..."
https://i.imgur.com/gm7DQXF.png
大約一小時產生一張圖
不確定這步驟是什麼用意
想請問這步驟能不能略過?
或是可以透過升級硬體設備的方法加速 (ex: RAM)
Thanks
===============================
CPU: AMD 7800X3D 8-Core 4.20G
RAM: 32 GB
GPU: 4080s (VRAM:16G)
工具: ai-toolkit
底模: flux1-dev-fp8
圖片集: 1920x1080 120張
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.234.184.235 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/AI_Art/M.1725677296.A.057.html
1F:推 zero790425: Flux的話你只能往上換卡09/07 21:28
是 VRAM 不夠的關係嗎
或是顯卡等級也要往上拉
2F:推 promaster: 用Kohya練比較省事 我覺得ai-toolkit比較麻煩09/07 21:50
3F:→ promaster: 聽說ai-toolkit要32G ram以上?會不會是這問題?09/07 21:53
有懷疑過 RAM 不夠的關係
但自己沒辦法證實
最近剛組的電腦,有點後悔沒有拉到 64G
4F:推 mayasoo: 你train_batch_size設多少?這個參數嚴重影響VRAM占用09/08 13:04
我 batch size 是設為 1
※ 編輯: bulico (42.76.42.30 臺灣), 09/09/2024 07:58:09
5F:推 kdjf: 圖片太大了,基礎模型就12G,訓練還需要EMA/final兩個weight 09/09 13:16
6F:→ kdjf: 拆block分開練勉強塞進16G但圖片只適合放到768^2 09/09 13:17
7F:推 max80072: 素材太大 Vram 16G用768*768 RAM32G 用flux太緊繃 09/09 20:02
8F:→ menontw: 我用雲端A40處理器30張1024x1024 處理器,設3000Steps, 09/19 12:32
9F:→ menontw: 就要用掉3個鐘頭。 09/19 12:32