作者PCC9169 (PCC)
看板AI_Art
標題Re: [討論] qwen edit 2509圖片編輯是否能當局部重繪
時間Sun Nov 9 21:46:32 2025
我今天終於搞定 花了我快一整天沒睡 下午才去睡到剛剛
簡單來說 就是可以完全"替代"所謂的 畫遮罩 局部重繪 概念!
用大陸的用語 應該可以叫做"邪修"吧 (意指非正常邏輯或管道練成)
我最終測試結果就是
使用官方2509模型 加載Qwen Lora(不管它是Qwen Image(生圖)還是Qwen Edit(編輯)
通通適用
至於連接方式不贅述.記得要額外連VAE/CLIP
這裡有別以往姿勢遷移/換裝 需要雙圖當參考
不用第二張照片.也不需要火柴人來做骨架
就是單純使用Qwen Image lora(相對來說image主要是類似文生圖 不加載圖片的)
Qwen Image的lora也比Edit來的多一些.風格內容更豐富一點.
然後就是這樣
/ VAE
圖片- 2509官模 -Qwen Image- - K採樣- 出圖
(Lora) \ CLIP
|
提示詞
直接透過提示詞 完成lora中提供的風格 去改變姿勢或是換裝或是換畫風
並且不管它是image還是edit
https://i.meee.com.tw/hAYteK9.jpeg
https://i.meee.com.tw/2KP1se1.png
image1中的模特保持人物一致性.face from original, same person, identical face.
keep the background unchange.High quality.Photography.
讓圖一模特兒穿上神力女超人的衣服.做出單腳站立伸手.準備起飛的動作.
當然我的lora內容沒有神力女超人.所以可能就做不出神力女超人的服裝
我只是單純舉例.我主要還是拿來玩nsfw
上面的圖完全只靠2509官模+1個lora+提示詞生成.沒有畫任何遮罩
固定人物臉部方式有二
一個是提示詞
一個是加載固定臉的lora
https://modelscope.cn/models/DiffSynth-Studio/Qwen-Image-Edit-F2P/summary?
version=v1
這個是大陸清大應該是學生做的 我是加載在主要風格lora後面
如果是 lora -F2P Lora 只有二個 那我強度設定 1 和 0.9
如果是三個那我這樣連 F2P- Lora(A) -Lora(B) 強度 0.3-0.45-0.55
lora A和B 可能是同類型我想要的內容.但不同作者數據訓練不同.綜合使用
就這樣逆向邪修單純使用語義 替代 傳統畫遮罩的局部重繪.靠lora來支援
就算你想要只改變髮型 瞳孔顏色這麼微小的地方.也是直接描述
不用畫遮罩去做真的局部重繪了
至於是否保持原圖的真實度
就我目前看來. 叫它 keep the background unchange. 是真沒變的或是肉眼察覺不了的.
一開始我以為官模不可用.用了融合的檢查點
最後發現官模比檢查點好用.目前暫時沒有發現比官模還好用的檢查點.
以上經驗參考 歡迎討論.
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.0.211.110 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/AI_Art/M.1762695998.A.F2F.html
1F:推 Tosca: 請問你顯示卡用哪張?我也打算轉桌機派了 11/09 21:52
我是雲端派 玩得很爽 哈哈
2F:推 Tosca: 雲端也能玩色色?!生出來的圖不會被擋喔?! 11/09 21:55
3F:推 iman00b: 你這不算邪修,本來就是這樣用的。 11/09 22:10
4F:→ iman00b: 本地最低8g用gguf應該跑得動,有錢直上5090 11/09 22:20
5F:→ iman00b: 要買新卡至少16g可跑gguf -Q8 11/09 22:22
6F:推 Tosca: 我的ipad pro M2 8G跑不動qwen 2509 QQ 11/09 22:27
7F:推 iman00b: 我是桌機派,我看過有人筆電50系16g一樣玩得很開心 11/09 22:33
8F:→ iman00b: ipad主ram不夠吧,一般能跑比vram大點的模型是因為靠主 11/09 22:36
9F:→ iman00b: 記體 offload 11/09 22:36
10F:→ PCC9169: 顯卡10萬 只花1萬來說的話 可以在雲端玩48g專業版1年 11/09 22:43
11F:推 iman00b: 你是用C站還是RH?現在好多對岸影片博主都在業配RH。 11/09 22:50
12F:→ iman00b: 用桌面主要是你技術力夠,啥都能自己弄, 11/09 22:54
13F:→ iman00b: 感謝我自己是CS科班出身(XD),雖然是二三十年前的科班。 11/09 22:55
目前主要RH 跑流沒啥問題.說個笑話 我還是廚師呢.
自學到這地步自認已經很可以 完全脫離我現實專業
14F:→ iman00b: 類神經以前演算法課還寫過一兩個,沒想到現在AI這麼猛, 11/09 22:56
15F:→ iman00b: 害我又跑回去K了Attention、Transformer論文,沒看懂多少 11/09 22:56
我C站主要用來看模型和範例 雖然也有買點數 但我覺得沒TA 和 RH好用
16F:推 iman00b: C站資源太多了,尤其是瑟瑟,要不是之前某個法案會更多。 11/09 23:02
17F:→ iman00b: 對岸也有一個仿C站的,缺點是沒瑟瑟,但是有一些獨家lora 11/09 23:03
18F:推 iman00b: 你是廚師玩成這樣真的很強,我本身就是寫程式的, 11/09 23:05
法案一直沒有擋色 主要是真人應用吧?!
我從0學到現在自己獨立操作COMFYUI 大概3個月
我覺得唯一優點也是缺點就是太開源自由度太高.太多自製名稱節點之類的東西
19F:推 iman00b: 那個是你的缺點,不是他的缺點(笑 11/09 23:16
20F:→ iman00b: 有一些作者怕被掃到風台尾也偷偷下架了,名人臉都不見了 11/09 23:17
21F:→ iman00b: 以一個業外人士來說,三個月玩成這樣很厲害的啦, 11/09 23:19
22F:→ iman00b: 我科班剛開始玩也是花一段時間去理解原理, 11/09 23:20
我的意思是 "太不人道啦" AI時代就應該要直覺式的操作
Comfyui官方也沒有統合名稱
如果今天你沒看作者介紹 可能永遠修不好節點
我覺得自製可以 但感覺comfyui還沒給出一個規範 所以很亂
※ 編輯: PCC9169 (123.0.211.110 臺灣), 11/09/2025 23:30:00
23F:推 iman00b: 我都直接區塊截圖,把節點圖丟給GPT之類AI直接問... 11/09 23:35
24F:→ iman00b: 如:這是一個comfyui的node,請幫我解釋這裡所有參數 11/09 23:36
25F:→ iman00b: 聯網最好要開 11/09 23:36
26F:→ iman00b: 你甚至連節點推薦都能問他,但是最終都要自己試。 11/09 23:38
27F:→ PCC9169: GPT有時候很笨的.我問他K採樣器.結果他給的建議參數都是 11/09 23:38
28F:→ PCC9169: 錯誤的. 11/09 23:38
29F:推 iman00b: 沒辦法,AI從來都不是求"精確解",而是求"最佳解"。 11/09 23:44
30F:→ iman00b: 然後這個最佳解也是受限於模型,所以AI總是會胡說八道。 11/09 23:45
31F:→ iman00b: 不過AI進步很快啦,我剛開始玩AI繪圖跟現在差好多, 11/09 23:46
32F:→ iman00b: comfyui也變很多,也不過才短短一兩年而已。 11/09 23:46
33F:推 Tosca: 直覺式操作就draw things 在iOS macOS上的stable diffusion 11/10 08:23
34F:→ Tosca: stable diffusion能活到現在就是靠大家色色的執念XDDDDDD 11/10 08:23
35F:→ UnWf: 這不就是AI圖片編輯模型主打的宣傳 用自然語言告訴AI需求來 11/10 17:32
36F:→ UnWf: 編輯圖片... 建議去看看官方宣傳提供的範例了解一下基本用 11/10 17:32
37F:→ UnWf: 法 而且官方也有提供工作流 11/10 17:32