作者marklai (心宿二)
看板AI_Art
标题[LLMs] Ollama与FLUX的结合
时间Sat Aug 17 10:57:51 2024
Ollama与FLUX的结合
Flux的出现,带来不小的震撼,将Ollama配合一起,是不是有另一番风貌呢?
首先要先把Ollama装好,请参考其官网,运行LLM,我是先用llama3,当然也有数十种LLM可
以使用。
我这边使用ComfyUI-IF_AI_tools的workflow来修改,刚开始不是很好装,与Ollama不是连
结很顺利,重开好几次ComfyUI才连上,port要改成11434,部份的节点换成Flux,模型我使
用flux1-schnell-fp8,你也可使用其他Flux的模型,schnell模型CFG 设1,steps只要4,
速度会比较快一些。
我用女生包包为例,「女生的手提包,外观用Piet Mondrian的画风来装饰, 精品摄影, 典
雅」,直接用中文,这样是不是跟bing很像呢,但不用担心像bing会被封锁。
也可以用在其他项目,如抽象画、汽车、鞋类、建筑等应用,有需要可参考修改的workflow
https://github.com/2BED43D/Lai_iART/blob/workflow/Ollama_IF_AI_tools.json
https://i.meee.com.tw/rnOgdkS.png
https://i.meee.com.tw/E8o3D2c.png
https://i.meee.com.tw/E9xMNcQ.png
至於Flux的效果每个人看法不同,我的感想是,如果是人像我还是会继续用SDXL,但其他物
品Flux则相当不错的。
Ollama与FLUX都有些吃资源,vram能用16g以上是最好,我的3090跑起来都有些喘。
感谢
ComfyUI-IF_AI_tools
https://github.com/if-ai/ComfyUI-IF_AI_tools
Ollama
Meta llama3
Flux
https://github.com/black-forest-labs/flux
#ollama #FLUX #llama3 #ComfyUI
----
Sent from
BePTT
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 125.231.23.107 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AI_Art/M.1723863486.A.095.html
1F:推 kime5412: 建议可以试试用Open-webui 来串连LLM跟Comfyui 08/30 18:35