用FLUX生成的高质量人物图训练SDXL的lora
stablediffusion吧
全部回复
仅看楼主
level 7
旅巴兔 楼主
用FLUX生成的高质量人物图训练SDXL的lora的话,效果是不是更好?
2024年10月09日 03点10分 1
level 8
经验告诉我用ai图当素材炼出来的lora质量都很差
2024年10月09日 05点10分 2
那估计没戏了,现在人物都有版权肖像权,高清真实照片不好弄啊。看运气吧,哈哈哈
2024年10月09日 07点10分
@旅巴兔 你可以炼多个人物的lora,然后降低权重后合成一个,这样就看不出谁是谁了
2024年10月09日 07点10分
@cxscjs2 我是准备几十个不同人物的照片放在一起训练的,我个人觉得flux生成的皮肤纹理,眼睛,五官都很清楚正常。试试看
2024年10月09日 08点10分
why?原理是什么
2024年10月09日 10点10分
level 7
旅巴兔 楼主
或者还有个思路,可以网上收集真人照片,然后用flux无损高清放大再训练,不知道这个方案可行吗
2024年10月09日 07点10分 3
level 9
目的是什么?
2024年10月09日 15点10分 5
@aa31529937 目的是客户说FLUX的模型连lora也不能拯救过来,我觉得flux很好,很真实,我帮他flux高清下素材重新练
2024年10月10日 01点10分
@旅巴兔 Flux不需要Lora就能生成超高写实质量的人像,只是有些人探索得还不够而已
2024年10月10日 07点10分
level 7
是不是因为flux不能涩涩,sdxl可以涩涩,所以这样操作?
2024年10月09日 23点10分 6
不愧是同道中人,我怀疑他模型里面没有NWFS信息
2024年10月10日 01点10分
@旅巴兔 flux官方底模确实没有涩涩,不过c站很多二创的flux底模已经可以涩涩了
2024年10月10日 01点10分
@ヒーロー工厂 二创底模我看都是欧美居多啊[泪]有没有符合亚洲审美的nsfw模型推荐
2024年10月10日 03点10分
@inori123 这我就不清楚了,我是在等动漫风格的
2024年10月10日 03点10分
level 7
旅巴兔 楼主
epoch 1/12
steps: 8%|████▎ | 1060/12720 [12:53<2:21:45, 1.37it/s, avr_loss=0.0888]
saving checkpoint: ./output\AN6-000001.safetensors
epoch 2/12
steps: 17%|████████▌ | 2120/12720 [25:29<2:07:28, 1.39it/s, avr_loss=0.0822]
saving checkpoint: ./output\AN6-000002.safetensors
epoch 3/12
steps: 25%|████████████▊ | 3180/12720 [38:03<1:54:10, 1.39it/s, avr_loss=0.0805]
saving checkpoint: ./output\AN6-000003.safetensors
epoch 4/12
steps: 33%|█████████████████ | 4240/12720 [50:41<1:41:23, 1.39it/s, avr_loss=0.0733]
saving checkpoint: ./output\AN6-000004.safetensors
epoch 5/12
steps: 42%|████████████████████▍ | 5300/12720 [1:03:36<1:29:03, 1.39it/s, avr_loss=0.0648]
saving checkpoint: ./output\AN6-000005.safetensors
epoch 6/12
steps: 50%|████████████████████████▌ | 6360/12720 [1:16:04<1:16:04, 1.39it/s, avr_loss=0.0625]
saving checkpoint: ./output\AN6-000006.safetensors
epoch 7/12
steps: 58%|████████████████████████████▌ | 7420/12720 [1:29:18<1:03:47, 1.38it/s, avr_loss=0.0537]
saving checkpoint: ./output\AN6-000007.safetensors
epoch 8/12
steps: 67%|██████████████████████████████████ | 8480/12720 [1:41:59<50:59, 1.39it/s, avr_loss=0.0485]
saving checkpoint: ./output\AN6-000008.safetensors
epoch 9/12
steps: 75%|██████████████████████████████████████▎ | 9540/12720 [1:54:34<38:11, 1.39it/s, avr_loss=0.0393]
saving checkpoint: ./output\AN6-000009.safetensors
epoch 10/12
steps: 83%|█████████████████████████████████████████▋ | 10600/12720 [2:07:01<25:24, 1.39it/s, avr_loss=0.0397]
saving checkpoint: ./output\AN6-000010.safetensors
epoch 11/12
steps: 92%|██████████████████████████████████████████████▊ | 11660/12720 [2:20:01<12:43, 1.39it/s, avr_loss=0.037]
saving checkpoint: ./output\AN6-000011.safetensors
epoch 12/12
steps: 100%|██████████████████████████████████████████████████| 12720/12720 [2:32:34<00:00, 1.39it/s, avr_loss=0.0374]2024-10-10 18:37:40 INFO train_util.py:513
saving checkpoint: ./output\AN6.safetensors
2024-10-10 18:37:46 INFO model saved. train_network.py:999
steps: 100%|██████████████████████████████████████████████████| 12720/12720 [2:32:40<00:00, 1.39it/s, avr_loss=0.0374]
18:37:48-491693 INFO Training finished / 训练完成
从第8个开始出现色块了。我应该选哪个好?
2024年10月10日 11点10分 7
1