请教大家,为啥没人用自带的PT崁入式训练,全部是LORA呢?
stablediffusion吧
全部回复
仅看楼主
level 7
旅巴兔 楼主
自带的PT训练和LORA训练差异大吗?
2023年10月13日 03点10分 1
level 11
因为没人宣传,而且没有罗拉LORA那么方便。
2023年10月13日 03点10分 2
@古月林夕雨夜 PS我会弄,就是我耐心不够,嫌麻烦,直接用手机的一键抠图省事,处理好了70张图,全部是人脸和身体素材
2023年10月13日 04点10分
@古月林夕雨夜 我用的VEGA小程序,生成出来的图,他的训练比较简单,提交图片就行,生成出来的图片质量很高,也是符合我的审美,就不能生成瑟图。
2023年10月13日 04点10分
明白了,宣传的多,秋叶软件自带的训练,只要预处理后,填个训练的电脑地址他就可以训练了,训练个10000步就可以,不过前几次都失败了,生图质量不行,说是过拟合,我把人物的背景全部去掉了,准备再来一次
2023年10月13日 03点10分
@旅巴兔 别直接10000步,模型学习参数提取,不是越多越好,原始图片也是10,20张高清晰度。不是高分辨率[滑稽]2000步3000步4000步5000步看效果
2023年10月13日 03点10分
level 11
有好几种方式的,超类型模型,但那些神经网络对抗训练啊什么之类的都没人宣传啊?用一句话来说,他没什么优势,也没人宣传,也就没人知道,也就没人用了,LORA,这个用途比较广泛,主要是宣传的比较广。
2023年10月13日 03点10分 3
果真哪里都有你的存在
2023年10月19日 07点10分
@1尽情运动JK 不宣传,B站都没流量
2023年10月19日 14点10分
level 11
第1点是没人宣传,第2点没多少人训练,第3点,他除非比LORA还要厉害,嗯,但实际情况之中他们三者好像没啥区别,也没人出宣传与对比他们几个模型有啥区别?总而言之,就是有人打广告和没人打广告的区别,都是看up视频看出来的,但剩下的两个模型啊,都没人宣传,没人告知你就别指望小白会去研究。
2023年10月13日 03点10分 4
level 4
自己训练下不就知道了,pt训练要求高显存。
2023年10月13日 09点10分 5
level 7
一外国老哥的解释:
LoRAs will almost always be better simply due to how the training works.
In more layman terms, TI (Embeddings) trains a model's perception/understanding of prompts only, without actuall affecting the model's "skillset".
LoRA/Dreambooth/Finetune/Hypernetworks will all affect the model's actual "skillset".
大概意思是用途不一样,pt不会扩展底模,只是提高精度或对指定提示词的理解。lora则相当于针对训练的数据集,对底模进行扩展训练。
2023年10月19日 08点10分 6
怪不得,我训练的lora效果好很多
2023年10月19日 08点10分
1