视频模型remix 3.0 发布,但迎来的并非喜讯
stablediffusion吧
全部回复
仅看楼主
level 12
Arclite 楼主
remix是肥猴大佬微调的基于wan2.2 的视频模型,与wan2.2 社区模型中与擅长运动的smooth,擅长动漫的dasiwa并称“三驾马车”。
作者说wan2.2 的上限也就这样,挖不出什么新玩意,本次更新之后就去研究LTX了。
视频模型和生图模型的体量差别太大,wan2.2 发布了这么久,知名的社区模型一只手就数的过来,可见其二次开发难度之大。
随着一位大作者官宣停更,另外“两架马车”估计也好不到哪儿去,wan2.2 也许终究是等不到它的pony/光辉了。
至于LTX 2.3,现在的社区评价也没多积极,配置高,运动表现不行,能否扛起开源的大旗?
2026年03月18日 04点03分 1
level 1
[滑稽]试了ltx2.3,感觉对提示词要求太高了,固定镜头说话的时候人物的小动作,小动态还是不错的,比较自然,但是大的动态,就要你写的很清楚,比如跳舞,哪只手做什么都要写,不然它就很容易发呆不动。
2026年03月18日 05点03分 2
level 5
与其说wan2.2上线就这样了,不如说闭源模型上线就这样的,目前来看flux,qwen image,zimage目前的生态感觉都比较一般
2026年03月18日 06点03分 3
说反了吧,这些不都是开源模型吗[阴险]
2026年03月18日 06点03分
开源吧,闭源动态高太多了
2026年03月18日 07点03分
@vuekoooo 说反了,开源上限[吐舌]
2026年03月18日 07点03分
level 9
LTX2.3底子不错,但是自己写提示词很难,必须加一个LLM节点来写
2026年03月18日 07点03分 5
level 7
主要是没什么人给wan2.2做全量微调,没有像danbooru这种现成的够大的数据集,肥猴那个包括其它wan2.2的定制版本都是用融合一堆lora的手法做的,局限性很大,面多加水,水多加面,很难面面俱到
2026年03月18日 09点03分 6
level 7
但以后我估计还是会有一个比较好的nsfw版本的wan2.2。我一直在说,从sdxl到光辉都用了一年半的时间,sdxl还只是个35亿参数的小模型,wan2.2微调需要的硬件成本和时间成本要高很多。还要考虑到danbooru数据集是标签化的,现在的这些新模型都要求输入是自然语言,现在没有类似规模的nsfw的自然语言描述的数据集,好在现在标注可以用AI完成,但是还是要等
2026年03月18日 09点03分 7
level 1
别说视频了,就说生图的光辉,都已经更不动了,没什么新东西.开源最后的辉煌停留在pony,就已经终结了
2026年03月18日 10点03分 8
未来应该是闭源的天下了
2026年03月18日 10点03分
level 1
这些融合模型都是给新手玩的。不同nsfw的lora的强度和顺序太重要了。他给你融了你拿什么调。这些玩意在我眼里都是垃圾
2026年03月18日 11点03分 9
主打一个省心
2026年03月18日 14点03分
level 5
非要搞高低噪模型,和wan2.1那样多好。只能看wan2.5能不能开源了。
2026年03月18日 12点03分 10
level 7
Smooth Mix Wan 2.2 I2V v3.0 大佬们说的是这个东西吗,哪里下,我只有2.0
2026年03月18日 23点03分 12
c站刚更新smoothmix3.0。不过gguf量化还没更新。
2026年03月19日 03点03分
level 7
这些作者只是把模型融来融去而且,微调是根本没有的,没有自己的东西,效果能好到哪里去,sd2已经是多模态了,你花钱微调出来也是彻底的落后😂
2026年03月19日 19点03分 13
level 1
无声没意思
2026年03月20日 00点03分 14
1