本地部署显卡
stablediffusion吧
全部回复
仅看楼主
level 4
小羊一不小心
楼主
求助,预算限制,是买两张22G2080ti好还是一张32G的V100(32G的好贵啊)?还是直接用5060ti 16G,会不会显存不够啊?
2026年05月10日 04点05分
1
level 12
Arclite
20系架构老了,fp8精度的模型它就用不了,v100不了解。
这两年的新出的模型比如qwen,ZIT,Klein,ltx,wan什么的,经过优化都是16G显存可跑的,但需要内存+显存一起上。所以你还得关注下内存容量
2026年05月10日 06点05分
2
小羊一不小心
v100也不能fp8
但显存大
2026年05月10日 08点05分
山有木兮
V100更老,bf16都不行
2026年05月11日 00点05分
level 8
AAA保登面包心师傅
只能用单卡
2026年05月10日 06点05分
3
level 1
该账号已被删除
感觉不如去租。
2026年05月10日 08点05分
4
level 10
HARRY_J1N
5060Ti 16GB吧,新卡的效率不是一般的高,你最起码得拿个30系大显存的过来跟40、50系的小显存比吧?
2026年05月10日 08点05分
5
level 9
修改昵称🐴🐴
3080 20,4080 32,4090 48
2026年05月10日 10点05分
6
祁寒しきかん
@小羊一不小心
对的,魔改卡,现在价格一万来左右
2026年05月10日 16点05分
修改昵称🐴🐴
@小羊一不小心
买的时候注意,请默认这些都是矿卡,买到全新出厂是几乎不可能的
2026年05月11日 00点05分
小羊一不小心
4080还有32g的吗?
2026年05月10日 11点05分
level 2
青慕酱
5060TI—16G可以生成视频,就是有点慢而已
2026年05月10日 12点05分
7
level 7
黄金麒麟q
显存只要8g以上,一般就可以认为是足够的。
2026年05月10日 12点05分
8
有什么有♬
别乱说,一个任务一小时,一个5分钟。差矩在这里。
2026年05月10日 15点05分
level 1
tentes
别用太老架构的,fp8 fp4都不支持
2026年05月10日 16点05分
9
level 7
与绫
没必要为了玩开源AI买显卡,几千块钱够租上千个小时的5090d了
2026年05月10日 16点05分
10
小羊一不小心
有没有推荐的服务器租赁,还是比如腾讯云之类的就行
2026年05月11日 01点05分
level 10
核氰合锂
双卡驱动很难整,你要同时跑在两张卡上面最好有编程基础
2026年05月10日 16点05分
11
暮雨初晴
sd不清楚,vllm跑张量并行开箱即用
2026年05月11日 00点05分
小羊一不小心
@暮雨初晴
sd好像只能单卡
2026年05月11日 01点05分
貓師傅
有双卡插件,没双卡没研究
2026年05月11日 10点05分
level 11
尼玛见鬼了耶
租算力先玩玩。反正现在内存贵
2026年05月10日 16点05分
12
小羊一不小心
还不急,等上研究生再买
2026年05月11日 01点05分
level 4
zhengbw541400
5070Ti
+3
2GB内存。目前WAN i2v跑768x720这种是可以的,速度还行10s大概14分钟,512x512的话5s大概4分钟。1440x1536这种大分辨率的就跑不动了
2026年05月10日 17点05分
13
极好的呢😄
720*(1000+xxx),这显存内存跑不了吧
2026年05月11日 00点05分
level 7
8aU2
多卡v100 16g路过
,说说我的使用体验:双卡v100 16g➕64g内存能同时文生图和wan2.2图生视频,480p分辨率的81帧视频150秒左右跑完,720p 分辨率81帧图生视频时长30分钟,用过32g的v100,跑视频速度差不多,受限于核心能力。32g跑大模型刚好能单卡跑27b和35b的小模型。
2026年05月10日 18点05分
14
level 5
猛男落泪✓
我就是4080 32,就没有我跑不了的
2026年05月11日 00点05分
15
1
2
尾页