并行计算问题
pytorch吧
全部回复
仅看楼主
level 1
何时再闻✨
楼主
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.gpu])#args.gpu
2023年03月22日 11点03分
1
level 1
何时再闻✨
楼主
有老哥知道这个报错DistributedDataParallel is not needed when a module doesn't have any parameter that requires a gradient.什么原因啊
2023年03月22日 11点03分
2
level 11
sealed_ss
看起来是模型写的有问题
2023年03月22日 12点03分
3
何时再闻✨
解决啦 重新写了模型
2023年03月22日 15点03分
闻雨阁轩
@何时再闻✨
大哥能细说一下是怎么解决的吗
2023年10月10日 06点10分
1