并行计算问题
pytorch吧
全部回复
仅看楼主
level 1
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.gpu])#args.gpu
2023年03月22日 11点03分 1
level 1
有老哥知道这个报错DistributedDataParallel is not needed when a module doesn't have any parameter that requires a gradient.什么原因啊
2023年03月22日 11点03分 2
level 11
看起来是模型写的有问题
2023年03月22日 12点03分 3
解决啦 重新写了模型
2023年03月22日 15点03分
@何时再闻✨ 大哥能细说一下是怎么解决的吗
2023年10月10日 06点10分
1