请问torch.nn.SyncBatchNorm.convert_sync_batchnorm(model).to(device)对应的mindspore用法是啥,烦请大佬不吝赐教,谢谢!
mindspore.nn.
GlobalBatchNorm 接口的确跟torch.nn.SyncBatchNorm.convert_sync_batchnorm接口功能类似。
用法比较复杂,需要在Ascend多卡环境中才能执行,详见以下官网链接:
https://www.mindspore.cn/doc/api_python/zh-CN/master/mindspore/nn/mindspore.nn.GlobalBatchNorm.html#mindspore.nn.GlobalBatchNorm