pytorch 的激活函数nn.Relu() 有一个参数:inplace,其作用是:该nn.Relu() 函数计算得到的输出是否更新传入的输出。
正常情况下,一个卷积操作,首先经过卷积层,接着是正则化(Normalize),最后经过激活函数,而输入激活函数的是正则化后的的 tensor(为了方便描叙,称为A),经过激活函数得到新的tensor(为了方便描叙,称为B),而参数 inplane 的作用是B是否覆盖A。
默认情况下,inplace=False,即保留B又保留A。如果把 inplace=True, 即把A更新成B。
在使用 nn.Relu() 时,建议把参数 inplan 设置成 True,这样有利于节省内存空间。