我正在学习pytorch,并试图将网络训练为异或门。一切运行顺利,但就是不学习。它确实改变了它的权重,但是它会收敛到超出预期结果的每一个输入的结果中。
我尝试了许多学习率和权重初始化。
因此,输入是A和B门,如果两者相等,则返回1,否则返回0,如下所示:
[0,0] => 1 [0,1] => 0 [1,0] => 0 [1,1] => 1
这是我对模型建模和训练的尝试:
import torch as torch import torch.nn as nn class Network(nn.Module): def __init__(self): super(Network, self).__init__() self.x1 = nn.Linear(2,4) self.s1 = nn.Sigmoid() self.x2 = nn.Linear(4,1) self.s2 = nn.Sigmoid() def init(self): nn.init.uniform_(self.x1.weight) nn.init.uniform_(self.x2.weight) def forward(self, feats): f1 = torch.tensor(feats).float() xr1= self.x1(f1) xs1= self.s1(xr1) xr2= self.x2(xs1) out= self.s2(xr2) return out def train(self,val_expected,feats_next): val_expected_tensor = torch.tensor(val_expected) criterion = nn.MSELoss() optimizer = torch.optim.SGD(self.parameters(), lr=0.01) def closure(): optimizer.zero_grad() resp = self.forward(feats_next) error = criterion(resp,val_expected_tensor) error.backward() return error optimizer.step(closure) net = Network() net.init() for input in ([0.,0.],[0.,1.],[1.,0.],[1.,1.]): response=net.forward(input) print(response) print ("--TRAIN START-") for i in range(1000): net.train([1.],[0.,0.]) net.train([0.],[1.,0.]) net.train([0.],[0.,1.]) net.train([1.],[1.,1.]) print ("---TRAIN END---") for input in ([0.,0.],[0.,1.],[1.,0.],[1.,1.]): response=net.forward(input) print(response)
这是一次以0.001学习率进行100000次迭代的运行:
tensor([0.7726], grad_fn=) tensor([0.7954], grad_fn=) tensor([0.8229], grad_fn=) tensor([0.8410], grad_fn=) --TRAIN START- *.........*.........*.........*.........*.........*.........*.........*.........*.........*......... ---TRAIN END--- tensor([0.6311], grad_fn=) tensor([0.6459], grad_fn=) tensor([0.6770], grad_fn=) tensor([0.6906], grad_fn=)
我真的迷路了。这不管用吗?
因此,在您的情况下,将训练
方法保留在网络类之外。守则如下。
net = Network()
net.init()
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(net.parameters(), lr=0.1)
for input in ([0., 0.], [0., 1.], [1., 0.], [1., 1.]):
response = net.forward(input)
print (response)
def train(val_expected, feats_next, criterion, optimizer):
val_expected_tensor = torch.tensor(val_expected)
optimizer.zero_grad()
resp = net.forward(feats_next)
# print (resp)
error = criterion(resp, val_expected_tensor)
# print (error, resp, val_expected_tensor)
error.backward()
# print (error)
optimizer.step()
print("--TRAIN START-")
for i in range(10000):
train([1.], [0., 0.], criterion, optimizer)
train([0.], [1., 0.], criterion, optimizer)
train([0.], [0., 1.], criterion, optimizer)
train([1.], [1., 1.], criterion, optimizer)
print("---TRAIN END---")
for input in ([0., 0.], [0., 1.], [1., 0.], [1., 1.]):
response = net.forward(input)
print(response)
结果如下:
tensor([0.9571], grad_fn=<SigmoidBackward>)
tensor([0.0414], grad_fn=<SigmoidBackward>)
tensor([0.0459], grad_fn=<SigmoidBackward>)
tensor([0.9621], grad_fn=<SigmoidBackward>)
我只是提高了学习率,而且在nn中有一个
,因此在模型实例化中使用trainer方法不是一个好主意。train
方法。模块
我试图用TensorFlow建立一个简单的神经网络。目标是在32像素x 32像素的图像中找到矩形的中心。矩形由五个向量描述。第一个向量是位置向量,其他四个是方向向量,组成矩形边。一个向量有两个值(x和y)。 该图像的相应输入为(2,5)(0,4)(6,0)(0,-4)(-6,0)。中心(以及所需输出)位于(5,7)。 我想出的代码如下所示: 遗憾的是,网络无法正常学习。结果太离谱了。例如,[[3.
本文向大家介绍利用Pytorch实现简单的线性回归算法,包括了利用Pytorch实现简单的线性回归算法的使用技巧和注意事项,需要的朋友参考一下 最近听了张江老师的深度学习课程,用Pytorch实现神经网络预测,之前做Titanic生存率预测的时候稍微了解过Tensorflow,听说Tensorflow能做的Pyorch都可以做,而且更方便快捷,自己尝试了一下代码的逻辑确实比较简单。 Pytorch
问题内容: 我需要发送网络订单(我要使用Java编写的游戏服务器的简称)。我读到有关网络订单的信息,但找不到有关在数据发送之前发送的空头的任何详细信息。有人可以向我解释它是什么,以及如何使用Java将其发送给客户端吗? 问题答案: Java NIO字节缓冲区支持更改字节顺序。因此,网络字节顺序为Big Endian。 字节顺序是存储大于单个字节的数值的字节的顺序。有2种口味:Big Endian(
在本章中,我们将重点介绍使用TensorFlow进行线性回归实现的基本示例。逻辑回归或线性回归是用于对离散类别进行分类的监督机器学习方法。在本章中的目标是构建一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系。 如果是因变量而变化,则认为是自变量。两个变量之间的这种关系可认为是线性的。两个变量的线性回归关系看起来就像下面提到的方程式一样 - 接下来,我们将设计一个线性回归算法,有
深度神经网络具有独特的功能,可以帮助机器学习突破自然语言的过程。 据观察,这些模型中的大多数将语言视为单词或字符的平坦序列,并使用一种称为递归神经网络或RNN的模型。 许多研究人员得出的结论是,对于短语的分层树,语言最容易被理解。 此类型包含在考虑特定结构的递归神经网络中。 PyTorch有一个特定的功能,有助于使这些复杂的自然语言处理模型更容易。 它是一个功能齐全的框架,适用于各种深度学习,并为
递归神经网络是一种遵循顺序方法的深度学习导向算法。在神经网络中,我们总是假设每个输入和输出都独立于所有其他层。这些类型的神经网络被称为循环,因为它们以顺序方式执行数学计算,完成一个接一个的任务。 下图说明了循环神经网络的完整方法和工作 - 在上图中,,,和是包括一些隐藏输入值的输入,即输出的相应输出的,和。现在将专注于实现PyTorch,以在递归神经网络的帮助下创建正弦波。 在训练期间,将遵循模型