当前位置: 首页 > 知识库问答 >
问题:

神经网络学习速度快,误报率高

戚奇略
2023-03-14

我最近开始实现一个前馈神经网络,我使用反向传播作为学习方法。我一直使用http://galaxy.agh.edu.pl/~vlsi/ai/backp_t_en/backprop.html作为指南。

然而,仅仅在第一个纪元之后,我的错误是0。在真正使用网络之前,我尝试了简单的网络结构:

  • 4个二进制输入,1,1,0,0。
  • 两个隐藏层,每个层4个神经元。
  • 1个输出神经元,1.0应该=有效输入。

每个训练周期运行测试输入(1,1,0,0),计算输出误差(sigmoid导数*(1.0-sigmoid)),反向传播误差,最后调整权重。

每个神经元的新权重=weight+learning_rate*神经元的误差*权重的输入。

同样,当我用我的真实数据尝试这个网络时(一组32个音频特征来自样本-每个隐藏层32个神经元),我得到了同样的问题。任何噪音都会触发假阳性。这可能是一个输入特性的问题,但当我使用高音音符进行测试时,我可以清楚地看到原始数据与低音音符不同。

我是一个神经网络新手,所以我几乎肯定问题出在我的网络上。如有任何帮助,将不胜感激。

共有1个答案

马丰
2023-03-14

接下来,与其使用两个隐藏层,不如尝试只使用一个隐藏层。您可能必须增加该层中的节点数,但对于大多数实际问题,您应该能够在仅有一个隐藏层的情况下获得良好的解决方案。它很可能会更稳定,而且肯定会让你更容易地跟踪BackProp发生的事情。

 类似资料:
  • 神经网络和深度学习是一本免费的在线书。本书会教会你: 神经网络,一种美妙的受生物学启发的编程范式,可以让计算机从观测数据中进行学习 深度学习,一个强有力的用于神经网络学习的众多技术的集合 神经网络和深度学习目前给出了在图像识别、语音识别和自然语言处理领域中很多问题的最好解决方案。本书将会教你在神经网络和深度学习背后的众多核心概念。 想了解本书选择的观点的更多细节,请看这里。或者直接跳到第一章 开始

  • 深度神经网络的工作地点、原因和方式。从大脑中获取灵感。卷积神经网络(CNN)和循环神经网络(RNN)。真实世界中的应用。 使用深度学习,我们仍然是习得一个函数f,将输入X映射为输出Y,并使测试数据上的损失最小,就像我们之前那样。回忆一下,在 2.1 节监督学习中,我们的初始“问题陈述”: Y = f(X) + ϵ 训练:机器从带标签的训练数据习得f 测试:机器从不带标签的测试数据预测Y 真实世界很

  • 我已经用Java编程了一个神经网络,现在正在研究反向传播算法。 我已经了解到权重的批量更新将导致更稳定的梯度搜索,而不是在线权重更新。 作为一个测试,我创建了一个100点的时间序列函数,这样x=[0..99]和y=f(x)。我创建了一个神经网络,有一个输入和一个输出,还有两个隐藏层,有10个神经元用于测试。在解决这个问题时,我所面临的是反向传播算法的学习速度。 我有100个输入点,所以当我计算每个

  • 我正在建立一个分类神经网络,以便对两个不同的类进行分类。 所以这是一个二元分类问题,我正尝试用一个前馈神经网络来解决这个任务。 但是网络是不能学习的,事实上,在训练过程中,网络的精度是不变的。 具体而言,数据集由以下人员组成: 65673行22列。 其中一列是具有值(0,1)的目标类,而其他21列是预测器。数据集是这样平衡的: null 可以看到也有NaN值,但我不能删除它,因为在其他列中有值0是

  • 本文向大家介绍TensorFlow深度学习之卷积神经网络CNN,包括了TensorFlow深度学习之卷积神经网络CNN的使用技巧和注意事项,需要的朋友参考一下 一、卷积神经网络的概述 卷积神经网络(ConvolutionalNeural Network,CNN)最初是为解决图像识别等问题设计的,CNN现在的应用已经不限于图像和视频,也可用于时间序列信号,比如音频信号和文本数据等。CNN作为一个深度

  • 我创建了一个神经网络,其结构如下: Input1-Input2-输入层。 N0-N1-隐藏层。每个节点3个权重(一个用于偏移)。 N2——输出层。3个砝码(一个用于偏置)。 我正在尝试使用以下测试数据对其进行XOR函数训练: 0 1-期望结果:1 1 0-期望结果:1 0 0-所需结果:0 1 1-所需结果:0 训练后,测试的均方误差(当寻找1结果时){0,1}=0,我认为这很好。但是测试的均方误