我在UCF-101数据集上训练了SVM、CNN和ANN,SVM和ANN分别使用Hue和LBP特征的CSV文件,而CNN使用LBP图像进行分类训练。现在我想结合{SVM和CNN}和{ANN和CNN}。可以这样做吗?如果可以,怎么做。
我已经为Dataset中的每个视频提取了第1关键帧,然后计算了它的LBP直方图。将其用作图像的特征,将其连同标签一起写入csv(我在101个可用的类中只选择了5个类的数据),然后在其上训练SVM和ANN。ANN是简单的网络,在输出端具有Softmax激活功能,并且在每个隐藏层中具有8个节点的2个隐藏层。不使用dropout。对于CNN,我提取了图像的LBP特征并将其转换为图像。这个图像数据是我用来训练CNN的。CNN网络有输入层、卷积层、激活层、全连接层、dropout层(dropout=0.5)和输出层。激活函数是softmax
SVM的测试准确率为10%,而ANN的测试准确率为35%。CNN对10个历元的测试数据给出了29%的准确率
首先,您需要增加隐藏层或隐藏节点,因为您对CNN、ANN、SVM的准确性不好。您也不需要总是添加Dropout层,尤其是在您的准确性不好的情况下。最初,Dropout层是为了避免过度拟合。
其次,我不知道你的SVM、CNN、ANN代码应该是什么样子。但是,根据你的说法,每个SVM、CNN、ANN代码都有可能有点错误。
所以再次检查您的代码。
当有图像作为数据时,最常用的是CNN。然而,我已经看到CNN有时被用于timeseries。因此,为了解决时间序列分类问题,我分别尝试了LSTM和CNN模型。我的两个模型如下。 LSTM: 美国有线电视新闻网: 我认为LSTM和CNN有其独特的特点,在我的预测中结合这两者会产生更好的结果。然而,我正在努力寻找适合我的问题的合适资源。 有可能为我的问题这样做吗?如果是的话,我怎么做?它会产生更好的结
Object recognition and categorization using TensorFlow required a basic understanding of convolutions (for CNNs), common layers (non-linearity, pooling, fc), image loading, image manipulation and colo
参考这里. Common Layers For a neural network architecture to be considered a CNN, it requires at least one convolution layer (tf.nn.conv2d). There are practical uses for a single layer CNN (edge detection
我正在尝试将两个模型连接在一起。我有一个伯特模型和效率网模型。 但我有一个错误: ValueError Traceback(最近一次调用上次)在9个输出中=层。密集(2,activation='softmax',name='real_output')(密集)10--- ~/anaconda3/lib/python3。7/现场包/KERA/遗留/接口。包装中的py(*args,**kwargs)89
CNN 的基本特征 稀疏交互和参数共享 动机 局部特征——卷积的核心思想 平移等变性 意义 提高统计效率 当处理一张图像时,输入的图像可能包含成千上万个像素点,但是我们可以通过只占用几十到上百个像素点的核来检测一些局部但有意义的特征,例如图像的边缘。 减少参数数量 减少存储需求 加速计算 卷积的内部实现 Theano 中的实现 Convolution as a matrix operation 先