MNIST数据集介绍
MNIST数据集中包含了各种各样的手写数字图片,数据集的官网是:http://yann.lecun.com/exdb/mnist/index.html,我们可以从这里下载数据集。使用如下的代码对数据集进行加载:
from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('MNIST_data', one_hot=True)
运行上述代码会自动下载数据集并将文件解压在MNIST_data文件夹下面。代码中的one_hot=True,表示将样本的标签转化为one_hot编码。
MNIST数据集中的图片是28*28的,每张图被转化为一个行向量,长度是28*28=784,每一个值代表一个像素点。数据集中共有60000张手写数据图片,其中55000张训练数据,5000张测试数据。
在MNIST中,mnist.train.images是一个形状为[55000, 784]的张量,其中的第一个维度是用来索引图片,第二个维度图片中的像素。MNIST数据集包含有三部分,训练数据集,验证数据集,测试数据集(mnist.validation)。
标签是介于0-9之间的数字,用于描述图片中的数字,转化为one-hot向量即表示的数字对应的下标为1,其余的值为0。标签的训练数据是[55000,10]的数字矩阵。
下面定义了一个简单的网络对数据集进行训练,代码如下:
import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data import matplotlib.pyplot as plt mnist = input_data.read_data_sets('MNIST_data', one_hot=True) tf.reset_default_graph() x = tf.placeholder(tf.float32, [None, 784]) y = tf.placeholder(tf.float32, [None, 10]) w = tf.Variable(tf.random_normal([784, 10])) b = tf.Variable(tf.zeros([10])) pred = tf.matmul(x, w) + b pred = tf.nn.softmax(pred) cost = tf.reduce_mean(-tf.reduce_sum(y * tf.log(pred), reduction_indices=1)) learning_rate = 0.01 optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost) training_epochs = 25 batch_size = 100 display_step = 1 save_path = 'model/' saver = tf.train.Saver() with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for epoch in range(training_epochs): avg_cost = 0 total_batch = int(mnist.train.num_examples/batch_size) for i in range(total_batch): batch_xs, batch_ys = mnist.train.next_batch(batch_size) _, c = sess.run([optimizer, cost], feed_dict={x:batch_xs, y:batch_ys}) avg_cost += c / total_batch if (epoch + 1) % display_step == 0: print('epoch= ', epoch+1, ' cost= ', avg_cost) print('finished') correct_prediction = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) print('accuracy: ', accuracy.eval({x:mnist.test.images, y:mnist.test.labels})) save = saver.save(sess, save_path=save_path+'mnist.cpkt') print(" starting 2nd session ...... ") with tf.Session() as sess: sess.run(tf.global_variables_initializer()) saver.restore(sess, save_path=save_path+'mnist.cpkt') correct_prediction = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) print('accuracy: ', accuracy.eval({x: mnist.test.images, y: mnist.test.labels})) output = tf.argmax(pred, 1) batch_xs, batch_ys = mnist.test.next_batch(2) outputval= sess.run([output], feed_dict={x:batch_xs, y:batch_ys}) print(outputval) im = batch_xs[0] im = im.reshape(-1, 28) plt.imshow(im, cmap='gray') plt.show() im = batch_xs[1] im = im.reshape(-1, 28) plt.imshow(im, cmap='gray') plt.show()
总结
以上所述是小编给大家介绍的TensorFlow MNIST手写数据集的实现方法,希望对大家有所帮助!
本文向大家介绍Python实现将数据框数据写入mongodb及mysql数据库的方法,包括了Python实现将数据框数据写入mongodb及mysql数据库的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现将数据框数据写入mongodb及mysql数据库的方法。分享给大家供大家参考,具体如下: 主要内容: 1、数据框数据写入mongdb方法 2、数据框数据写入mysql
本文向大家介绍Spring boot实现数据库读写分离的方法,包括了Spring boot实现数据库读写分离的方法的使用技巧和注意事项,需要的朋友参考一下 背景 数据库配置主从之后,如何在代码层面实现读写分离? 用户自定义设置数据库路由 Spring boot提供了AbstractRoutingDataSource根据用户定义的规则选择当前的数据库,这样我们可以在执行查询之前,设置读取从库,在执行
本文向大家介绍Android编程实现向SD卡写入数据的方法,包括了Android编程实现向SD卡写入数据的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Android编程实现向SD卡写入数据的方法。分享给大家供大家参考,具体如下: 1.代码: sdcard对应的文件路径:"/mnt/sdcard",开发时不要写SDCard的绝对路径,因为路径会因为版本的改变而改变,这里应该使用以下方
本文向大家介绍pytorch cnn 识别手写的字实现自建图片数据,包括了pytorch cnn 识别手写的字实现自建图片数据的使用技巧和注意事项,需要的朋友参考一下 本文主要介绍了pytorch cnn 识别手写的字实现自建图片数据,分享给大家,具体如下: 图片和label 见上一篇文章《pytorch 把MNIST数据集转换成图片和txt》 结果如下: 以上就是本文的全部内容,希望对大家的学习
本文向大家介绍Python实现读写sqlite3数据库并将统计数据写入Excel的方法示例,包括了Python实现读写sqlite3数据库并将统计数据写入Excel的方法示例的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现读写sqlite3数据库并将统计数据写入Excel的方法。分享给大家供大家参考,具体如下: 数据库初始化方法: 更多关于Python相关内容感兴趣的读者可
理解SVM 作者|OpenCV-Python Tutorials 编译|Vincent 来源|OpenCV-Python Tutorials 目标 在本章中,我们将重新识别手写数据集,但是使用SVM而不是kNN。 识别手写数字 在kNN中,我们直接使用像素强度作为特征向量。这次我们将使用定向梯度直方图(HOG)作为特征向量。 在这里,在找到HOG之前,我们使用其二阶矩对图像进行偏斜校正。因此,我们