TensorFlow提供了一种统一的格式来存储数据,就是TFRecord,它可以统一不同的原始数据格式,并且更加有效地管理不同的属性。
TFRecord格式
TFRecord文件中的数据都是用tf.train.Example Protocol Buffer的格式来存储的,tf.train.Example可以被定义为:
message Example{ Features features = 1 } message Features{ map<string, Feature> feature = 1 } message Feature{ oneof kind{ BytesList bytes_list = 1 FloatList float_list = 1 Int64List int64_list = 1 } }
可以看出Example是一个嵌套的数据结构,其中属性名称可以为一个字符串,其取值可以是字符串BytesList、实数列表FloatList或整数列表Int64List。
将数据转化为TFRecord格式
以下代码是将MNIST输入数据转化为TFRecord格式:
# -*- coding: utf-8 -*- import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data import numpy as np # 生成整数型的属性 def _int64_feature(value): return tf.train.Feature(int64_list=tf.train.Int64List(value=[value])) # 生成浮点型的属性 def _float_feature(value): return tf.train.Feature(float_list=tf.train.FloatList(value=[value])) #若想保存为数组,则要改成value=value即可 # 生成字符串型的属性 def _bytes_feature(value): return tf.train.Feature(bytes_list=tf.train.BytesList(value=[value])) mnist = input_data.read_data_sets("/tensorflow_google", dtype=tf.uint8, one_hot=True) images = mnist.train.images # 训练数据所对应的正确答案,可以作为一个属性保存在TFRecord中 labels = mnist.train.labels # 训练数据的图像分辨率,这可以作为Example中的一个属性 pixels = images.shape[1] num_examples = mnist.train.num_examples # 输出TFRecord文件的地址 filename = "/tensorflow_google/mnist_output.tfrecords" # 创建一个writer来写TFRecord文件 writer = tf.python_io.TFRecordWriter(filename) for index in range(num_examples): # 将图像矩阵转换成一个字符串 image_raw = images[index].tostring() # 将一个样例转化为Example Protocol Buffer, 并将所有的信息写入这个数据结构 example = tf.train.Example(features=tf.train.Features(feature={ 'pixels': _int64_feature(pixels), 'label': _int64_feature(np.argmax(labels[index])), 'image_raw': _bytes_feature(image_raw)})) # 将一个Example写入TFRecord文件 writer.write(example.SerializeToString()) writer.close()
本程序将MNIST数据集中所有的训练数据存储到了一个TFRecord文件中,若数据量较大,也可以存入多个文件。
从TFRecord文件中读取数据
以下代码可以从上面代码中的TFRecord中读取单个或多个训练数据:
# -*- coding: utf-8 -*- import tensorflow as tf # 创建一个reader来读取TFRecord文件中的样例 reader = tf.TFRecordReader() # 创建一个队列来维护输入文件列表 filename_queue = tf.train.string_input_producer(["/Users/gaoyue/文档/Program/tensorflow_google/chapter7" "/mnist_output.tfrecords"]) # 从文件中读出一个样例,也可以使用read_up_to函数一次性读取多个样例 # _, serialized_example = reader.read(filename_queue) _, serialized_example = reader.read_up_to(filename_queue, 6) #读取6个样例 # 解析读入的一个样例,如果需要解析多个样例,可以用parse_example函数 # features = tf.parse_single_example(serialized_example, features={ # 解析多个样例 features = tf.parse_example(serialized_example, features={ # TensorFlow提供两种不同的属性解析方法 # 第一种是tf.FixedLenFeature,得到的解析结果为Tensor # 第二种是tf.VarLenFeature,得到的解析结果为SparseTensor,用于处理稀疏数据 # 解析数据的格式需要与写入数据的格式一致 'image_raw': tf.FixedLenFeature([], tf.string), 'pixels': tf.FixedLenFeature([], tf.int64), 'label': tf.FixedLenFeature([], tf.int64), }) # tf.decode_raw可以将字符串解析成图像对应的像素数组 images = tf.decode_raw(features['image_raw'], tf.uint8) labels = tf.cast(features['label'], tf.int32) pixels = tf.cast(features['pixels'], tf.int32) sess = tf.Session() # 启动多线程处理输入数据 coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(sess=sess, coord=coord) # 每次运行可以读取TFRecord中的一个样例,当所有样例都读完之后,会重头读取 # for i in range(10): # image, label, pixel = sess.run([images, labels, pixels]) # # print(image, label, pixel) # print(label, pixel) # 读取TFRecord中的前6个样例,若加入循环,则会每次从上次输出的地方继续顺序读6个样例 image, label, pixel = sess.run([images, labels, pixels]) print(label, pixel) sess.close() >> [7 3 4 6 1 8] [784 784 784 784 784 784]
输出结果显示,从TFRecord文件中顺序读出前6个样例。
以上这篇使用TFRecord存取多个数据案例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持小牛知识库。
本文向大家介绍从多个tfrecord文件中无限读取文件的例子,包括了从多个tfrecord文件中无限读取文件的例子的使用技巧和注意事项,需要的朋友参考一下 原来在一本书上看到过,从多个tfrecord文件中读取数据的方法,今天想用在网上找了一下,现在记录一下,免得自己以后忘记了又不好找, 以上这篇从多个tfrecord文件中无限读取文件的例子就是小编分享给大家的全部内容了,希望能给大家一个参考,也
问题内容: 有人知道如何在hibernate配置中添加另一个数据源,以及如何在自己的DAO中将Spring配置为其自动注入该数据源吗? 这是我的带有一个数据源的代码,可以完美运行,但是我不知道如何添加另一个数据源。我想添加另一个数据源,该数据源是具有与实际数据库不同的表的数据库。 DAO EXAMPLE 问题答案: 我假定你有一组应使用的DAO的和适当的,而其他人应该使用不同的和基于。当然,你需要
问题内容: database.php : 问题是我只能在配置中定义one ,default或stats。我遵循了CodeIgniter文档,并添加了以下内容: 这样,我连接到第二个数据库,但是失去了与第一个数据库的连接。有谁对如何加载两个数据库有任何想法,而不必在所有模型构造函数中执行以下操作? 问候, 佩德罗 问题答案: 除了应用Camacho提到的hack之外,您还可以将database.ph
当我试图在spring-boot上使用多个数据源时,我面临着一个巨大的问题。我的问题是因为我正在使用spring batch,而我没有足够的权限在我的生产数据库上从spring-batch创建元数据表,所以我需要使用例如H2来创建这些表,但是当我试图在我的模型中加载一个在我的作业处理器中具有关系为@OneToMany的字段时,我收到了LazyInitializationException Spri
我有一个使用Spring3.1的web应用程序。1.我们有一个使用JdbcTemplate的genericDao。数据源在GenericDaoImpl中是这样注入的。 这是一把简单的刀。 目前,凭借独特的数据源,它工作得非常完美。applicationContext配置了注释。 现在我必须集成一个新的DAO,仍然使用通用道,但在另一个数据库上工作(所以是另一个数据源)。 我在服务中使用@Trans
问题内容: 如果要使用两个数据库,是否需要创建多个Sequelize实例?即,同一台计算机上的两个数据库。 如果没有,执行此操作的正确方法是什么?对我来说,必须两次连接才能使用两个数据库似乎有点过头了。 例如,对于不同的功能,我有不同的数据库,例如,假设一个数据库中有客户数据,而另一个数据库中有统计数据。 因此在MySQL中: 我有这个与续集联系 我试图在使用点表示法的模型定义中“欺骗”它 但这创