1. tf.train.batch(
  2. tensors,
  3. batch_size,
  4. num_threads=1,
  5. capacity=32,
  6. enqueue_many=False,
  7. shapes=None,
  8. dynamic_pad=False,
  9. allow_smaller_final_batch=False,
  10. shared_name=None,
  11. name=None
  12. )

 

  1. tf.train.slice_input_producer(
  2. tensor_list,
  3. num_epochs=None,
  4. shuffle=True,
  5. seed=None,
  6. capacity=32,
  7. shared_name=None,
  8. name=None
  9. )

核心步骤:

  1. 调用 tf.train.slice_input_producer,从 本地文件里抽取tensor,准备放入Filename Queue(文件名队列)中;
  2. 调用 tf.train.batch,从文件名队列中提取tensor,使用单个或多个线程,准备放入文件队列;
  3. 调用 tf.train.Coordinator() 来创建一个线程协调器,用来管理之后在Session中启动的所有线程;
  4. 调用tf.train.start_queue_runners, 启动入队线程,由多个或单个线程,按照设定规则,把文件读入Filename Queue中。函数返回线程ID的列表,一般情况下,系统有多少个核,就会启动多少个入队线程(入队具体使用多少个线程在tf.train.batch中定义);
  5. 文件从 Filename Queue中读入内存队列的操作不用手动执行,由tf自动完成;
  6. 调用sess.run 来启动数据出列和执行计算;
  7. 使用 coord.should_stop()来查询是否应该终止所有线程,当文件队列(queue)中的所有文件都已经读取出列的时候,会抛出一个 OutofRangeError 的异常,这时候就应该停止Sesson中的所有线程了;
  8. 使用coord.request_stop()来发出终止所有线程的命令,使用coord.join(threads)把线程加入主线程,等待threads结束。

Queue和Coordinator操作事例:

  1. import tensorflow as tf
  2. import numpy as np
  3.  
  4. # 样本个数
  5. sample_num=5
  6. # 设置迭代次数
  7. epoch_num = 2
  8. # 设置一个批次中包含样本个数
  9. batch_size = 3
  10. # 计算每一轮epoch中含有的batch个数
  11. batch_total = int(sample_num/batch_size)+1
  12.  
  13. # 生成4个数据和标签
  14. def generate_data(sample_num=sample_num):
  15. labels = np.asarray(range(0, sample_num))
  16. images = np.random.random([sample_num, 224, 224, 3])
  17. print('image size {},label size :{}'.format(images.shape, labels.shape))
  18. return images,labels
  19.  
  20. def get_batch_data(batch_size=batch_size):
  21. images, label = generate_data()
  22. # 数据类型转换为tf.float32
  23. images = tf.cast(images, tf.float32)
  24. label = tf.cast(label, tf.int32)
  25.  
  26. #从tensor列表中按顺序或随机抽取一个tensor准备放入文件名称队列
  27. input_queue = tf.train.slice_input_producer([images, label], num_epochs=epoch_num, shuffle=False)
  28.  
  29. #从文件名称队列中读取文件准备放入文件队列
  30. image_batch, label_batch = tf.train.batch(input_queue, batch_size=batch_size, num_threads=2, capacity=64, allow_smaller_final_batch=False)
  31. return image_batch, label_batch
  32.  
  33. image_batch, label_batch = get_batch_data(batch_size=batch_size)
  34.  
  35. with tf.Session() as sess:
  36.  
  37. # 先执行初始化工作
  38. sess.run(tf.global_variables_initializer())
  39. sess.run(tf.local_variables_initializer())
  40.  
  41. # 开启一个协调器
  42. coord = tf.train.Coordinator()
  43. # 使用start_queue_runners 启动队列填充
  44. threads = tf.train.start_queue_runners(sess, coord)
  45.  
  46. try:
  47. while not coord.should_stop():
  48. print ('************')
  49. # 获取每一个batch中batch_size个样本和标签
  50. image_batch_v, label_batch_v = sess.run([image_batch, label_batch])
  51. print(image_batch_v.shape, label_batch_v)
  52. except tf.errors.OutOfRangeError: #如果读取到文件队列末尾会抛出此异常
  53. print("done! now lets kill all the threads……")
  54. finally:
  55. # 协调器coord发出所有线程终止信号
  56. coord.request_stop()
  57. print('all threads are asked to stop!')
  58. coord.join(threads) #把开启的线程加入主线程,等待threads结束
  59. print('all threads are stopped!')

  

输出:

  1. ************
  2. ((3, 224, 224, 3), array([0, 1, 2], dtype=int32))
  3. ************
  4. ((3, 224, 224, 3), array([3, 4, 0], dtype=int32))
  5. ************
  6. ((3, 224, 224, 3), array([1, 2, 3], dtype=int32))
  7. ************
  8. done! now lets kill all the threads……
  9. all threads are asked to stop!
  10. all threads are stopped!

  

以上程序在 tf.train.slice_input_producer 函数中设置了 num_epochs 的数量, 所以在文件队列末尾有结束标志,读到这个结束标志的时候抛出 OutofRangeError 异常,就可以结束各个线程了。

如果不设置 num_epochs 的数量,则文件队列是无限循环的,没有结束标志,程序会一直执行下去。

tf 数据读取的更多相关文章

  1. TensorFlow走过的坑之---数据读取和tf中batch的使用方法

    首先介绍数据读取问题,现在TensorFlow官方推荐的数据读取方法是使用tf.data.Dataset,具体的细节不在这里赘述,看官方文档更清楚,这里主要记录一下官方文档没有提到的坑,以示" ...

  2. TF Boys (TensorFlow Boys ) 养成记(二): TensorFlow 数据读取

    TensorFlow 的 How-Tos,讲解了这么几点: 1. 变量:创建,初始化,保存,加载,共享: 2. TensorFlow 的可视化学习,(r0.12版本后,加入了Embedding Vis ...

  3. TensorFlow实践笔记(一):数据读取

    本文整理了TensorFlow中的数据读取方法,在TensorFlow中主要有三种方法读取数据: Feeding:由Python提供数据. Preloaded data:预加载数据. Reading ...

  4. Tensorflow学习-数据读取

    Tensorflow数据读取方式主要包括以下三种 Preloaded data:预加载数据 Feeding: 通过Python代码读取或者产生数据,然后给后端 Reading from file: 通 ...

  5. tensorflow 1.0 学习:十图详解tensorflow数据读取机制

    本文转自:https://zhuanlan.zhihu.com/p/27238630 在学习tensorflow的过程中,有很多小伙伴反映读取数据这一块很难理解.确实这一块官方的教程比较简略,网上也找 ...

  6. 『TensorFlow』数据读取类_data.Dataset

    一.资料 参考原文: TensorFlow全新的数据读取方式:Dataset API入门教程 API接口简介: TensorFlow的数据集 二.背景 注意,在TensorFlow 1.3中,Data ...

  7. TensorFlow数据读取

    TensorFlow高效读取数据的方法 TF Boys (TensorFlow Boys ) 养成记(二): TensorFlow 数据读取 Tensorflow从文件读取数据 极客学院-数据读取 十 ...

  8. tensorflow之数据读取探究(2)

    tensorflow之tfrecord数据读取 Tensorflow关于TFRecord格式文件的处理.模型的训练的架构为: 1.获取文件列表.创建文件队列:http://blog.csdn.net/ ...

  9. tensorflow之数据读取探究(1)

    Tensorflow中之前主要用的数据读取方式主要有: 建立placeholder,然后使用feed_dict将数据feed进placeholder进行使用.使用这种方法十分灵活,可以一下子将所有数据 ...

随机推荐

  1. 七年一冠、IG牛13的背后是什么!

    最近忙着看S8世界总决赛,博客荒废了近一个月,后续步入正轨.   2018年11月3日.S8世界总决赛.中国终于夺得了S系列赛的总冠军. “IG牛逼”也开始刷爆社交圈,对于在S3入坑的我来说,也弥补上 ...

  2. awk技巧(如取某一行数据中的倒数第N列等)

    使用awk取某一行数据中的倒数第N列:$(NF-(n-1))比如取/etc/passwd文件中的第2列.倒数第1.倒数第2.倒数第4列(以冒号为分隔符) [root@ipsan-node06 ~]# ...

  3. 牛客训练赛25-A-因数个数

    题目链接https://www.nowcoder.com/acm/contest/158/A 无语...这题很迷啊,原谅我的菜,刚开始想用预处理欧拉筛和前缀和,可是这题太血崩了,这样一样要遍历,1-e ...

  4. linux下配置squid 服务器,最简单使用方式

    https://blog.csdn.net/unixtech/article/details/53185297 squid 查看命中率 https://blog.csdn.net/cnbird2008 ...

  5. js 时间戳转换为日期格式

     //将1525854409000类型的时间转换成“yyyy-MM-dd”或“yyyy-MM-dd hh:mm:ss”   //info.birthday是后台获取到的Date类型的出生日期数据, / ...

  6. M1阶段个人总结

    经过4周的开发,我们团队的第一阶段已经结束了. 这一个月来我由于其他事情较多,所以开发的工作主要交给了另外的三名同学. 我主要负责制定代码规范和工程结构,通过github来跟进项目进度,提供一些技术支 ...

  7. Week 1 工程文档

    计算器——工程文档 一.输入与格式 1.数据规模 本文档的输入基于如下的要求: (1)既然是小学生,我们假设他们不会计算超过10亿的数字. (2)既然是出考试题,那么也不会出超过10亿道题目. 也就是 ...

  8. Jquery画折线图、柱状图、饼图

    1.今天做了一个折线图,首先需要导js文件.这里有一个demo:http://files.cnblogs.com/files/feifeishi/jquery_zhexiantubingtuzhuzh ...

  9. vue props 用法(转载)

    前面的话 组件接受的选项大部分与Vue实例一样,而选项props是组件中非常重要的一个选项.在 Vue 中,父子组件的关系可以总结为 props down, events up.父组件通过 props ...

  10. git学习笔记2——ProGit2

    先附上教程--<ProGit 2> 配置信息 Git 自带一个 git config 的工具来帮助设置控制 Git 外观和行为的配置变量. 这些变量存储在三个不同的位置: /etc/git ...