欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

TensorFlow多线程输入数据处理框架(四)——输入数据处理框架

程序员文章站 2022-05-17 16:06:19
参考书 《TensorFlow:实战Google深度学习框架》(第2版) 输入数据处理的整个流程。 ......

参考书

《tensorflow:实战google深度学习框架》(第2版)

输入数据处理的整个流程。

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# coding=utf-8 

"""
@author: li tian
@contact: 694317828@qq.com
@software: pycharm
@file: sample_data_deal.py
@time: 2019/2/8 20:30
@desc: 输入数据处理框架
"""

from figuredata_deal.figure_deal_test2 import preprocess_for_train
import tensorflow as tf

# 创建文件列表,并通过文件列表创建输入文件队列。在调用输入数据处理流程前,需要统一所有原始数据的格式
# 并将它们存储到tfrecord文件中。下面给出的文件列表应该包含所有提供训练数据的tfrecord文件。
files = tf.train.match_filenames_once('file_pattern-*')
filename_queue = tf.train.string_input_producer(files, shuffle=false)

# 使用类似前面介绍的方法解析tfrecord文件里的数据。这里假设image中存储的是图像的原始数据,label为该
# 样例所对应的标签。height、width和channels给出了图片的维度。
reader = tf.tfrecordreader()
_, serialized_example = reader.read(filename_queue)
features = tf.parse_single_example(
    serialized_example,
    features={
        'image': tf.fixedlenfeature([], tf.string),
        'label': tf.fixedlenfeature([], tf.int64),
        'height': tf.fixedlenfeature([], tf.int64),
        'width': tf.fixedlenfeature([], tf.int64),
        'channels': tf.fixedlenfeature([], tf.int64),
    }
)
image, label = features['image'], features['label']
height, width = features['height'], features['width']
channels = features['channels']

# 从原始图像数据解析出像素矩阵,并根据图像尺寸还原图像。
decoded_image = tf.decode_raw(image, tf.uint8)
decoded_image.set_shape([height, width, channels])
# 定义神经网络输入层图片的大小
image_size = 299
# preprocess_for_train为前面提到的图像预处理程序
distorted_image = preprocess_for_train(decoded_image, image_size, image_size, none)

# 将处理后的图像和标签数据通过tf.train.shuffle_batch整理成神经网络训练时需要的batch。
min_after_dequeue = 10000
batch_size = 100
capacity = min_after_dequeue + 3 * batch_size
image_batch, label_batch = tf.train.shuffle_batch([distorted_image, label], batch_size=batch_size, capacity=capacity, min_after_dequeue=min_after_dequeue)

# 定义神经网络的结构以及优化过程, image_batch可以作为输入提供给神经网络的输入层。
# label_batch则提供了输入batch中样例的正确答案。
# 学习率
learning_rate = 0.01
# inference是神经网络的结构
logit = inference(image_batch)
# loss是计算神经网络的损失函数
loss = cal_loss(logit, label_batch)
# 训练过程
train_step = tf.train.gradientdescentoptimizer(learning_rate).minimize(loss)

# 声明会话并运行神经网络的优化过程
with tf.session() as sess:
    # 神经网络训练准备工作。这些工作包括变量初始化、线程启动。

    sess.run((tf.global_variables_initializer(), tf.local_variables_initializer()))
    coord = tf.train.coordinator()
    threads = tf.train.start_queue_runners(sess=sess, coord=coord)

    # 神经网络训练过程。
    training_rounds = 5000
    for i in range(training_rounds):
        sess.run(train_step)

    # 停止所有线程
    coord.request_stop()
    coord.join(threads)