tensorflow —— tf.contrib
程序员文章站
2022-07-13 11:34:54
...
tf.contrib
tf.contrib.data.map_and_batch
把map和batch混在一起并行处理
dataset.apply(tf.contrib.data.map_and_batch())
tf.contrib.tpu
tf.contrib.tpu.RunConfig
tpu_config=None, # TPUConfig(required by TPUEstimator) that specifies TPU-specific configuration.
evaluation_master=None, # The address of the master to use for eval. Defaults to master if not set.
master=None, # The address of the master to use for training. Tensorflow master url.
cluster=None, # a ClusterResolver
**kwargs # keyword config parameters.
tf.contrib.tpu.TPUConfig
iterations_per_loop: the number of train steps;global step is increased iterations_per_loop times in one Session.run
num_shards: (Deprecated, ignored by TPUEstimator). The number of model replicas in the system. non-model-parallelism :equals the total number of TPU cores;model-parallelism:the total number of TPU cores = num_cores_per_replica * num_shards.
tf.contrib.tpu.TPUEstimator:TPU上运行模型
Estimator是tensorflow的模型级抽象层。
标准Estimators可以在CPU和GPU上运行模型。
维护可在 CPU/GPU 或 Cloud TPU 上运行的模型:最简单的方式是将模型的推理阶段(从输入到预测)定义在 model_fn 之外。确保 Estimator 设置和 model_fn 的单独实现,二者均包含此推理步骤。
在本地运行 TPUEstimator
创建标准 Estimator
调用构造函数,然后将它传递给 model_fn
my_estimator = tf.estimator.Estimator(
model_fn=my_model_fn)
本地计算机上使用TPUEstimator
构造函数需要两个额外的参数:use_tpu = False,并将 tf.contrib.tpu.RunConfig 以 config 参数的形式传递。
my_tpu_estimator = tf.contrib.tpu.TPUEstimator(
model_fn=my_model_fn,
config=tf.contrib.tpu.RunConfig()
use_tpu=False)
设置命令行标记
python mnist_tpu.py --use_tpu=false --master=''
推荐阅读
-
tensorflow教程推荐(新手必知的tensorflow基础知识)
-
详细介绍如何用TensorFlow实现yolo v3 macOS
-
windows10下安装TensorFlow Object Detection API的步骤
-
浅谈Tensorflow模型的保存与恢复加载
-
基于神经网络的人脸识别tensorflow(数据的存储与加载)
-
TensorFlow进阶项目实战
-
在python下使用tensorflow判断是否存在文件夹的实例
-
2-1 Tensorflow --创建图、启动图
-
在C#下使用TensorFlow.NET训练自己的数据集
-
浅谈tensorflow中dataset.shuffle和dataset.batch dataset.repeat注意点