- TensorFlow简介
- TensorFlow安装
- 人工智能简介
- TensorFlow数学基础
- 机器学习和深度学习
- TensorFlow基础
- TensorFlow卷积神经网络
- TensorFlow递归神经网络
- TensorFlow TensorBoard可视化
- TensorFlow单词嵌入
- TensorFlow单层感知
- TensorFlow线性回归
- TensorFlow TFLearn安装和使用
- TensorFlow CNN和RNN区别
- TensorFlow Keras
- TensorFlow分布式计算
- TensorFlow导出
- TensorFlow多层感知器学习
- TensorFlow感知器隐藏层
- TensorFlow优化器
- TensorFlow XOR实现
- TensorFlow梯度下降优化
- TensorFlow成型图表
- TensorFlow识别图像
- 神经网络训练的建议
TensorFlow分布式计算
本章将重点介绍如何开始使用分布式TensorFlow。目的是帮助开发人员了解重复出现的基本分布式TF概念,例如TF服务器。我们将使用Jupyter Notebook来评估分布式TensorFlow。使用TensorFlow实现分布式计算如下所述 -
第1步 - 为分布式计算导入必需的模块 -
import tensorflow as tf
第2步 - 使用一个节点创建TensorFlow集群。让这个节点负责一个名称为“worker”的作业,并在localhost:6688
上运行一个作业。
cluster_spec = tf.train.ClusterSpec({'worker' : ['localhost:6688']}) server = tf.train.Server(cluster_spec) server.target
以上脚本生成以下输出 -
'grpc://localhost:6688' The server is currently running.
第3步 - 可以通过执行以下命令计算具有相应会话的服务器配置 -
server.server_def
以上命令生成以下输出 -
cluster { job { name: "worker" tasks { value: "localhost:6688" } } } job_name: "worker" protocol: "grpc"
第4步 - 启动TensorFlow会话,执行引擎是服务器。使用TensorFlow创建本地服务器并使用lsof
查找服务器的位置。
sess = tf.Session(target = server.target) server = tf.train.Server.create_local_server()
第5步 - 查看此会话中可用的设备并关闭相应的会话。
devices = sess.list_devices() for d in devices: print(d.name) sess.close()
以上命令生成以下输出 -
/job:worker/replica:0/task:0/device:CPU:0
上一篇:TensorFlow Keras
下一篇:TensorFlow导出
扫描二维码
程序员编程王