分布式Tensorflow:CreateSession仍在等待

分布式Tensorflow:CreateSession仍在等待,第1张

分布式Tensorflow:CreateSession仍在等待

默认情况下,分布式TensorFlow会话将尝试连接到中命名的
所有服务器

tf.train.ClusterSpec
,并且将阻塞直到它们响应为止。这提供了一个有用的障碍,可确保所有工作人员在将控制权还给用户之前已经准备好接收计算请求。此障碍发生在
MonitoredTrainingSession
等待负责人初始化变量的代码之前。

如果您不希望会话在所有服务器上等待(例如,仅等待中的任务

"/job:ps"
而不是中的其他任务
"/job:worker"
,这是常见的图形间部署策略),最简单的选择是在以下情况下指定“设备过滤器”:您创建会话。设备筛选器是(部分)设备规格的白名单,用于确定
tf.Session
启动时将联系哪些任务。例如,
mnist_replica.py
测试将设备筛选器指定
tf.ConfigProto
为用于配置会话的一部分。



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5668501.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存