默认情况下,分布式TensorFlow会话将尝试连接到中命名的
所有服务器
tf.train.ClusterSpec,并且将阻塞直到它们响应为止。这提供了一个有用的障碍,可确保所有工作人员在将控制权还给用户之前已经准备好接收计算请求。此障碍发生在
MonitoredTrainingSession等待负责人初始化变量的代码之前。
如果您不希望会话在所有服务器上等待(例如,仅等待中的任务
"/job:ps"而不是中的其他任务
"/job:worker",这是常见的图形间部署策略),最简单的选择是在以下情况下指定“设备过滤器”:您创建会话。设备筛选器是(部分)设备规格的白名单,用于确定
tf.Session启动时将联系哪些任务。例如,
mnist_replica.py测试将设备筛选器指定
tf.ConfigProto为用于配置会话的一部分。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)