在用于服务模型的Tensorflow中,服务输入功能应该做什么

在用于服务模型的Tensorflow中,服务输入功能应该做什么,第1张

在用于服务模型的Tensorflow中,服务输入功能应该做什么

如果希望模型能够进行预测,则需要提供服务的输入功能。serving_input_fn指定predict()方法的调用者必须提供的内容。您实际上是在告诉模型必须从用户那里获取什么数据。

如果您有29个输入,则服务输入功能可能类似于:

def serving_input_fn():    feature_placeholders = {      'var1' : tf.placeholder(tf.float32, [None]),      'var2' : tf.placeholder(tf.float32, [None]),      ...    }    features = {        key: tf.expand_dims(tensor, -1)        for key, tensor in feature_placeholders.items()    }    return tf.estimator.export.ServingInputReceiver(features,         feature_placeholders)

通常以JSON形式出现:

{"instances": [{"var1": [23, 34], "var2": [...], ...}]}

PS输出不是服务输入功能的一部分,因为这与要预测的输入有关。如果您使用的是预制估算器,则输出已经预先确定。如果要编写自定义估算器,则应编写导出签名。



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5630749.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-15
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存