如果希望模型能够进行预测,则需要提供服务的输入功能。serving_input_fn指定predict()方法的调用者必须提供的内容。您实际上是在告诉模型必须从用户那里获取什么数据。
如果您有29个输入,则服务输入功能可能类似于:
def serving_input_fn(): feature_placeholders = { 'var1' : tf.placeholder(tf.float32, [None]), 'var2' : tf.placeholder(tf.float32, [None]), ... } features = { key: tf.expand_dims(tensor, -1) for key, tensor in feature_placeholders.items() } return tf.estimator.export.ServingInputReceiver(features, feature_placeholders)
通常以JSON形式出现:
{"instances": [{"var1": [23, 34], "var2": [...], ...}]}
PS输出不是服务输入功能的一部分,因为这与要预测的输入有关。如果您使用的是预制估算器,则输出已经预先确定。如果要编写自定义估算器,则应编写导出签名。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)