如何正确转换tflite_graph.pb到detect.tflite

如何正确转换tflite_graph.pb到detect.tflite,第1张

如何正确转换tflite_graph.pb到detect.tflite

问题出在

toco
命令上。我使用的一些文档过时并误导了我。
toco
已弃用,我应该改用
tflite_convert
工具。

这是我使用的完整命令(从您的培训目录运行):

tflite_convert –graph_def_file tflite_inference_graph / tflite_graph.pb
–output_file =。/ detect.tflite –output_format = TFLITE –input_shapes =
1,300,300,3 –input_arrays = normalized_input_image_tensor –output_arrays
=’TFLite_Detection_PostProcess’,’T’
TFLite_Detection_PostProcess:2’,’TFLite_Detection_PostProcess:3’–
inference_type = QUANTIZED_UINT8 –mean_values = 128 –std_dev_values = 127
–change_concat_input_ranges = false –allow_custom_ops

我对ssdlite_mobilenet_v2_coco_2018_05_09模型进行了培训,并将其添加到了.config文件的末尾。

 graph_rewriter {  quantization {    delay: 400    weight_bits: 8    activation_bits: 8  }}

我也使用此命令在tflite_inference_graph目录中生成tflite_graph.pb:

python export_tflite_ssd_graph.py --pipeline_config_path2020-05-17_train_ssdlite_v2/ssd_mobilenet_v2_coco.config--trained_checkpoint_prefix2020-05-17_train_ssdlite_v2/train/model.ckpt-1146 --output_directory2020-05-17_train_ssdlite_v2/tflite_inference_graph--add_postprocessing_op=true

注意:我想在嵌入式系统上使用量化模型。这就是我在配置文件中添加graph_rewriter以及在tflite_convert命令中添加–
inference_type = QUANTIZED_UINT8的原因。



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5674669.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存