如何使TensorFlow对象检测更快-r cnn模型在Android上工作?

如何使TensorFlow对象检测更快-r cnn模型在Android上工作?,第1张

概述我有一个关于TensorflowsObjectDetectionAPI的问题.我使用自己的交通标志分类数据集训练了FasterR-CNNInceptionv2model,我想将其部署到Android,但是TensorflowsObjectDetectionAPIforAndroid和/或TensorflowLite似乎仅支持SSD模型.有什么方法可以将FasterR-CNN模型

我有一个关于Tensorflows Object Detection API的问题.我使用自己的交通标志分类数据集训练了Faster R-CNN Inception v2 model,我想将其部署到AndroID,但是Tensorflows Object Detection API for Android和/或Tensorflow Lite似乎仅支持SSD模型.

有什么方法可以将Faster R-CNN模型部署到AndroID?我的意思是如何将Faster R-CNN的冻结推理图而不是SSD冻结推理图放到androID API?

解决方法:

对于SSD型号,必须能够使用export_tflite_ssd_graph.py工具.但:

At this time only SSD models are supported. Models like faster_rcnn
are not supported at this time

有关更多信息,请参见this guide.

总结

以上是内存溢出为你收集整理的如何使TensorFlow对象检测更快-r cnn模型在Android上工作?全部内容,希望文章能够帮你解决如何使TensorFlow对象检测更快-r cnn模型在Android上工作?所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/web/1081715.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-27
下一篇 2022-05-27

发表评论

登录后才能评论

评论列表(0条)

保存