Android人脸检测API-存储的视频文件

Android人脸检测API-存储的视频文件,第1张

概述我想使用AndroidVisionFaceDetectorAPI对视频文件(例如,用户库中的MP4)执行面部检测/跟踪.我可以看到许多使用CameraSource类对直接来自相机的流(例如ontheandroid-visiongithub)执行人脸跟踪的示例,但对于视频文件则什么也没有.我尝试通过AndroidStudio查看CameraSource的

我想使用Android Vision FaceDetector API对视频文件(例如,用户库中的MP4)执行面部检测/跟踪.我可以看到许多使用CameraSource类对直接来自相机的流(例如on the android-vision github)执行人脸跟踪的示例,但对于视频文件则什么也没有.

我尝试通过AndroID Studio查看CameraSource的源代码,但是它被混淆了,我无法在线看到原始代码.我认为使用相机和使用文件之间有许多共同点.大概我只是在Surface上播放视频文件,然后将其传递到管道.

或者,我可以看到Frame.Builder具有函数setimageData和setTimestampMillis.如果我能够以ByteBuffer的形式读取视频,该如何将其传递给FaceDetector API?我猜this question是类似的,但没有答案.同样,将视频解码为Bitmap帧,然后将其传递给setBitmap.

理想情况下,我不想将视频呈现到屏幕上,并且处理应以FaceDetector API所能达到的速度进行.

解决方法:

Alternatively I can see that Frame.Builder has functions setimageData and setTimestampMillis. If I was able to read in the vIDeo as ByteBuffer, how would I pass that to the FaceDetector API?

只需调用SparseArray< Face>.人脸= detector.detect(frame);必须像这样创建检测器:

FaceDetector detector = new FaceDetector.Builder(context)   .setProminentFaceOnly(true)   .build();

总结

以上是内存溢出为你收集整理的Android人脸检测API-存储的视频文件全部内容,希望文章能够帮你解决Android人脸检测API-存储的视频文件所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/web/1120810.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-29
下一篇 2022-05-29

发表评论

登录后才能评论

评论列表(0条)

保存