ncnn yolov5.cpp切换yolov5n6模型

ncnn yolov5.cpp切换yolov5n6模型,第1张

目录
  • strip64问题
    • strip64是否生效
    • 当前参数对应
    • 原demo参数对应
    • yolo官网5s6参数
    • yolo官网5s参数

strip64问题

前面分析到丢掉stride 64参数,会丢失小目标,那实际是不是这样子呢,我们修改yolov5.class="superseo">cpp,参考strip8,16,32的写法,增加strip64代码

    // stride 64
    {
        ncnn::Mat out;
        ex.extract("484", out);
        ncnn::Mat anchors(6);
        anchors[0] = 436;
        anchors[1] = 615;
        anchors[2] = 739;
        anchors[3] = 380;
        anchors[4] = 925;
        anchors[5] = 792;

        std::vector<Object> objects64;
        generate_proposals(anchors, 64, in_pad, out, prob_threshold, objects64);

        proposals.insert(proposals.end(), objects64.begin(), objects64.end());
    }

左:无64参数运行结果--------------右:有64参数运行结果
可以看到检测结果并没有什么差异,所以64参数是没生效吗? strip64是否生效

我们通过屏蔽代码,分别得到strip 8/16/32/64运行后得到的框,注意要把nms_threshold降低,防止过滤掉低分数框。


左:only strip8参数运行结果--------------右:only strip16参数运行结果

左:only strip32参数运行结果--------------右:only strip64参数运行结果
这就很奇怪了,strip越大,反而检测的目标越大。按照之前anchor理解,64应该识别的目标更小才对。 难道代码的参数与模型的层没对应上?对错层了? 当前参数对应

目前对应是这样的
strip 8------output
strip 16------456
strip 32------470
strip 64------484

yolov5n6.param
原demo参数对应

原demo用的yolov5s_6.0对应是这样的

strip 8------output
strip 16------376
strip 32------401

yolov5s_6.0.param

它的5s6只有3层输出,很奇怪。

yolo官网5s6参数

我去yolo github下载yolov5s6.pt,转成onnx,转成.param

yolov5s6_github.param

yolo官网的5s6也是4层输出。

yolo官网5s参数

我好奇,把官网的5s模型也转了出来

yolov5s_github.param
这个跟ncnn用的yolov5s_6.0模型不是一样的吗。

为了再次确认,我把两个模型丢到了https://netron.app/,对比发现一毛一样,那为什么ncnn要把这个模型命名为5S_6.0呢?

未完待续

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/893185.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-14
下一篇 2022-05-14

发表评论

登录后才能评论

评论列表(0条)

保存