关于vmware workstation pro15 打开gns3 ova文件的错误,求大神指导

关于vmware workstation pro15 打开gns3 ova文件的错误,求大神指导,第1张

gns3 1.4新版变化:

1.以前的GNS3-IOUVM(debian)变成GNS3VM(ubuntu)了。支持IOS/QEMU/IOU的上传。

这样,iourc.txt需要更新,添加gns3vm的host key,才能使用gns3vm上的iou。否则会出现:IOU License Error: host not found in iourc file

2.GNS3VM是64位的ubuntu,CPU必须要支持intel-vt/AMD-V,并在bios中开启。

所以,一些老CPU就不能使用gns3vm了,但是可以把gns3vm装在新cpu机器上,网卡采用桥接模式,老机器和新机器在一个局域网,配置老机器的gns3 1.4.0 remote server的方法使用gns3vm。当然,这个时候老机器local server绑定的IP就是本机局域网IP,而非vmnet1网卡的ip。

3.新版支持vmware vms,在使用过程中出现好多错误。

建议:vmnet2-vmnet19,使用vmware自己的虚拟网络编辑器,自己手动添加,会避免权限不足引起的问题。

注意:在gns3中使用vmware vms,不需要自己添加网卡,也不需要手动在vmware中开启vm,gns3会自动开启vm,在这个过程中自动添加网卡。配置虚拟机的时候,如果必须要使用自己配置的网卡,需要指定具体的vmnet2,vmnet3等等。

错误处理:

VM locked, it is either running or being edited in VMware。方法:关闭vmware中虚拟机以及标签。需要在gns3中点击start开启。

vnet ethernet0.vnet not in VMX file,这个是因为vmware vm的网络适配器配置为仅主机模式,而仅主机模式的vmnet非常多,所以出现错误。方法:需要指定为自定义vmnet2,vmnet3等等。

10款奥迪A6L 2.0T 燃油压力调节阀位置,燃油压力调节阀在燃油滤芯里面,在右后轮旁边。把车升起来容易找到。高压调节阀是在高压泵里面。

这个燃油压力调节阀集成在燃油滤芯里面的,在右后车轮旁边,举起来就很好找,如果高压压力调节阀的话是在高压泵里面的。普通的车子是才喷油管道附近,有个真空管接的一个东西,但是这款奥迪车不是这样的。

扩展资料:

工作原理:油压大小由d簧和气室真空度二者协调,当油压高过标准值时,高压燃油会顶动膜片上移,球阀打开,多余的燃油会经回油管反流油箱。

当压力低过标准值时,d簧会下压膜片将球阀关闭,停止回油。压力调节器的作用就是保持油路内的压力保持恒定,油压过低则喷油器喷油太弱或不喷油,油压太高则使油路损毁或喷油器损坏。

压力调节器内部有一个膜片,起到控制压力阀打开关闭的作用,油压低于一定值时,压力阀关闭,由油泵加压使油路内压力增加,当增加到超过规定压力后,膜片打开,过压的燃油通过回油管路流回油箱,起到减压的作用。

参考资料来源:百度百科-奥迪A6L

IoU-Net 论文: Acquisition of Localization Confidence for Accurate Object Detection

旷视联合北大发的一篇论文,主要指出了目标检测方法中,非极大值抑制(NMS) 存在的问题。NMS 以分类置信度为基准执行,而分类置信度并不能很好地反映边框定位的准确程度,这导致一些更准确的定位在 NMS 过程中被抑制。IoU-Net 通过预测一个定位置信度(以 IoU 为预测目标),将定位置信度作为 NMS 的指标,以提升边框的准确度。此外,提出了一种基于优化的边框 refine 方法,代替边框回归。

非极大值抑制算法:

0. 对于一张图像的目标检测,其结果为 个边界框,其集合记为 ;选取 NMS 的评估指标 (依照基于 R-CNN 的方法,评估指标为边界框的分类置信度);预设重合度阈值 (重合度实际上是 IoU,为了防止和与 GT 的 IoU 混淆,此处写为重合度);NMS结果集合 预设为空集。

1. 对于 中 最大者 而言,将所有与它重合度大于 的边界框从 中移出,这些边界框被永久地舍弃。将 从 中移出,放入结果集合 。

2. 重复步骤 1 直到 成为空集。

3.  中的所有边界框为 NMS 的输出。

NMS 几乎是所有目标检测算法不可或缺的一步,它能防止冗余的边界框堆叠在同一个目标上。

1. 用分类置信度做 NMS 的指标缺乏一致性

一般而言,Two-stage 网络结构中,(1)首先由 RPN(或其它类似方法)提出 RoI 建议,这个过程中对 anchor 做一次边框回归,和判断内部有无目标;(2)然后 RoI 中的内容经过 RoI Pooling(或其它类似方法)后,输入一个分类网络做分类和边框回归;(3)对输出结果,以 分类置信度 为标准,进行 NMS 剔除冗余边界框。作者认为,在这个过程中,缺少一种评估 RoI 的“ 定位置信度 ”,它应当和分类置信度地位相似,用于当作 NMS 的标准。

NMS 最初被应用于边界框筛选时,就是用分类置信度作为评估指标的,毕竟这是网络的一个现成输出。但是,根据作者的实验,分类置信度最高的边界框,其 IoU 并不一定是最高的。如下图所示,存在很多反例。

统计所有边界框的分类置信度与 IoU 的关系(左下),能够发现它们并没有很好的相关性,尽管它们仍在一定程度上显示出正相关,但在分类置信度低的区域,仍有很多 IoU 较高的边界框,而在分类置信度较高的区域,也有不少边界框的 IoU 只有大概 60%~70%。而作者提出的定位置信度,则与 IoU 呈较好的线性关系(右下),定位置信度的高低能够更好地反映边界框的真实 IoU 大小。评估这两个分布的皮尔森相关系数,可知后者相关性更高。

2. 多次迭代的边框回归并不能单调提升边框定位结果

作者还观察到,有些方法做了多次的边框回归。以 Faster R-CNN 为例,这个过程中有两次边框回归,它们的意义很大程度上是重合的,第二次边框回归起到了 refine 的作用;另外也有一些方法——比如 Cascade R-CNN,采用了更多次数的边框回归。

基于实验性目的,作者在 FPN 框架下和 Cascade R-CNN 框架下,评估了取不同边框回归迭代次数时,最终输出的边框的 AP 指标。不论是基于 FPN 还是 Cascade R-CNN,在一定迭代次数后,边框的准确度都不增反降。数学上,它们的关系是非单调的。

所谓定位置信度,其实就是在网络的 R-CNN 部分,额外引入了一个支路,预测边界框和 GT 之间的 IoU。

然后是 IoU-guided NMS 算法,和原始的 NMS 算法几乎一样,只是评估指标改成网络预测的定位置信度。在保留定位置信度最大的边框的同时,如果该边框的分类置信度不如与它高度重叠的(但定位置信度较低的)边界框高,则将该边框的分类置信度记为更高的那个值。

Refine 边界框的问题可以被归纳为一个寻找最优变换参数 的问题:

其中 是 RPN 预测到的边界框, 是 GT 边界框; 是以 为参数的边界框变换函数; 是评估两个边界框之间的距离的指标,这里采用 IoU。

R-CNN 中提出的边框回归方法——称之为基于回归的方法——采用一个前馈的神经网络直接预测参数,但多次的迭代预测对输入分布的变换不具有鲁棒性,因此会形成前述的不单调的优化曲线。

作者提出的方法——称之为基于优化的方法——将 IoU 预测支路作为优化的目标函数,并提出了 Precise RoI Pooling 方法(后面讲)替代原来的 RoI Pooling 层,优化 RoI Pooling 层的可导性。因为 IoU 预测支路内部是可导的,所以可以简单地通过梯度上升算法寻找最优的 。

训练 R-CNN 时的采样策略和 Faster R-CNN 原文中略有不同。当选择 RoI 时,不再选择由 RPN 生成的 RoI Proposal,而是对 GT 应用几个随机的变换,舍去和原始 GT 重合度不足50%者,将剩下的作为 RoI。尽管并没有说明原因,但作者表示,从实验结果来看,这种采样方法优于将 RoI Proposal 用作训练 R-CNN 时的 RoI。个人感觉,训练刚开始 RPN 并没有学到 GT 的分布,输出的 RoI Proposal 和 GT 偏差很大,这使得基于 RoI Proposal 的 R-CNN 训练在这个阶段几乎是没有意义的,而作者的做法在一定程度上避免了这个问题。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/12101510.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存