显然我们一般是用外接CAN总线驱动器82C250一类的。其输入TX、输出RX,是单极性。这时用SJA1000的TX0/TX1或者RX0/RX1管脚应该是一样的,但由于TX1和RX1内部电路设计赋予了其他功能,所以只用TX0和RX0与82C250驱动器相接。下面入正题:
RX0和RX1是SJA1000内部差分接收比较器A的两个输入端,不用外接总线驱动器时对应接CANH、CANL,现在是单极性输入到RX0,那么RX1应该接到CAN电平(比较器电平)中点,即25V。这就是总线驱动器一般都供给参考电压25V的原因。这时要注意的前题是:CDR寄存器中的CBP位必须设置为“0”。
CBP位控制芯片内部差分比较器A附加的一个电子开关B,B像一个接在比较器A(-)输入端的单刀双掷开关,(比较器A(+)输入端接了RX0。)一掷接RX1,另一掷接比较器输出端;这样,通过电子开关B的切换,差分比较器A要么是比较器,要么是跟随器。当CBP=1时,它是跟随器(整形电路)。RX1管脚这时悬空,接哪里或者不接按道理都行。由于它引入到芯片内部,悬空可能引入噪声,所以手册建议将RX1接一固定电平,VDD/VSS/25V均可。另:跟随器减少了比较器的延时,这就是手册上说的CBP=1时,可以减少信号延时,放宽总线距离的原因。
结论:如果不清楚电子线路(运算放大器、比较器、跟随器、N/P沟道场效应管等等电路),只要将SJA1000的RX1管脚接到总线驱动器82C250一类的参考电压输出端Vref即可,这时无论CBP位设置1/0,通信都能正常进行。
这只是原理上解释为什么有些书上的RX1接地,有些书又接Vref。
电子开关B也许是接在比较器A的下一级的输入上,然后一掷接比较器A输出,一掷接RX0输入,当CBP=0时,开关连接A输出,断开RX0。
当CBP=1时,开关连接RX0,断开A输出,这样真正跨越了比较器A的延时。(这时RX1接什么已经无所谓了)。
跟随器叙述好像不严格。不过原理是这样。不可靠实体清单实施时间,2020年9月19日
百科《不可靠实体清单规定》是2020年9月19日商务部公布的规定,自公布之日起施行。2020年9月19日,商务部公布《不可靠实体清单规定》,自公布之日起施行。第一条 为了维护金条怎么叠
第一步 先把锡箔竖着放,银色朝下,朝上
第二步 从上面向下量出大概全长五分之一的位置,向上折(现在向上的一面可以看到和银色一比二的两段)
第三步 翻过来(现在是银色向上)
第四步 向上折,和反面银色交接线对齐(这一面全部都是银色的)
第五步 再翻过来(现在是银色一比一的两段)
第六步 把四只角沿着交接线折起来
第七步 把的一半翻折下来(现在是两面都是银色的梯形)
第八步 撑开来,就是一个元宝了。
最好别烧金元宝(阴间不好用 信不信由你) 多烧点银元宝和纸钱 纸钱要像扇子一样铺开 银元宝直接撒上烧 还有在祭祖后拿出一部分纸钱在四岔路口烧给孤魂野鬼 冤情债主(嘴里还要讲出来给他们) 以上是给你的建议 不必给我赏分
金条怎么叠没有具体说明白 一般金属为了防止摩擦受损 用布或专用的泡沫纸
求世界各国古代金币,金条,金块的 :gooddo/Article/UploadFiles/200612/20061221104946524jpg
:imagebaidu/ict=503316480&z=0&tn=baiduimagedetail&word=%D6%D0%B9%FA%B9%C5%B4%FA%BB%F5%B1%D2&in=10&cl=2&cm=1&sc=0&lm=-1&pn=9&rn=1
:imagebaidu/ict=503316480&z=0&tn=baiduimagedetail&word=%D6%D0%B9%FA%B9%C5%B4%FA%BB%F5%B1%D2&in=17&cl=2&cm=1&sc=0&lm=-1&pn=16&rn=1
:cbpm/qbjs/images/rmbjs/bb/jinbei-1jpg
目前有人挖出最高的金条就是6根,没有7根的消息。这个活动运气和手气有太大关系了,
近期很多数学大咖就该活动共出奖概率做了详细的计算,出7条1/5040,6条1/720,5条1/120,4条1/24,3条是低保中奖率100%。
该活动每天的排序都会被重置,比如今天是1325467,明天就可能是4236157,如果整个服务器都是一个数据的话,那早晚都会有正确答案出现。
这里建议玩家随便点吧,7条从上点到下,有就有,没就没,暂时没有正确的顺序,中奖概率就跟买一样,能不能出就看运气了。
ppt怎么叠加
一张一张的插入 并且一张一张的设置动画 最后看到的是叠置的 但是在播放的时候是一张张覆盖
玫瑰怎么叠 1,准备一张正方的纸,然后对纸进行一次四等分的十字折叠,留出清晰的折痕 。接下来根据折痕将纸先二分,再四分折叠出这样的效果。
2,在折纸的中心位置为准,折出一个不要超过1厘米的小三角形,要用力!
3,展开整张纸,,就可以看到一个小正方形,这时加强一下正方形的边
4,捏住两边的折痕,往中间挤压,成蚌嘴状,再次修正蚌嘴的边角
5,蚌嘴需要两边都作,然后展开纸,可以看到这样的一个新的正方形
6,延正方形的边向两侧继续用力折出折痕
7,有了上面的折痕,就很方便的可以把折纸折成如图的形状
8,此时可以展开成这样了,注意每个折边要完整
9,接下来一定要反过了,让那个小正方形冲下方才可以
10,将一个折边拉起来,向顺时针的邻边压过去,但是要保证邻边露出2-3厘米的空间,
11,反过来也就是这样,把那个略微有点弧线的折痕压好
12,四个边都要重复上面的步骤,就可以得到这样的效果
13,按照弧形折痕,以小正方形为中心,开始进行螺旋并同时将四个角缩进去
14,一直旋转并缩紧
15,从后面,也就是面向小方块的那个窝将边缘向里面折压进去
16,最后一个折角插入里面,这样玫瑰的底部就完全成功了
17,反过来,修整出花瓣的效果
:detrfnskgfrvblog163/blog/static/137516725201011753637130/
叠加怎么弄?当出现第2张后图层样式才可用,图层样式里有叠加等等样式通常为正常样式
WPS怎么让重叠单击正确的——工具——裁剪,保留正确的内容,设置叠放层次——置于顶层,移动到原来错误的位置。
正常运行时,三个指示灯重复的以相同的频率和时间间隔闪烁;2、如果有一个指示灯持续的长亮和或者不亮,就代表该指示灯对应的状态异常;
3、红灯:闪烁,代表CBP 运行电源接通
黄灯:闪烁,代表与设备无差错数据交换
绿灯:闪烁,代表通过PROFIBUS 的数据传送无差错
4、红灯:长暗/长亮,代表CBP 电源不工作
黄灯:长暗/长亮,代表与设备的数据交换不正常
绿灯:长暗/长亮,代表由PROFIBUS 传送的数据格式不对,或者PROFIBUS 电缆没连接或损坏
5、红灯闪 —— 代表CBP 板等待开始初始化。
黄灯暗
绿灯长亮
6、红灯长亮——代表CBP 等待完成初始化。
细粒度的视觉识别具有挑战性,因为它高度依赖于各种语义部分的建模和细粒度的特征学习。基于双线性池的模型已被证明在细粒度识别方面是有效的,而以前的大多数方法忽略了层间部分特征交互和细粒度特征学习是相互关联、相互促进的这一事实。在本文中,我们提出了一个新的模型来解决这些问题。首先,提出了一种跨层的双线性池化方法来捕获层间零件特征关系,与其他基于双线性池化的方法相比,具有更好的性能。其次,我们提出了一个新的层次双线性池架构,整合多个跨层的双线性特征,以增强其表示能力。我们的公式是直观的,有效的,并取得了最先进的结果,在广泛使用的细粒度识别数据集。
细粒度分类中利用局部特征的方法有较大局限性。
因此,使用图像级标签的分类方法。例如,Simon和Rodner[26]提出了一个星座模型,利用卷积神经网络(convolutional neural network, CNN)来寻找神经激活模式的星座。Zhang等人[36]提出了一种自动细粒度图像分类方法,该方法结合了深度卷积滤波器来进行与部件相关的选择和描述。这些模型将CNN作为局部检测器,在细粒度识别方面取得了很大的改进。 与基于部件的方法不同,我们将不同卷积层的激活视为对不同部件属性的响应,而不是显式地对目标部件进行定位,而是利用跨层双线性池来捕获部件属性的层间交互,这被证明对细粒度识别非常有用。
也有研究[3,6,17,12]引入双线性池化框架对对象局部进行建模。虽然已经报告了一些有希望的结果,但进一步的改进还存在以下局限性。 首先,现有的基于双线性池的模型大多只将最后一个卷积层的激活作为图像的表示,不足以描述对象的各个语义部分。其次,忽略了中间的卷积活动,导致细粒度分类的判别信息丢失,而这些信息对于细粒度的视觉识别具有重要意义。
众所周知,CNNs在传播过程中存在信息丢失。 为了最大限度地减少对细粒度识别有用的信息损失,我们提出了一种新的层次双线性池结构来集成多个跨层的双线性特征,以增强其表示能力。为了充分利用中间卷积层的激活,在最终分类之前将所有跨层双线性特征连接起来。 注意,不同卷积层的特征是互补的,它们有助于鉴别特征学习。因此,该网络从层间特征交互和细粒度特征学习的相互增强中获益。我们的贡献总结如下:
1我们开发了一种简单但有效的跨层双线性池技术,该技术同时支持层间特性交互和以相互增强的方式学习细粒度表示。
2提出了一种基于跨层双线性池的分层双线性池框架,将多个跨层双线性模块集成在一起,从中间卷积层获取互补信息,从而提高性能。
3我们对三个具有挑战性的数据集(幼鸟、斯坦福汽车、fgvc飞机)进行了综合实验,结果证明了我们方法的优越性
本文的其余部分组织如下。第二部分是对相关工作的回顾。第3节介绍了提出的方法。第4节提供了实验和结果分析,第5节给出了结论。
在接下来的文章中,我们将从与我们工作相关的两个有趣的角度简要回顾一下之前的工作,包括CNNs中的细粒度特征学习和特征融合。
1为了更好地对细粒度类别的细微差异进行建模,Lin等人[17]提出了一种双线性结构,通过两个独立的CNNs来聚合成对的特征,该结构采用特征向量的外积来产生一个非常高维的二次展开特征。
2Gao等人利用张量勾画出[23]来近似二阶统计量并降低特征维数。
3Kong等人对协方差矩阵采用低秩近似,进一步降低了计算复杂度。
4Yin等人通过迭代地将张量草图压缩应用到特征上来聚合高阶统计量。
5[22]的工作以双线性卷积神经网络为基线模型,采用集成学习的方法进行加权。
6在[16]中,提出了矩阵平方根归一化,并证明了它是对现有归一化的补充。
但是,这些方法只考虑了单个卷积层的特征,不足以捕捉对象的各种判别部分,也不足以模拟子类别间的细微差别。我们提出的方法通过将层间特征交互和细粒度特征学习以一种相互增强的方式结合起来,克服了这一局限性,因而更加有效。
3,7,19,33研究CNN中不同卷积层的特征图有效性。
作者将每个卷积层作为不用对象部分的属性提取器,并以直观有效的方式对他们直降的交互进行建模。
在本节中,我们建立了一个层次双线性模型来克服上述限制。在提出我们的层次双线性模型之前,我们首先在31节中介绍了用于细粒度图像识别的分解双线性池的一般公式。在此基础上,我们在32节中提出了一种跨层的双线性池技术,联合学习不同卷积层的激活,捕获信息的跨层交互,从而获得更好的表示能力。最后,我们的层次双线性模型结合多个跨层双线性模块生成更精细的部分描述,以便更好地细粒度识别。
分解双线性池已被应用于视觉问题回答任务,Kim等人[11]提出了使用哈达玛乘积分解双线性池的多模态学习的有效注意机制。本文介绍了用于细粒度图像识别的分解双线性池技术的基本公式。假设一个图像I被CNN过滤了卷积层的输出特征图为X Rh w c,高h,宽w,通道c,我们将X上空间位置的c维描述符表示为X = [x1, x2,···,xc]T。
其中,Wi 为投影矩阵,Zi为双线性模型的输出。我们需要学习W = [W1,W2,···,Wo] ,得到一个o维输出z,根据[24]中的矩阵分解,Eq(1)中的投影矩阵Wi可以分解成两个单秩向量
where Ui ∈ Rc and Vi ∈ Rc Thus the output feature z ∈ Ro is given by
其中U Rc d和V Rc d是投影矩阵,P Rd o是类化矩阵,o是哈达玛积,d是决定节理嵌入维数的超参数。
细粒度的子类别往往具有相似的外观,只能通过局部属性的细微差异来区分,例如鸟类的颜色、形状或喙长。双线性池是一种重要的细粒度识别技术。然而,大多数双线性模型只关注于从单个卷积层学习特征,而完全忽略了信息的跨层交互作用。 单个卷积层的激活是不完全的,因为每个对象部分都有多个属性,这些属性对于区分子类别至关重要 。
实际上在大多数情况下,我们需要同时考虑零件特征的多因素来确定给定图像的类别。因此, 为了捕获更细粒度的部分特征,我们开发了一个跨层的双线性池方法,该方法将CNN中的每个卷积层视为部分属性提取器。 然后将不同卷积层的特征通过元素乘的方式进行集成,建立部分属性的层间交互模型。根据公式(3)可以改写为:
32节提出的跨层双线性池是直观有效的,在不增加训练参数的情况下,其表示能力优于传统的双线性池模型。这启发我们,利用不同卷积层之间的层间特征相互作用,有利于捕获细粒度亚层之间的鉴别部分属性。因此,我们扩展了跨层的双线性池来集成更多的中间卷积层,进一步增强了特征的表示速度。在这一节, 我们提出一个广义的分层双线性模型,通过层叠多个跨层的双线性池模块来合并更多的卷积层特性。 具体地,我们将跨层的双线性池模块划分为交互阶段和分类阶段,公式如下:
其中P为分类矩阵,U, V, S,…为卷积层特征向量x, y, z的投影矩阵,…分别。HBP框架的总体流程图如图1所示。
在本节中,我们将评估HBP模型在细粒度记录方面的性能。第41节首先介绍了HBP的数据集和实现细节。在第42节中进行了模型配置研究,以调查每个组件的有效性。与最新方法的比较载于第43节。最后,在44节中,定性可视化被用来直观地解释我们的模型。
数据集:cub200-201130,StandFordcars15,FGVC-Aircraft21
实验:使用ImageNet分类数据集预训练的VGG-16基线模型评估HBP,删除最后三个全连接层,也可以应用到Inception和ResNet中,输入图像大小448。我们的数据扩充遵循常用的做法,即训练时采用随机抽样(从512 S中裁剪448 448,其中S为最大的图像边)和水平翻转,推理时只进行中心裁剪。我们先通过logistic回归对分类器进行训练,然后使用批量为16,动量为09,权值衰减为5 10 4,学习率为10 3的随机梯度下降法对整个网络进行微调,并定期进行05的退火。
跨层双线性池(CBP)有一个用户定义的投影维d。为了研究d的影响并验证所提框架的有效性,我们在cub200 -2011[30]数据集上进行了大量的实验,结果如图2所示。注意,我们利用FBP中的relu5 3、CBP中的relu5 2和relu5 3、HBP中的relu5 1、relu5 2和relu5 3得到了图2中的结果,我们还提供了以下图层选择的定量实验。在VGG-16[27]中,我们主要关注relu5 1、relu5 2和relu5 3,因为它们比较浅的层包含更多的部分语义信息。在图2中,我们将CBP的性能与一般分解的双线性池模型(即FBP)进行了比较。在此基础上,我们进一步探索了多层结合的HBP方法。最后,我们分析了超参数d的影响因素。从图2中我们可以得出以下重要结论:
首先,在相同的d下,我们的CBP明显优于FBP,这说明特征的层间相互作用可以增强识别能力。
其次,HBP进一步优于CBP,证明了中间卷积层激活对细粒度识别的有效性。这可以通过CNNs在传播过程中存在信息丢失来解释,因此在中间卷积层中可能丢失对细粒度识别至关重要的鉴别特征。与CBP相比,我们的HBP将更多的中间卷积层的特征相互作用考虑在内,因此具有更强的鲁棒性,因为HBP表现出了最好的性能。在接下来的实验中,HBP被用来与其他最先进的方法进行比较。
第三,当d从512到8192变化时,增加d可以提高所有模型的精度,HBP被d = 8192饱和。因此,d = 8192
然后,我们在cub200 -2011[30]数据集上提供定量实验来分析层的影响因素。表2的精度是在相同的嵌入维数下得到的(d = 8192)。我们考虑了CBP和HBP的不同层的组合。结果表明,该框架的性能增益主要来自层间交互和多层组合。由于HBP-3已经表现出了最好的性能,因此我们在43节的所有实验中都使用了relu5 1、relu5 2和relu5 3。
我们也比较了我们的跨层集成与基于超列[3]的有限元融合。为了进行公平的比较,我们将超列重新实现为relu5 3和relu5 2的特征连接,然后在相同的实验设置下进行分解双线性池(记作HyperBP)。从表3可以看出,我们的CBP得到的结果略好于拥有近1/2 pa- rameter的HyperBP,这再次表明我们的集成框架在捕获层间特征关系方面更有效。这并不奇怪,因为我们的CBP在某种程度上与人类的感知是一致的。与HyperBP算法相反,当对更多的卷积层激活[3]进行积分时,得到的结果更差,我们的HBP算法能够捕获中间卷积层中的互补信息,在识别精度上有明显的提高。
结果cub- 200 - 2011。CUB数据集提供了边界框和鸟类部分的地面真相注释。我们使用的唯一监督信息是图像级类标签。cub200 -2011的分类精度如表4所示。表按行分为三部分:第一部分总结了基于注释的方法(使用对象包围框或部分注释);第二种是无监督的基于零件的方法;最后给出了基于池的方法的结果。
从表4的结果中,我们可以看到PN-CNN[2]使用了人类定义的边界框和地面真实部分的强大超视觉。SPDA- CNN[35]使用ground truth parts, B-CNN[17]使用具有非常高维特征表示(250K维)的边界框。与PN- CNN[2]、SPDA-CNN[35]和B-CNN[17]相比,即使不考虑bbox和部分干扰,所提出的HBP(relu5 3 + relu5 2 + relu5 1)也能取得较好的效果,证明了我们模型的有效性。与STN[9],使用更强的初始网络作为基准模型,得到一个相对ac -助理牧师的身份获得36%的家庭血压(relu5 3 + relu5 2 + relu5 1)。我们甚至超越RA-CNN[5]和MA-CNN[37],最近提议最先进的无监督部分原因的方法,相对精度,分别为21%和07%。与基于pool的B-CNN[17]、CBP[6]、LRBP[12]基线相比,我们主要受益的是较好的结果特征的层间交互和多层的集成。我们还超过了BoostCNN[22],它可以增强在多个尺度上训练的多个双线性网络。虽然HIHCA[3]提出了类似于用于细粒度识别的特征交互模型的思想,但是由于层间特征交互和鉴别特征学习的相互增强框架,我们的模型可以达到更高的精度。注意,HBP(relu5 3+relu5 2+relu5 1)表现优于CBP(relu5 3+relu5 2)和FBP(relu5 3),说明我们的模型能够捕捉到各层之间的互补信息。
斯坦福汽车的结果。Stanford Cars的分类精度如表5所示。不同的汽车零部件是有区别的、互补的,因此在这里,客体和零部件的国产化可能起着重要的作用。虽然我们的HBP没有显式的零件检测,但是在目前最先进的检测方法中,我们的检测结果是最好的。基于层间特征交互学习,我们甚至比PA-CNN[13]提高了12%的相对精度,这是使用人工定义的边界框。与无监督的基于零件的方法相比,我们可以观察到明显的改善。我们的HBP也优于基于池的方法BoostCNN[22]和KP[4]。
结果FGVC-Aircraft。由于细微的差异,不同的飞机模型很难被识别,例如,可以通过计算模型中的窗口数来区分它们。表6总结了fgvc飞机的分类精度。尽管如此,我们的模型仍然达到了最高水平所有方法中分类精度最高。与基于注释的MDTP[32]方法、基于部分学习的MA-CNN[37]方法和基于池的BoostCNN[22]方法相比,我们可以观察到稳定的改进,这突出了所提出的HBP模型的有效性和鲁棒性。
为了更好地理解我们的模型,我们在不同的数据集上可视化微调网络中不同层的模型响应。我们通过计算特征激活的平均幅度来得到激活图通道。在图3中,我们从三个不同的数据集中随机选取了一些图像,并将其可视化。
所有的可视化结果都表明,所提出的模型能够识别杂乱的背景,并倾向于在高度特定的场景中强烈地激活。项目1、项目2、项目3中突出的激活区域与幼仔头部、翅膀、胸部等语义部分密切相关;汽车前保险杠、车轮和车灯;飞机座舱、尾翼稳定装置和发动机。这些部分是区分类别的关键。更重要的是,我们的模型与人类感知高度一致,在感知场景或物体时解决细节问题。从图3可以看出,反褶积层(relu5 1, relu5 2, relu5 3)提供了目标对象的粗略定位。在此基础上,投影层(project5 1、project5 2、project5 3)进一步确定物体的本质部分,通过连续的交互和不同部分特征的整合来区分其类别。过程符合人类感知的而且性质[20]受完形格言:整个前部分,它还提供了一个直观的解释为什么我们的框架模型的分类不明确的部分检测和地方差异。
本文提出了一种分层的双线性池化方法,将层间交互和鉴别特征学习相结合,实现了多层特征的细粒度融合。提出的网络不需要边界框/部件注释,可以端到端的训练。在鸟类、汽车和飞机上的大量实验证明了我们的框架的有效性。未来,我们将在两个方向展开拓展研究。,如何有效地融合更多的层特性来获得多尺度的零件表示,以及如何合并有效的零件本地化方法来学习更好的细粒度表示。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)