capfloors

capfloors,第1张

利率选择权(Interest Rate Option)是以利率为标的物的选择权,选择权的买方付出权利金来获取权利,并在未来特定的时间内,有权利但无义务向利率选择权的卖方取得一个事先约定的利率。而最常见的利率选择权可分为下列三种形式,“利率上限”(Cap)、“利率下限”(Floor)、“利率上下限”(Collar),兹说明如下:

(一)利率上限(Cap)

即为利率买权。一个利率上限实际上是由一连串执行价格相同,但不同到期天数的标准单一利率上限契约(Caplet)所组成。一个Caplet是买卖双方签订的欧式选择权契约,在契约开始之初,选择权买方必须支付给卖方一笔权利金,在利率重设日时,若指标利率大于契约中的上限利率,则卖方必须将两者间的差额乘上名目本金与应计天期后支付给买方;若指标利率低于契约中的上限利率,则买方便放弃选择权的权利。对以浮动利率筹资的企业而言,买入Cap可将长期负债的利息成本锁定在一定的水准之下,有效规避企业利率风险。

(二)利率下限(Floor)

即为利率卖权。与利率上限相似,只是一个利率下限的组成单位改为利率下限契约(Floorlet)。而在随后的每个利率重设日时,若指标利率小于契约中的下限利率,则卖方必须将两者间的差额乘上名目本金与应计天期后支付给买方。企业买入Floor可将长期投资资产利息收入锁定在一定水准之上,确保投资收益。

(三)利率上下限(Collar)

买进Collar是同时购买一个Cap及卖出一个Floor的组合。买入Collar的好处为可将利率固定在一定的范围内,以达到避险的目的。

论文: Context-aware Attentional Pooling (CAP) for Fine-grained Visual Classification

  论文认为大多数优秀的细粒度图像识别方法通过发掘目标的局部特征来辅助识别,却没有对局部信息进行标注,而是采取弱监督或无监督的方式来定位局部特征位置。而且大部分的方法采用预训练的检测器,无法很好地捕捉目标与局部特征的关系。为了能够更好地描述内容,需要更细致地考虑从像素到目标到场景的信息,不仅要定位局部特征/目标的位置,还要从多个维度描述其丰富且互补的特征,从而得出完整/目标的内容。

  论文从卷积网络的角度考虑如何描述目标,提出了context-aware attentional pooling(CAP)模块,能够高效地编码局部特征的位置信息和外观信息。该模块将卷积网络输出的特征作为输入,学习调整特征中不同区域的重要性,从而得出局部区域的丰富的外观特征及其空间特征,进而进行准确的分类。

  论文的主要贡献如下:

  论文算法的整体流程如上图所示,输入,输出具体从属类别,包含3个组件(3组参数):

[上传失败(image-bc43b-1644805770766)]

  定义卷积网络输出的特征为 ,CAP的模块综合考虑像素级特征、小区域特征、大区域特征以及级特征的上下文信息进行分类。

[上传失败(image-818dc8-1644805770766)]

  像素级特征的上下文信息主要学习像素间的关联度 ,在计算 位置的输出时根据关联度综合所有其他像素特征,直接使用self-attention实现,特征转化使用 卷积。这一步直接对主干网络输出的特征进行 *** 作,但没在整体流程图中体现。

  为了更高效地学习上下文信息,论文在特征图 上定义不同粒度级别的基本区域,粒度级别由区域的大小决定。假设 位置上的最小的区域为 为例,可通过放大宽高衍生出一系列区域 , , 。在不同的位置产生相似的区域合集 ,得到最终的区域合集 。 覆盖了所有的位置的不同宽高比区域,可以提供全面的上下文信息,帮助在的不同层级提供细微特征。

  按照上一步,在特征图上得到 个区域,大小从最小的 到最大的 ,论文的目标是将不同大小的区域表示为固定大小的特征,主要采用了双线性插值。定义 为坐标转换函数, 为区域坐标,对应的特征值为 ,则转换后的 的 坐标上的值为:

  为采样函数, 为核函数,这里采用的是最原始的方法,将目标坐标映射回原图,取最近的四个点,按距离进行输出,最终得到池化后的固定特征 。

  这里,论文使用全新的注意力机制来获取上下文信息,根据 与其他特征 的相似性进行加权输出,使得模型能够选择性地关注更相关的区域,从而产生更全面的上下文信息。以查询项 和一组关键词项 ,输出上下文向量 :

  参数矩阵 和 用来将输入特征转换为查询项核关键项, 为非线性组合, 和 为偏置项,整体的可学习参数为 ,而注意力项 则代表两个特征之间的相似性。这样,上下文向量 能够代表区域 蕴含的上下文信息,这些信息是根据其与其他区域的相关程度获得的,整体的计算思想跟self-attention基本相似。

  上下文向量 描述了区域的关键程度和特点,为了进一步加入空间排列相关的结构信息,论文将区域的上下文向量 转为区域序列(论文按上到下、左到右的顺序),输入到循环神经网络中,使用循环神经网络的隐藏单元 来表达结构特征。

  区域 的中间特征可表示为 , 采用LSTM, 包含LSTM的相关参数。为了增加泛化能力和减少计算量,上下文特征 由 进行全局平均池化得到,最终输出上下文特征序列 对应的隐藏状态序列 ,后续用于分类模块中。

[上传失败(image-aab286-1644805770766)]

  为了进一步引导模型分辨细微的变化,论文提出可学习的池化 *** 作,能够通过组合响应相似的隐藏层 来整合特征信息。论文借鉴NetVLAD的思想,用可导的聚类方法来对隐藏层的响应值进行转换,首先计算隐藏层响应对类簇 的相关性,再加权到类簇 的VLAD encoding中:

[上传失败(image-2d95b2-1644805770766)]

  每个类簇都有其可学习的参数 和 ,整体思想基于softmax,将隐藏层的响应值按softmax的权重分配到不同的类簇中。在得到所有类簇的encoding向量后,使用可学习的权值 和softmax进行归一化。因此,分类模块 的可学习参数为 。

[上传失败(image-d9e014-1644805770766)]

  在不同的数据集上,对不同方法进行对比。

  不同主干网络下的准确率对比。

  不同模块输出特征的可视化,图b是加入CAP后,主干网络输出的特征。

  论文提出细粒度分类解决方案CAP,通过上下文感知的注意力机制来帮助模型发现目标的细微特征变化。除了像素级别的注意力机制,还有区域级别的注意力机制以及局部特征编码方法,与以往的视觉方案很不同,值得一看。

CAP文件格式是数据包探测程序包含收集的数据包文件格式;保持原始数据捕捉数据的传输;也称为跟踪文件或骨文件和多个数据包嗅探器应用程序使用。

可以用Network Monitor 来打开。

Microsoft软件简介

Microsoft Network Monitor 是类似 WireShark 的网路封包监看软体, 微软的免费工具

您好,很高兴为您解答!

wps加密的,是无线路由跟移动设置同时按下wps功能,自动配对,自动产生密码,我看过,好几十位字母组成的密码。破解起来,比较难。

掏出手机,打开微信扫一扫我的头像,

更多WPS办公软件教程,请访问>

以上就是关于cap/floors全部的内容,包括:cap/floors、CAP:多重注意力机制,有趣的细粒度分类方案 | AAAI 2021、后缀名为cap的文件怎么打开用什么打开等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/web/9331554.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-27
下一篇 2023-04-27

发表评论

登录后才能评论

评论列表(0条)

保存