在这里插入描述
概率密度
从数学上看,分布函数F(x)=P(X<x),表示随机变量X的值小百于x的概率。这个意义很容易理解。
概率密度f(x)是F(x)在x处的关于x的一阶导数,即变化率。如果在某一x附近取非常小的一个邻域Δx,那么,随机度变量X落在(x, x+Δx)内的概率约为f(x)Δx,即P(x<X<x+Δx)≈f(x)Δx。
换句话说,概率密度f(x)是X落在x处“单位宽度”内的概率。“密度”一词可以由此理解。
For me:
概率密度也可以理解为概率密度函数道是概率分布函数的一阶导函数,斜率
已知连续型随机变量的密度函数,可以通过讨论及定积分的计算求出其分布函数;当已知连续型随机变量的分布函数时,对其求导就可得到密度函数。
对离散型随机变量而言,如果知道权其概率分布(分布列),也可求出其分布函数;当然,当知道其分布函数时也可求出概率分布。
核密度估计
核密度估计的原理其实是很简单的。在我们对某一事物的概率分布的情况下。如果某一个数在观察中出现了,我们可以认为这个数的概率密度很比大,和这个数比较近的数的概率密度也会比较大,而那些离这个数远的数的概率密度会比较小。基于这种想法,针对观察中的第一个数,我们都可以f(x-xi)去拟合我们想象中的那个远小近大概率密度。当然其实也可以用其他对称的函数。针对每一个观察中出现的数拟合出多个概率密度分布函数之后,取平均。如果某些数是比较重要,某些数反之,则可以取加权平均。
总结
由原理可见,分析核密度函数时主要是要观察其面积,而不是取值,因为对应的取值是一个概率密度,只有与变量相乘才能得到该变量的概率取值。
这个有具体的分析工具,准备好数据后就可以用该工具进行分析制图了。
具体的工具名称为:核密度分析
效果图如下:
具体过程有问题可私信我教你!
摘要 :对比学习(CL)最近在推荐领域中获得了广泛的研究成果,因为它从原始数据中提取自我监督信号的能力与推荐系统解决数据稀疏性问题的需求非常一致。基于cl的推荐模型的一个典型框架是首先使用结构扰动(例如,随机边/节点dropout)来增强用户-项二部图,然后最大限度地提高不同图增强之间的节点表示一致性。作者通过实验发现被认为是必要的 *** 作——增强图,其实只发挥了微不足道的作用。基于此,作者提出了一种简单的CL方法,该方法丢弃图增强,仅通过在嵌入空间中添加均匀噪声来自由调整学习表示的均匀性,从而创建对比视图。虽然它看起来非常简单,但对三个基准数据集的综合实验研究表明,该方法在推荐精度和模型训练效率方面比基于图增强的方法具有明显的优势。
1 介绍
11 图对比学习概述
去年以来,关于图对比学习(CL)应用于推荐中的研究越来越多。由于CL不需要数据标签,可以很好地缓解推荐系统中的数据稀疏问题。将CL应用于推荐的一种典型方法是,首先使用结构扰动(如随机边/节点的丢弃)来增强用户-项二部图,然后最大化通过图编码器学习的不同视图下表示的一致性。在此设置中,CL任务作为辅助任务,并与推荐任务进行联合优化(如图1)。
12 动机
尽管CL取得了令人鼓舞的成果,但成功的根本原因仍不清楚。直观地说,我们假设对比不同的图增强可以通过随机去除边缘/节点丢弃的冗余来捕获原始用户-项目交互中存在的信息,然而的一些最新工作报告中提到,即使是在CL中非常稀疏的图增强(边缘丢弃率为09)也可以带来满足期望的性能提高。这种现象是相当违反直觉的,因为一个大的丢弃率将导致原始信息的巨大损失和高度偏差的图结构。这很自然地就提出了一个有意义的问题:当将CL与推荐集成时,我们真的需要图增强吗?
为了回答这个问题,作者首先分别进行了有和没有图增强的对比实验,以进行性能比较。结果表明,当没有图增强时,其性能与具有图增强的相当。然后,作者研究了通过非cl和基于cl的推荐方法学习到的嵌入空间。通过可视化表示形式的分布,并将它们与它们的表现联系起来,作者发现 对推荐性能真正重要的是CL的损失,而不是图的增强。优化对比损失InfoNCE可以学习更统一的用户/项目表示,这在减轻流行偏差方面发挥了隐形的作用。
需要说明的是,尽管不像预期的那么有效,图的增强并不是完全无用的,因为原始图的适当扰动有助于学习抗干扰的表示。然而,生成手工制作的图增强需要在训练过程中不断地重建图的邻接矩阵,这是相当耗时的。此外,删除一个临界边/节点可能会将一个连接图分割成几个断开的组件,这可能会使增广图和原始图共享很少的可学习不变性。鉴于这些缺陷,作者希望能够研究出更直观有效的方法。
13 贡献
在本文中,作者在发现表示分布的均匀性是关键的基础上,开发了一种简单的无图增强的CL方法,其放弃了基于丢弃的图增强,而是在原始表示中添加随机均匀噪声,以进行表示级的数据增强。与图增强算法相比,该方法可以直接地在嵌入空间中工作,易于实现,而且效率更高。
2 推荐中的图对比学习研究
21 用于推荐的图对比学习
在本节中,作者对一种最先进的基于CL的推荐模型SGL进行了研究,该模型执行节点和边缘的dropout增强原始图,并采用InfoNCE来实现CL。在SGL中的联合学习方案被正式定义为:
(1)
其中包括两个损失:推荐损失 和CL损失 。SGL中的信息的计算公式为:
其中
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)