手机壳在线设计网站,wordpress 分享微信,重生做网站的小说,什么是销售型网站TwinCL: A Twin Graph Contrastive Learning Model for Collaborative Filtering 摘要
在推荐和协同过滤领域#xff0c;图对比学习#xff08;Graph Contrasive Learning#xff0c;GCL#xff09;已经成为一种有影响的方法。然而#xff0c;对比学习有效性的原因还没有…TwinCL: A Twin Graph Contrastive Learning Model for Collaborative Filtering 摘要
在推荐和协同过滤领域图对比学习Graph Contrasive LearningGCL已经成为一种有影响的方法。然而对比学习有效性的原因还没有得到很好的理解。本文对传统的随机扩充图结构或嵌入空间的方法提出了质疑因为这些方法可能会破坏图神经网络的结构和语义信息.此外固定速率的数据增强被证明与具有自适应速率的增强相比效率较低。在初始训练阶段较大的扰动更适合而随着训练接近收敛较温和的扰动产生较好的结果。我们引入了一个双编码器来代替随机增强证明了传统增强技术的冗余性。双编码器更新机制确保在早期阶段生成更多样的对比视图随着训练的进行过渡到具有更大相似性的视图。此外我们还从超球面上的对齐和均匀性的角度研究了学习表示以更有效地进行优化。我们提出的孪生图对比学习模型- TwinCL -在保持超球面上嵌入的一致性的同时对齐用户和项目嵌入的正对以及来自孪生编码器的表示。
引言
为了克服这些挑战我们在本文中提出了一个双图对比学习模型的建议称为TwinCL。关于第一个挑战在追求简化GCL的协同过滤我们放弃了传统的随机扩增应用到图结构或嵌入空间。受CL中动量更新机制[917]的启发我们采用了一种使用动量更新的孪生编码器与主图编码器进行对比学习的策略。双编码器从主编码器迭代地更新自身实现历史参数值与主编码器的当前梯度之间的平衡。这种基于孪生的模型具有在稀疏的用户-项目交互图中保留关键信息并以减少的计算操作有效地细化表示的优点。此外它提供了不同的对比视图在初始阶段过渡到更相似的视图在后期阶段由于其更新机制这被证明是有效的以加强对比学习。关于第二个挑战我们从[32]中推导出对齐和均匀性损失并直接优化推荐任务而无需负采样[44]。通过优化用户和项目嵌入内的对齐和均匀性属性训练过程获得更快的收敛同时表现出对过拟合的敏感性降低从而增强鲁棒性。此外对准和均匀性的设计与双编码器相结合协同有助于实现增强的性能。在最初的几个时期模型受益于对齐和均匀性的优化允许图形编码器更新到更合适的参数。通过从图形编码器获取更高质量的参数双编码器可以通过从主图形编码器提取知识来迭代地细化其自身的参数从而生成上级节点表示。 贡献: 我们提出了一种新的图对比学习范式TwinCL它使用动量更新的孪生编码器而没有对图和节点嵌入进行任何随机扩增。我们将对齐和一致性的优化与我们的双图对比学习模型相结合提高了性能效率和对流行偏见的鲁棒性 孪生图对比学习 TwinCL利用孪生编码器生成有效的对比视图而无需对图结构或节点表示进行扩充。此外TwinCL利用对齐和一致性的特性来测量表示的质量从而提高了双编码器的有效性。
现有的基于图的推荐方法通常依赖于随机扩增这可能引入噪声并干扰图的结构和语义信息特别是当图稀疏且用户-项目交互很少时。此外这些方法需要反复试验选择增强方法和参数。我们需要选择一种具有适当扰动幅度的增强方法例如辍学率[38]或噪声率[4248]。然而我们注意到增强的最佳丢弃率或噪声率根据训练时期和迭代而不同。在训练的初始阶段采用较高的丢弃率或扰动导致增强的对比学习结果。然而随着模型达到一定数量的时期为了减轻过拟合并促进进一步的改进降低丢失率变得合乎需要从而促进增强视图之间的更大相似性并实现上级结果。为了减轻固定丢弃率的不利影响另一种方法涉及使用可学习的神经生成器[16]来创建对比视图。然而这种方法在协同过滤场景中可能不是有效的因为训练额外的生成器可能是繁重的。我们的目标是确定一种计算效率高的方法并允许在训练的早期阶段进行较大的扰动在后期阶段过渡到较稳定的扰动。
此外GCL模型中对齐和一致性优化的未充分利用代表了改进推荐性能的未开发机会。大多数现有的GCL方法[234248]只是分析学习表示的对齐和一致性而没有利用这些属性。因此我们的研究致力于设计一种GCL模型该模型放弃了随机增强有利于直接优化对齐和均匀性寻求克服数据稀疏性并在训练的早期阶段受到显著扰动时增强鲁棒性。
预备知识
1. 对齐、均匀
在对比学习领域对齐和均匀性被认为是衡量表征质量的两个关键属性。给定一个正对的分布对齐被定义为对比学习中正对的归一化嵌入之间的期望距离。
换句话说均匀性是嵌入分布均匀程度的度量。
对齐和一致性度量非常适合对比学习的中心目标正实例的嵌入应该彼此靠近而随机实例的嵌入应该分散在超球面上。此外这两个指标同样与协同过滤密切相关[32]其中用户感兴趣的项目可以与用户形成正对。这里类似地正用户-项目对的归一化嵌入应该保持接近而所有用户和项目的归一化嵌入应该均匀分布在超球体上
孪生图对比学习
动机
现有的基于图的推荐方法通常依赖于随机增强这会引入噪声并干扰图的结构和语义信息特别是当图稀疏且用户-项目交互很少时。此外这些方法需要反复试验选择增强方法和参数。我们需要选择一种具有适当扰动幅度的增强方法例如丢弃率[38]或噪声率[4248]。然而我们注意到用于增强的最佳丢弃率或噪声率取决于训练时期和迭代而不同。在训练的初始阶段采用较高的丢弃率或扰动导致增强的对比学习结果。然而随着模型达到一定数量的时期为了减轻过拟合并促进进一步的改进降低丢失率变得合乎需要从而促进增强视图之间的更大相似性并实现上级结果。为了减轻固定丢弃率的不利影响另一种方法涉及使用可学习的神经生成器[16]来创建对比视图。然而这种方法在协同过滤场景中可能效率不高因为训练额外的生成器可能很繁重。 我们的目标是确定一种计算效率高的方法并允许在训练的早期阶段进行较大的扰动在后期阶段过渡到较温和的扰动。此外GCL模型中对齐和一致性优化的未充分利用代表了改进推荐性能的未开发机会。大多数现有的GCL方法[234248]只是分析学习表示的对齐和一致性而没有利用这些属性。因此我们的研究致力于设计一种GCL模型该模型放弃了随机增强有利于直接优化对齐和均匀性寻求克服数据稀疏性并在训练的早期阶段受到显著扰动时增强鲁棒性。
双编码器 双编码器更新机制
主编码器通过梯度来训练模型参数孪生网络不需要训练每次从主网络中来拷贝部分参数来优化孪生网络。 双编码器更新机制保证了双编码器之间的多样性并在训练的早期阶段生成对比视图。随着模型接近收敛双编码器之间的相似性显著增加。与固定速率扰动方法相比该功能增强了对比学习的性能同时还确保了对比视图的有效生成。 主编码其和其孪生网络通过图编码器生成用户、物品嵌入用于对比学习。对比学习
主编码器和孪生编码器之间的对比学习是为了最大化由双编码器和双编码器生成的正对的表示之间的相似性同时鼓励嵌入空间中的均匀性。
对齐和均匀性优化
本文深入研究了如何为我们的协同过滤模型调整对齐和一致性的优化的细节。在传统的推荐系统中贝叶斯个性化排序BPR[28]损失是优化项目排序的流行选择。但是它也有自己的一系列限制主要是由于它对负采样的敏感性以及捕获复杂的用户-项目交互的困难。负采样的性能可能会受到采样负样本的低质量和缓慢收敛的影响。为了克服这些限制我们的模型采用了两种主要的优化损失。对齐损失确保了图中相似用户和项目的嵌入在表示空间中更接近从而导致更准确的推荐。均匀性损失确保嵌入均匀地分布在表示空间上从而减少模型过度拟合特定项目或用户类别的机会并使模型更加稳健和可推广。 bpr损失当用户和项目的正对表示具有完美对齐且所有表示在超球面上均匀分布时BPR损失最小.因此对齐和均匀性损失可以替代BPR损失来优化推荐模型。通过直接优化对齐损失Lalign和均匀性损失Luniform该模型在保证正用户-项目对的均匀分布的同时内在地对齐了正用户-项目对的嵌入从而得到了比依赖于BPR损失的传统方法更丰富的表示。
TwinCL 算法