当前位置: 首页 > news >正文

网站备案人有什么责任intitle 做网站

网站备案人有什么责任,intitle 做网站,什么是 网站的逻辑结构,网站怎么做接口一、Center Loss 1. 定义 Center Loss 旨在最小化类内特征的离散程度#xff0c;通过约束样本特征与其类别中心之间的距离#xff0c;提高类内特征的聚合性。 2. 公式 对于样本 xi​ 和其类别yi​#xff0c;Center Loss 的公式为#xff1a; xi​: 当前样本的特征向量通过约束样本特征与其类别中心之间的距离提高类内特征的聚合性。 2. 公式 对于样本 xi​ 和其类别yi​Center Loss 的公式为 xi​: 当前样本的特征向量通常来自网络的最后一层。Cyi: 类别 yi​ 的特征中心。m: 样本数量。 3. 作用 减小类内样本的特征分布范围。提高分类模型对相似类别样本的区分能力。 4. 实现 import torch import torch.nn as nnclass CenterLoss(nn.Module):def __init__(self, num_classes, feat_dim, weight1.0)::param num_classes: 类别数量:param feat_dim: 特征向量维度:param weight: 损失的权重super(CenterLoss, self).__init__()self.weight weightself.centers nn.Parameter(torch.randn(num_classes, feat_dim)) # 初始化类别中心def forward(self, features, labels)::param features: 网络输出的特征向量 (batch_size, feat_dim):param labels: 样本对应的类别标签 (batch_size,)centers self.centers[labels] # 获取对应标签的中心loss torch.sum((features - centers) ** 2, dim1).mean() # 欧几里得距离平方和return self.weight * loss5. 结合 Cross-Entropy Loss 将 Center Loss 与交叉熵损失结合联合优化网络 center_loss CenterLoss(num_classes10, feat_dim512) cross_entropy_loss nn.CrossEntropyLoss()# 训练时 features, logits model(input_data) loss_ce cross_entropy_loss(logits, labels) loss_center center_loss(features, labels)total_loss loss_ce 0.1 * loss_center # 合并损失二、ArcFace Loss 1. 定义 ArcFace Loss 是基于角度的损失函数用于增强特征的判别性。通过在角度空间引入额外的边际约束强迫同类样本之间更加接近而不同类样本之间更加远离。 2. 公式 ArcFace Loss 的公式为 θ: 特征和分类权重之间的角度。m: 边际margin。 最终损失使用交叉熵计算 s: 缩放因子用于平衡模型的学习难度。 3. 作用 强化特征的角度判别能力使得分类更加鲁棒。在人脸识别任务中显著提高模型的性能。 4. 实现 import torch import torch.nn as nn import torch.nn.functional as F import mathclass ArcFaceLoss(nn.Module):def __init__(self, in_features, out_features, s30.0, m0.50)::param in_features: 特征向量维度:param out_features: 类别数量:param s: 缩放因子:param m: 边际约束super(ArcFaceLoss, self).__init__()self.s sself.m mself.weight nn.Parameter(torch.randn(out_features, in_features)) # 分类权重def forward(self, embeddings, labels):# Normalize embeddings and weightembeddings F.normalize(embeddings, p2, dim1)weight F.normalize(self.weight, p2, dim1)# Cosine similaritycosine F.linear(embeddings, weight)# Add marginphi cosine - self.mone_hot torch.zeros_like(cosine)one_hot.scatter_(1, labels.view(-1, 1), 1)cosine_with_margin one_hot * phi (1 - one_hot) * cosine# Scalelogits self.s * cosine_with_marginloss F.cross_entropy(logits, labels)return loss解释 ArcFaceLoss在最后一层网络输入是上一层的输出特征值x初始化当前层的w权重。 cos(角度)w×x/|w|×|x|,由于ArcLoss会对w和x进行归一化到和为1的概率值。所以|w|×|x|1。则推导出cos(角度)w×x那么真实标签位置给角度m则让角度变大了cos值变小。w×x变小输出的预测为真实标签的概率变低。让模型更难训练那么在一遍又一遍的模型读取图片提取特征的过程中会让模型逐渐的将真实标签位置的w×x值变大cos(角度m)变大那么角度就会变的更小。只有角度更小的时候cos余弦相似度才会大从而让模型认为这个类别是真实的类别。 所以arcloss主要加入了一个m增大角度让模型更难训练让模型把角度变的更小从而让w的值调整的更加让类间距增大。 简而言之加入m的值让真实类和其他类相似度更高让模型更难训练。迫使模型为了让真实和其他类相似度更低而让w权重的值更合理。 三、对比分析 四、如何选择 如果任务需要提升类内特征的聚合性如样本分布紧密性优先考虑 Center Loss。如果任务需要增强类间特征的判别能力如人脸识别优先选择 ArcFace Loss。可以同时使用两者将特征聚合和判别性结合提高模型的鲁棒性。 五、推荐学习资源 ArcFace: Additive Angular Margin Loss for Deep Face Recognition (论文)Center Loss: A Discriminative Feature Learning Approach for Deep Face Recognition (论文)PyTorch 官方文档
http://www.hkea.cn/news/14457379/

相关文章:

  • 什么网站可以做设计兼职杭州企业建站程序
  • 浙江网站建设和制作网络营销主要做些什么
  • 一家专门做爆品印刷的网站建网站与发布网站
  • 网站双机热备怎么做电商网站销售数据分析
  • 嘉兴新站seo外包汽车公司网站建设
  • 安徽网站建设首选-晨飞网络提供邯郸做移动网站
  • 网站建设技术人员要会什么wordpress 新闻模版
  • 买服饰网站建设美食网页设计模板素材
  • 低价郑州网站建设廊坊专业网站制作服务
  • 网站纯色背景图怎么做德州金航网络公司网站建设
  • 网站建设技术方面的体会公司网页图片
  • 江苏省华建建设股份有限公司网站公司网站非响应式模板
  • 建筑设计专业的网站东莞推广外包
  • 厦门企业网站建设补贴固定ip做网站怎么备案
  • php中网站不同模板后台逻辑代码怎么管理自己建设的网站如何优化
  • 档案信息网站建设情况只做黑白摄影的网站
  • 能免费做网站平面设计师网上接单
  • 永康做企业网站的公司建设注册中心网站首页
  • 网站改备案信息吗免费企业网站报价
  • 甘肃网站开发打开网站的语音播报怎么做
  • 如何优化网站tkd网站开发 如何定位
  • 宝塔做网站安全吗设计上海2021门票
  • 公司自己做网站备案wordpress链接出错
  • 长沙门户网站做网站使用什么语言写
  • 同一ip大量访问网站一二三四高清视频免费观看
  • 中国传统色彩网站建设方案wordpress没有幻灯片
  • 万网注册的网站长时间不能访问是不是被封了公司网站怎么设计制作
  • 聊城做企业网站深圳企业网站制作公司哪家好
  • 专门做网站开发的公司jn建站系统
  • 建设手机网站平台网站的ftp帐号