四川建设厅证件查询网站,郴州市网站建设,python做网站 不适合,短链接生成源码文章目录机器学习公平性评估指标群体公平性指标个人公平性指标引起机器学习模型不公平的潜在因素提升机器学习模型公平性的措施机器学习公平性
定义#xff1a; 机器学习公平性主要研究如何通过解决或缓解“不公平”来增加模型的公平性#xff0c;以及如何确保模型的输出结果…
文章目录机器学习公平性评估指标群体公平性指标个人公平性指标引起机器学习模型不公平的潜在因素提升机器学习模型公平性的措施机器学习公平性
定义 机器学习公平性主要研究如何通过解决或缓解“不公平”来增加模型的公平性以及如何确保模型的输出结果能够让不同的群体、个人都有平等的机会获得利益。然而受文化和环境的影响人们对公平性的理解存在一定的主观性。到目前为止公平性尚未有统一的定义及度量指标。
公平性主要分为群体公平性和个体公平性两类群体公平性指标侧重于衡量决策模型结果对不同群体的偏见程度个体公平性指标主要侧重于衡量决策对不同个体的偏见程度。
评估指标 假设S为敏感信息的特征如种族、性别、年龄、民族等“S1”表示该群体在社会中为“强势群体”较少受到歧视“S≠1”表示该群体在某些方面为“弱势群体”存在潜在的受到歧视的风险如少数族裔、老年人、女性等。Y为模型的真实标签Ŷ为模型预测的结果Ŷ1表示模型预测结果为正面有利于该样本个体的标签P表示某条件下的概率。
群体公平性指标
群体公平性指标本质上是比较算法在两类或多类群体上的分类结果。
不平等影响Disparate Impact,DI模型对于两个不同的群体预测为正类的概率比值 群体均等Demographic parity,DP将两个不同群体预测为正类的预测概率差值 补偿几率Equalized odds群体之间假阳性概率false-positive rates之差和群体之间真阳性概率true-positive rates之差差值越小则认为模型越公平 机会均等Equal Opportunity不同群体的真阳性概率之差指标越小代表越公平 个人公平性指标
个体公平性是衡量决策对不同个体的偏见程度。
个体公平性指标个体公平性指标是指对于两个个体如果非敏感信息特征相似则模型应给出相似的预测结果。 反事实公平性指标如果一个决策与敏感属性不同的反事实世界中采取的决策一致那么这个决策对于个体而言是公平的是一种基于因果推断的公平性定义。
引起机器学习模型不公平的潜在因素
按照机器学习的生命周期可把引起模型不公平的因素归为四类数据偏差、算法偏差、评估偏差和部署偏差 数据偏差主要包括收集数据过程中的测量偏差Measuring Bias、蕴含社会文化和习俗的城建信息渗透到数据中产生的历史偏差(Historical Bias)以及训练数据没有充分代表所有预测样本空间带来的表示偏差Representation Bias。
算法偏差主要指算法的优化目标带来的不公平风险以及与敏感特征相关的“代理”特征带来的不公平风险。算法总是会以减少训练过程中模型的输出和真实标签的总体差异为优化目标当数据类别不平衡时模型对多数群体的准确率更高。敏感属性的代理特征是指看似非敏感特征但实际上与敏感特征相关联因此算法在学习的过程中利用了敏感特征的信息。
评估偏差包括由于算法评测的基准数据不能完全代表目标群体产生的偏见以及由于评估指标的不当导致选取看似公平而实际并不公平的模型所产生的偏差。
部署偏差是指部署应用的场景与训练阶段场景不匹配产生的偏差。
提升机器学习模型公平性的措施
增加模型公平性的措施分为三类预处理数据处理中间处理模型训练和后处理 预处理
删除特征即删除可能会引起歧视的敏感信息以及敏感信息相关的特征更改数据集的标签可以先使用原始的数据训练带有不公平性的分类器使用这个分类器对数据进行分类在每个群体中根据预测分类的置信度排序更改置信度过低样本的标签更改权重在训练的过程中特征和标签会被赋予权重可以通过调整特征的权重来减少模型的不公平性公平表征在一些深度学习任务中会先使用模型提取数据的表征然后将数据的表征输入分类模型训练分类器。
中间处理
目标函数加入惩罚项。在机器学习中正则项是用来惩罚模型的复杂度降低模型过拟合的风险。有研究认为参照正则项加入惩罚项用于保证分类模型的公平性一种做法是将假阳率和假阴率的信息参照正则项的方式加入损失函数中用来惩罚模型的不公平性。分类模型加入约束通过在模型优化过程中增加约束的方式平衡公平性和准确性。基于特权信息的学习。在训练阶段模型使用敏感信息作为特权信息特征加速模型的收敛来提升模型效果而在预测阶段则不使用敏感信息。
后处理
使用不同的阈值修正预测结果。对不同的群体使用不同的分类器。
以上三种策略各有优缺点。预处理的方法较为简单可以在大多数分类问题中使用缺点是会降低模型的可解释性。建模中的处理方式较为灵活可以根据特定的情况调整缺点则是较为复杂并且不同的算法之间难以复用。后处理的方式和预处理一样也可以适用于大多数分类问题但是这种方法可能会影响模型效果而且在人为改动模型输出结果的情况下也有一定的伦理风险。