情感计算中的算法公平性:如何定义与度量情感模型的偏见? 热门官方
回答:算法公平性指模型对不同群体(性别、种族、年龄、残障等)的情感处理无偏见,定义与度量方法:①群体 fairness(群体间公平性):不同群体的性能指标差异<阈值(如男女情感识别准确率差异<5%),度量指标:Statistical Parity(不同群体的正例预测率相等)、Equalized Odds(不同群体的TPR/FPR相等);②个体 fairness(个体间公平性):相似个体获得相似的情感处理结果(如两个“愤怒”的面部表情,无论性别如何,识别准确率应接近),度量指标:Counterfactual Fairness(反事实场景下,个体属性(如性别)不影响情感结果);③交叉群体 fairness(交叉群体间公平性):如“女性+少数族裔”群体与“男性+多数族裔”群体的性能差异,需单独度量以避免“平均公平掩盖局部偏见”。偏见来源主要包括训练数据偏见(如女性“愤怒”样本占比低于男性)、模型架构偏见(如特征提取层对肤色深的面部表情识别差)。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读