情感计算中的数据偏见来源与去偏技术:以性别偏见的去偏为例? 热门官方
回答:情感计算中的数据偏见主要来源:①采集偏见(如实验室招募更多年轻女性,导致数据集中女性样本占比80%);②标注偏见(标注者对女性“愤怒”的容忍度低,标注为“悲伤”的概率更高);③算法偏见(模型学习到数据中的虚假关联,如“女性→情绪化→易标注为悲伤”)。以性别偏见去偏为例:①数据层去偏:重采样(对男性“愤怒”样本过采样,女性样本欠采样,使男女比例1:1)、数据增强(用GAN生成男性“悲伤”样本,平衡性别-情感分布);②算法层去偏:对抗去偏(在模型中加入性别分类器,通过对抗损失迫使情感识别器忽略性别信息,性别分类准确率从90%降至50%)、公平性约束(在损失函数中加入公平性正则项,如不同性别的情感识别准确率差异<5%);③后处理去偏:对模型输出结果按性别校准(如女性“愤怒”的预测概率乘以校正因子1.2,男性乘以0.8),使校准后不同性别的准确率差异<3%。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读