情感计算中的“情感公平性审计”如何覆盖“隐性偏见”? 热门官方
回答:隐性偏见指模型对群体的间接歧视(如“女性用户更易被识别为‘情绪化’,即使表达内容中性”)。审计方法:① 反事实公平性测试(生成“男性表达相同内容”与“女性表达相同内容”的样本,比较情感识别结果的差异,若女性被识别为“情绪化”的概率高20%则存在隐性偏见);② 中介效应分析(用因果模型分析“性别→语言风格→情感识别结果”的中介路径,若语言风格的中介效应占比>50%,则需修正模型对语言风格的过度依赖);③ 对抗性审计(训练对抗网络生成“去性别化”的文本,测试模型是否仍存在偏见)。某社交平台的情感审计使隐性性别偏见误差从18%降至3%,且覆盖了传统审计未发现的“语言风格偏见”。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读