基于大语言模型(LLM)的“情感反事实推理”如何实现细粒度解释? 热门官方
回答:情感反事实推理回答“若改变某情感线索,用户情绪会如何变化”,需细粒度定位关键线索。实现方法:① 线索级情感归因:用LLM的注意力机制或SHAP值定位影响情感的核心线索(如“用户愤怒的主因是‘客服说“这是规定”’而非‘等待时间长’”);② 反事实生成:基于归因结果生成反事实场景(如“若客服说‘我帮您申请特殊处理’”),预测情感变化(愤怒值从0.8降至0.3);③ 可解释性输出:用自然语言解释“因移除‘推卸责任的表述’,用户的‘被重视感’提升,故愤怒降低”。实验显示,该方法使反事实推理的解释粒度从“整体事件”细化至“具体语句”,用户理解度提升60%。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读