基于Transformer的情感模型为何需要“情感位置编码”? 热门官方
回答:传统Transformer的位置编码仅编码token的顺序,未编码情感在时间线中的位置权重(如对话结尾的道歉比开头的道歉更能缓解愤怒)。情感位置编码通过情感显著性权重(如根据话语的情感强度分配位置权重)或情感因果位置编码(如前文冲突事件是后文愤怒的原因,赋予其更高位置权重),让模型更关注情感驱动的关键位置。如在情感对话生成中,加入情感位置编码的模型生成的回应更贴合语境,用户满意度提升22%。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读