情感状态的时间序列建模为何需要引入注意力机制? 热门官方
回答:情感随时间呈非线性演化(如“平静→烦躁→爆发”),传统RNN/LSTM易因梯度消失遗忘早期关键线索(如对话开头的冲突事件)。注意力机制可动态加权历史时刻的情感驱动因素(如特定话语、语调突变),精准捕捉长时时序依赖,提升情绪轨迹预测的准确性,典型如Transformer-based情感时序模型(如Time-aware Transformer)在对话情绪追踪中F1值较LSTM提升15%-20%。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读