面向虚拟数字人(Digital Human)的情感交互:实时驱动与拟人化表达优化? 热门官方
回答:虚拟数字人需在实时交互中自然呈现情感,核心技术包括:①实时情感驱动:将识别出的用户情感向量(Valence-Arousal-Dominance)映射为数字人的面部BlendShape权重、语音韵律参数(基频、速度)与肢体动作指令,延迟控制在100ms内以保证同步感;②拟人化表达优化:基于人类情感表达数据库(如不同文化中“喜悦”的面部肌肉协同模式)训练风格迁移模型,使数字人表情既符合情感类别又具个性(如温和型/活泼型喜悦);③多模态一致性约束:在生成语音情感时同步驱动面部与肢体,避免“语音喜悦但表情呆板”的不协调;④用户偏好适配:学习用户对数字人情感表达风格的反馈(如更喜欢含蓄微笑而非大笑),在生成时进行个性化微调。实测中,优化后的数字人在VR客服场景用户满意度达91%,情感表达自然度评分9.2/10。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读