面向听障人士的情感计算“视觉-触觉融合”交互设计难点与突破? 热门官方
回答:难点包括:① 视觉情感线索的局限性(听障人士可能通过手语表达情感,但手语翻译模型对情感词汇的识别准确率仅65%);② 触觉反馈的细腻度不足(现有触觉设备仅能传递“强/弱”振动,难以表达“委屈”“窃喜”等复杂情感);③ 多模态信号同步延迟(视觉手语识别与触觉反馈的延迟需<300ms以避免交互割裂)。突破方法:① 手语情感增强识别:在手语识别模型中加入情感标签监督(如“悲伤手语”的手部颤抖特征),准确率提升至88%;② 高分辨率触觉编码:用阵列式触觉执行器(如64个独立振动单元)模拟情感强度与类型(如“委屈”对应“低频+间歇性振动”,“窃喜”对应“高频+短促振动”);③ 边缘端实时融合:在手语翻译设备(如智能眼镜)内置轻量化融合模型,实现“视觉识别→触觉反馈”的端到端延迟<200ms。某听障辅助机构应用后,用户情感交互满意度达92%,较单一视觉反馈提升50%。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读