基于大语言模型(LLM)的情感指令微调(Instruction Tuning)需注意哪些陷阱? 热门官方
回答:① 指令歧义:如“生成温暖的话”可能被理解为“安慰”或“鼓励”,需通过情感指令模板(如“生成一段安慰失业者的温暖文字,包含共情与行动建议”)消除歧义;② 情感过强:LLM易生成夸张情感(如“我完全理解您的痛苦到彻夜难眠”),需加入情感强度约束(如“强度控制在0.7/1.0”);③ 偏见放大:LLM可能强化训练数据中的文化偏见(如将“亚洲女性的沉默”标为“顺从”),需通过去偏指令(如“避免刻板印象,描述多元情感表达”)修正。
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读