虽然模型本身不直接输出置信度分数,但可通过提示引导其表达不确定性。例如:“如不确定某数据,请标注‘推测’或‘存疑’。”或要求模型列出不同观点并指出共识程度。这种“可解释AI”实践有助于研究者评估生成内容的可靠性,决定是否需进一步人工核查,契合科学研究中的审慎原则。
设置置信度标识辅助判断生成内容可靠性 热门官方
用户讨论(回复)
共 0 条记录,当前显示第 1- 条
« 上一页
下一页 »
相关阅读