几乎所有人类工作都具有协作性,因此现实世界NLP应用的评估通常需要与多样化人类视角对齐的多维度标准。由于真实人类评估资源稀缺且成本高昂,新兴的"LLM-as-a-judge"范式为利用LLM智能体模拟人类评估者提供了可行方案。然而现有方法存在两个局限:智能体角色描述往往随意设计,且框架难以泛化至其他任务。为此,我们提出MAJ-EVAL多智能体评估框架,能够自动从相关文档(如研究论文)构建具有不同维度的评估者角色,实例化LLM智能体,并通过群体辩论生成多维反馈。在教育与医疗领域的评估实验表明,相比传统自动化评估指标和现有LLM-as-a-judge方法,MAJ-EVAL生成的评估结果与人类专家评分具有更高一致性。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。