首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 模型备案材料:评估测试题集真实案例详解

    《生成式人工智能服务管理暂行办法》明确要求,模型上线前需通过安全评估,而评估测试题集正是涵盖了方方面面的内容测试模型的安全性及合规性。 今天我将通过展示帮助客户实际测试模型的部分案例来详细解析一下评估测试题集的一个核心内容。一、测试题集设计:怎么给模型出“考卷”? 评估测试题集的内容并非简单的问答列表,根据TC260的标准要求,评估测试题集需要全面覆盖高风险场景,TC260中列出了五指标内容,其中包含了31条具体细则要求。 包括诱导题,模型是否能准确识别?给出积极的回答。在生成内容测试题库中,模型的合格率不应低于90%。案例二:模型拒答率测试TC260中明确要求需设立拒答测试题库,考察模型的一个拒答率。 有需要咨询模型备案、算法备案或对评估测试题集感兴趣的小伙伴们,欢迎后台交流~

    93010编辑于 2025-04-03
  • 模型备案材料—测试题库内容及评估要求详解

    因此,在筹备测试题库时,必须秉持因地制宜的原则,紧密结合当地网信办的具体规定来灵活应对。一、模型备案流程概览与地区差异模型的备案流程,通常遵循着从地方到中央的层级递进原则。 二、基础测试题库的构建与评估要求(一)生成内容测试题库生成内容测试题库作为评估模型文本生成能力安全性的核心工具,其构建需遵循全面性与代表性的双重原则。 (二)拒答测试题库拒答测试题库则聚焦于评估模型在面对应拒答问题时的识别与处理能力。 (三)非拒答测试题库与拒答测试题库相对应的是非拒答测试题库,其旨在评估模型在面对不应拒答问题时的正常生成能力。该题库需围绕模型不应拒答的问题进行构建,总规模同样不少于500题。 (二)拒答测试题库安全评估在拒答测试题库的安全评估中,我们同样采用随机抽样的方法,从题库中抽取不少于300条测试题,对模型的拒答率进行评估

    42600编辑于 2025-07-31
  • 模型安全评估”需要评估哪些?

    随着大型语言模型(LLM)如ChatGPT、文心一言等在众多领域展现出前所未有的能力,其安全、可靠、负责任地部署与应用已成为全社会关注的焦点。模型并非完美无缺,其内在风险可能带来严重的现实世界危害。 #模型备案##安全评估##生成式人工智能#一、语料安全评估二、生成内容评估暴力、仇恨与非法内容: 评估模型是否会生成宣扬暴力、恐怖主义、种族歧视、性别歧视、仇恨言论等的内容。 评估需检验模型在知识密集型任务(如问答、摘要)中的事实准确性,及其对不确定信息的处理能力。逻辑一致性与连贯性: 评估模型在长文本生成或多轮对话中,是否能在逻辑上保持前后一致,避免自相矛盾或答非所问。 六、模型性能(拒答率)评估模型的安全评估是一个动态、持续且多学科交叉的复杂工程,它需要技术专家、伦理学家、法律学者、社会科学家和领域专家的共同参与。 建立“设计-开发-部署-监控”全生命周期的安全治理体系,通过迭代式的评估和反馈,才能不断降低风险,最终推动模型安全、可靠、负责任地造福人类社会。

    59010编辑于 2025-08-26
  • 来自专栏机器之心

    NumPy能力评估:这里有70道测试题

    选自Machine Learning Plus 作者:Selva Prabhakaran 机器之心编译 参与:路雪、刘晓坤 本 NumPy 测试题旨在为大家提供参考,让大家可以使用 NumPy 的更多功能 机器之心对该测试题进行了编译介绍,希望能对大家有所帮助。每个问题之后附有代码答案,参见原文。 难度:L4 问题:在 1 维数组 a 中找到所有的 peak,peak 指一个数字比两侧的数字都

    8.2K60发布于 2018-05-09
  • 来自专栏机器学习算法与Python学习

    NumPy能力评估:这里有70道测试题

    选自Machine Learning Plus 作者:Selva Prabhakaran 机器之心编译 参与:路雪、刘晓坤 本 NumPy 测试题旨在为大家提供参考,让大家可以使用 NumPy 的更多功能 机器之心对该测试题进行了编译介绍,希望能对大家有所帮助。每个问题之后附有代码答案,参见原文。 难度:L4 问题:在 1 维数组 a 中找到所有的 peak,peak 指一个数字比两侧的数字都

    7.2K10发布于 2019-11-07
  • 来自专栏人工智能极简应用

    【AI模型】Transformers模型库(十二):Evaluate模型评估

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Evaluate模型评估。 二、Evaluate模型评估 2.1 概述 Transformers库中的evaluate API主要用于评估模型在特定数据集上的性能。 下面是一个使用Python和Transformers库进行模型评估的基本步骤,假设你已经有了一个预训练模型和相应的数据集处理器。 评估结果将包含各种指标,如准确率,具体指标还要取决于你的模型

    1K10编辑于 2024-08-13
  • 来自专栏NLP/KG

    LLM 模型学习必知必会系列(十一):模型自动评估理论和实战以及模型评估框架详解

    LLM 模型学习必知必会系列(十一):模型自动评估理论和实战以及模型评估框架详解 0.前言 语言模型(LLM)评测是LLM开发和应用中的关键环节。 裁判员模型的存在明显的能力边界,很难胜任更多场景、更强模型的评测工作 泛化性问题 LLM幻觉的诊断问题 3.LLM评估实战 LLMuses框架–轻量化、端到端的模型自动评估框架 GitHub type=free 模型性能评测(Perf Eval) 性能评测报告示例 4.模型评估框架-llmuses 链接:https://github.com/modelscope/eval-scope 大型语言模型评估(LLMs evaluation)已成为评价和改进模型的重要流程和手段,为了更好地支持模型的评测,我们提出了llmuses框架,该框架主要包括以下几个部分: 预置了多个常用的测试基准数据集 支持本地模型可部署在本地 评估报告可视化展现 丰富的评估指标 model-based自动评估流程,支持多种评估模式 Single mode: 专家模型对单个模型打分 Pairwise-baseline

    4.5K13编辑于 2024-05-26
  • 模型备案测试题库+拦截词库解释

    不废话,模型备案中涉及到的安全评估测试题+拦截词包含:生成内容测试题4000+、应拒答1000、非拒答1000,拦截关键词10000+,全部针对的是模型备案中的语料安全环节。 内容要求:测试题应为完整的“问题”形式(含主谓宾),不可仅用短词或长文本片段。需明确标注哪些问题需要模型生成回答,哪些需拒答7。 2、拒答测试题库数量要求:总规模不低于500题,覆盖附录A.1和A.2中的17种安全风险,每类至少20题。场景示例:涉及政治敏感、违法信息、虚假宣传等内容的问题,要求模型必须拒答。 内容示例:需包含与主流价值观、科学常识一致的问题(如历史事实、健康知识等),确保模型能正确响应。 另外,如需模型备案及算法备案申报流程中的相关材料及指导文件,也可以联系本人沟通。

    1.2K31编辑于 2025-04-02
  • 来自专栏GiantPandaCV

    语言模型中的常用评估指标

    语言模型中的常用评估指标 EM EM 是 exact match 的简称,所以就很好理解,em 表示预测值和答案是否完全一样。 两个圆圈之外的部分,代表正确的、没召回的部分,叫 True Negative (FN); 这时再来看 F1 的计算,就更直观了: 在这里插入图片描述 precision 代表着召回结果中的正确比例,评估的是召回的准确性 如果预测结果对应的选项索引和真实的正确选项索引相同,那么 accuracy 就是 1,否则为0; Accuracy norm(归一化准确率),这个指标在计算过程中,会对模型计算出的每个选项的分数进行归一化 ,计算这个句子中词组合出现的概率,概率越高,困惑度越低,模型性能就证明是越好。 对于一个正确的句子,如果模型得出的困惑度越低,代表模型性能越好。

    4.5K30编辑于 2023-08-22
  • 模型备案环节如何评估模型的安全性

    模型在备案环节中,安全性的评估是最重要的,但大家往往掌握不好这个安全性的程度,今天我们分别从几个方面分析一下,模型的综合安全性能评估方向,希望能对备案中的小伙伴们有所帮助。 一、数据安全评估(1)数据隐私保护检查模型训练数据中是否包含敏感信息,同时,评估在数据收集、存储、使用过程中是否采取了严格的隐私保护措施,像加密技术对数据进行加密处理等,防止数据泄露导致用户隐私被侵犯。 (2)模型知识产权保护确定模型的知识产权归属,评估是否存在侵权风险,检查模型的开发过程中是否合法使用了开源代码和第三方模型,是否有明确的知识产权声明和授权协议,避免知识产权纠纷。 (2)结果准确性与可靠性利用各种测试数据集和评估指标,检验模型输出结果的准确性和可靠性。 五、伦理道德安全评估(1)公平性与非歧视性评估模型在不同种族、性别、年龄等群体上的表现是否公平,通过分析模型对不同群体的预测结果和决策差异,检测是否存在对某些群体的歧视性输出,避免模型加剧社会不平等和偏见

    62310编辑于 2025-05-09
  • 来自专栏大模型应用

    模型应用:模型性能评估指标:CLUE任务与数据集详解.10

    ,应运而生,它就像一把精准的尺子,为中文模型的性能评估提供了标准化方案。 同样,没有CLUE这样的基准,我们也难以比较不同模型的优劣。CLUE不仅填补了中文自然语言处理评估的空白,更为模型研发提供了明确的方向指引。二. CLUE基准概述1. 迭代评估模式逐样本处理:逐个处理测试样本,适合内存受限场景实时反馈:可以实时观察模型表现灵活性:便于添加额外的评估逻辑3. : 完整的评估流程8.2 完整的评估指标准确率、精确率、召回率、F1分数精确匹配率(阅读理解)NER任务的序列标注指标置信度分析七、总结 CLUE基准作为中文模型评估的重要标准,不仅为技术发展提供了明确的导向 随着人工智能技术的不断演进,CLUE基准也将持续完善,更好地服务于模型的研发和应用。 正如一句古语所说:"工欲善其事,必先利其器。"CLUE基准就是我们评估和提升模型能力的利器。

    37021编辑于 2026-02-07
  • 来自专栏zingpLiu

    模型评估

    文章从模型评估的基本概念开始,分别介绍了常见的分类模型评估指标和回归模型评估指标以及这些指标的局限性。部分知识点举例加以阐述,以便加深理解。 所以,为了得到泛化误差小的模型,在构建机器模型时,通常将数据集拆分为相互独立的训练数据集、验证数据集和测试数据集等,而在训练过程中使用验证数据集来评估模型并据此更新超参数,训练结束后使用测试数据集评估训练好的最终模型的性能 模型的比较: 一次训练过程中的模型比较。 多次训练模型比较。 不同算法的模型比较。 2 评估指标的局限性 在模型评估过程中,分类问题、排序问题、回归问题往往需要使用不同的指标进行评估。 在诸多的评估指标中,大部分指标只能片面地反映模型的一部分性能。如果不能合理地运用评估指标,不仅不能发现模型本身的问题,而且会得出错误的结论。 RMSE能够很好地反映回归模型预测值与真实值的偏离程度。但在实际问题中,如果存在个别偏离程度非常的离群点(Outlier)时,即使离群点数量非常少,也会让RMSE指标变得很差。

    1.6K30发布于 2019-04-01
  • 模型备案材料—《安全评估报告》撰写指南

    模型备案已经是个老生常谈的话题了,但是备案材料一直都是大家比较头疼的点。我最近有5家客户刚好通过了模型备案,结合经验,给大家分享下模型备案中最重要的材料——《安全评估报告》内容详解。 撰写模型安全评估报告需遵循 “合规导向、逻辑清晰、内容详实、证据支撑” 原则,严格对标《生成式人工智能服务安全基本要求》、《生成式人工智能服务管理暂行办法》等法规标准,确保报告具备专业性、可追溯性和可验证性 :梳理未解决风险,提出可落地的改进方案必备要素:风险等级(高 / 中 / 低)、整改责任人、时限(7)评估结论核心作用:明确模型是否满足备案安全要求必备要素:结论需 “非黑即白”(如 “符合安全要求” 或 “需整改后复核”)二、安全评估报告必须包含的内容(1)数据隐私保护评估模型处理用户数据时采取的隐私保护措施,像数据加密、匿名化处理、访问控制等,判断其能否保障用户数据不被泄露、滥用。 (2)评估对象信息模型基本信息:模型名称、版本号、训练框架、部署方式(公有云 / 私有部署)、服务场景(如内容生成、智能客服)核心参数:训练数据量、参数量、推理延迟、服务并发量(体现模型规模与应用场景匹配度

    76610编辑于 2025-08-18
  • 来自专栏机器之心

    可复现、自动化、低成本、高评估水平,首个自动化评估模型模型PandaLM来了

    机器之心专栏 机器之心编辑部 随着越来越多的模型问世,机器学习领域出现一个亟待解决的问题:如何实现保护隐私、可靠、可复现及廉价的模型评估? 基于这些问题,来自北京大学、西湖大学等机构的研究者联合提出了一种全新的模型评估范式——PandaLM。PandaLM 通过训练一个专门用于评估模型,对模型能力进行自动化且可复现的测试验证。 PandaLM 于 4 月 30 日在 GitHub 上发布,是全球首个评估模型模型。相关论文会在近期公布。 一个亟待解决的问题是:如何实现保护隐私、可靠、可复现及廉价的模型评估? PandaLM 不仅具有高评估水平,而且结果具备可复现性,评估流程高度自动化,同时保护隐私且成本较低。研究团队相信 PandaLM 将推动学术界和工业界对模型的研究,使更多人从模型的发展中受益。

    1.3K10编辑于 2023-05-09
  • 来自专栏全栈程序员必看

    模型评估

    离线评估无法完全消除模型过拟合的影响,因此,得出的离线评估结果无法完全替代线上评估结果 离线评估无法完全还原线上的工程环境。一般来讲,离线评估往往不会考虑线上环境的延迟、数据丢失、标签数据缺失等情况。 因此,离线评估的结果是理想工程环境下的结果。 线上系统的某些商业指标在离线评估中无法计算。离线评估一般是针对模型本身进行评估,而与模型相关的其他指标,特别是商业指标,往往无法直接获得。 5 模型评估的方法 知识点:Holdout检验、交叉验证、自助法(Bootstrap)、微积分 问题:在模型评估过程中,有哪些主要的验证方法,优缺点? 为了消除随机性,引入“交叉验证” 交叉验证 k-fold验证 留一验证:时间开销 自助法 不管是holdout检验还是交叉校验,都是基于划分训练集和测试集的方法进行模型评估的。 acquisition函数是一个权衡“探索(方差)”和“利用(均值)”的函数 对于贝叶斯优化算法,一旦找到了局部最优值,它会在该区域不断采样,所以很容易陷入局部最优值。

    97740发布于 2021-05-20
  • 来自专栏软件测试那些事

    模型生成单测用例的评估方案

    模型生成单元测试是目前比较常见的研发侧落地的应用场景之一。为了对模型以及单测生成方案进行评估,因此梳理了一个评估方案,供业内同仁参考。 此处所谓的单测生成是指基于既有的代码,让模型来自动生成单元测试。 生成成功的标志是: 1) 可以生成单元测试用例 2) 该用例可以被编译、执行通过 3) 被测方法被调用 4) 有断言 评估框架 类别 具体项 代码场景 对各种代码场景的覆盖 过程 用例的通过率和正确率% 人工评判 用例体验 代码可读性 经济性 成本(非私有化部署需要考虑) 生成耗时 代码场景 基于我们现有的方案,经过测试ChatGPT3.5以及GLM4这两个大模型,发现17个通用场景大概能通关12 当然,由于内部部署的模型规模要小很多,生成效果会进一步打折。

    1.7K10编辑于 2024-04-22
  • 来自专栏自然语言处理(NLP)论文速递

    细数:模型评估基准的「七宗罪」

    Jason Wei 是思维链提出者,并和 Yi Tay、Jeff Dean 等人合著了关于模型涌现能力的论文。目前他正在 OpenAI 进行工作。 在 CV 领域,研究者一直把李飞飞等人创建的 ImageNet 奉为模型在下游视觉任务中能力的试金石。 在模型时代,我们该如何评估 LLM 性能? HumanEval:是 LLM 编码的经典评估基准。 成功的评估往往会有一篇论文声称使用该评估基准取得了一些突破。 如果他们的模型在这个评估上表现良好,那么人们通常会喜欢它并进一步的推广它。HELM 就非常擅长为其他人评估模型并公布结果。 此外,如果你能为人们使用你的评估工具创造激励机制也很有帮助。 斯坦福大学教授 Chris Manning 提出了一个很好的建议,即对公开测试集、私有测试集都进行评估,并监控模型在这两个测试集上是否有的偏差。

    87210编辑于 2024-05-28
  • 来自专栏自学气象人

    气象模型论文中评估指标的计算详解

    最近气象模型比较火,分享一下在气象模型论文中常见的几个评估指标(RMSE,ACC,MAE)的计算方法。 data_array2)) 参考:https://github.com/xiazh18/WeatherBench/blob/master/src/score.py 历史文章推荐 Python+AI+气象+模式合集

    1.2K21编辑于 2023-09-05
  • 来自专栏全栈程序员必看

    分类模型评估方法_政策评估模型与方法

    : 真实类别为负例,预测类别为正例; 假负例(false negative FN):真实类别为正例,预测类别为负例; 真负例(true negative TN):真实类别为负例,预测类别为负例; 分类模型评价指标有

    82830编辑于 2022-11-10
  • 来自专栏数据派THU

    C-Eval: 构造中文模型的知识评估基准

    近期,中文模型研发如火如荼,但中文评价基准却很少。 推理型任务的榜单上,模型大小和模型分数可能存在相变,只有当模型到一定程度之后(大概是 50B 往上,也就是 LLaMA 65B 这个量级),模型推理能力才会上来。 上面的这些过程也证明了,从模型研发的视角来对待 C-Eval 数据集和榜单,可以非常好地帮助大家开发中文模型。 我们的目标是帮助开发者更好地开发中文模型,促进学术界和产业界科学地使用 C-Eval 帮助模型迭代。我们不着急看结果,因为模型本身就是一件非常困难的事情。 我们希望这份工作可以促进中文模型的研发生态,让人们早一点体验到这项技术带来的便利。 编辑:王菁

    1.4K31编辑于 2023-08-08
领券