前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【实测】关于‘钱学森弹道’应用软件测试的设计与实现(01)

【实测】关于‘钱学森弹道’应用软件测试的设计与实现(01)

作者头像
我去热饭
发布于 2023-11-06 07:30:50
发布于 2023-11-06 07:30:50
2690
举报
文章被收录于专栏:测试开发干货测试开发干货

实测系列是纯硬核技术文章,并且是博主亲自演示已经落地取得一定成果的技术和原创教程,无偿进行分享,大家一键三连,支持一下!

前言

最近的世界又开始了战乱,不少小伙伴都开始对导弹感了兴趣,我想很多军迷小伙伴都知道,我国的导弹技术是世界顶级,发射的远程导弹敌人是根本无法拦截的,这也是让我们具备摧毁敌人的根本技术之一,而其中,最厉害的最无解的技术当属【钱学森弹道】了。

来看看官方的解释:

划重点:钱学森弹道是无法预测,随机变幻路线,以至于无法也不可能被精准拦截,但最终又能恰好击中目标的技术。

像是魔法一样,无数个偶然最终的结果却是必然,全靠了我们的先辈钱学森爷爷的贡献,才得以让我们能在今天世界战乱的情况下得以和平和安乐的生活。

如今,这个技术是否能应用在测试领域,又有什么意义?不妨跟着博主一起来探寻下吧~

正文

一:具体有什么作用?背景?

在我们软件测试工作中,一提起‘随机’这个词,你会想到什么?没错,就是monkey测试。

但是monkey测试是没有准确目的的,更多时候属于负载测试,用来发现一些内存泄露或者崩溃等bug的。而钱学森弹道技术的特点中除了随机之外,还要有准确的目的地。

那如果再给Monkey加上一个目的地,就变成了这样。从A页面,到E页面之间随机点点点,但是最终一定要到E页面。这个需求就需要随机且准确目的地,也就恰好契合了【钱学森弹道】。

但是小伙伴又会问了:从A到E,中间随机,为什么会有这么奇怪的需求?这个需求的现实意义是什么?

答:我换个说法,比如现在是一个民宿酒店房源下单流程,从页面详情页开始,到最终下单并确认成功。中间的路线是什么样的?有多少种路线?如果用户反复的下单取消订单,来回返回提交表单,刷新等操作,是否会引起bug?

其实,如果你去那些专业薅羊毛群里,就会发现,好多人是专业来找到这个流程的bug的,靠的就是反复随机的操作去碰。【钱学森弹道】恰好能够覆盖这里的所有用例路线,那到底有多少种路线呢?

答:相当之多,有些同样的步骤,反复快速操作几十次,bug就出来了...

我再举个例子:测试游戏,角色需要从自家水晶走到大龙刷新点,中间有多少种走法?那是相当多了吧?是否会存在某个未知bug,某个路线,会最终导致去不了大龙点?或者去了之后伤害异常?这些都需要测试才能给出结论,那这个测试,你怎么做?随便选了个最短路线过去,没问题就完了?当然不是,而靠纯代码和逻辑推断出来的测试用例(比如运用流程图法,基本流、异常流)等等,去写用例并执行虽然靠谱,但成本颇高,远没有直接让角色随机选择路线(中间甚至还会走回头路的方式去目的地)自动去测试方便。

再举个例子:很多第一人称射击游戏/角色扮演游戏大家都玩过吧?你们玩CF生化模式闯关的时候有试过来回在一个墙角移动就会卡进去的bug来过关么?试过永劫无间在秘宝洞穴某个墙外来回蹭就能直接卡进去么?这种bug不要太多,任何游戏都存在。但却几乎无法被测试覆盖到,那你想想为什么每次这种隐藏之深的bug都能被找到?那些专业去找这种bug的人他们是用了什么测试方案,就能在游戏公测第一天就能找到这几乎无法被发现的bug呢?答案就是大量的随机动作,并且设置了目的地:墙壁里、山体里、洞穴内等等,无数种随机的路线,来回移动,反复横跳的路线中,就会自动发现那一个bug。

例子先不举了,太多了。

言归正传,这种随机又有确定目标的测试技术,我就暂且叫做【钱学森弹道】测试法吧,如果你们有好听的名字可以留言哦。

那这个技术的背景和意义,我们大致有画面了,但是如何实现呢?无数个随机事件,真的能在最终走向确定的目标么?

欢迎继续收看【钱学森弹道】测试法的实现理论。

明天更新..

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-11-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 测试开发干货 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
本节主要重点是带领大家实现个人小助手微调,如果想了解微调相关的基本概念,可以访问XTuner微调前置基础。
流川疯
2024/08/15
3150
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
XTuner 微调
创建一个虚拟环境。使用Anaconda创建一个名为xtuner03的虚拟环境,可以直接执行命令
用户10497140
2024/10/07
1440
XTuner  微调
《书生·浦语大模型实战营》第4课 学习笔记:XTuner 微调 LLM:1.8B、多模态、Agent
假如在这一过程中没有出现任何的报错的话,那也就意味着我们成功安装好支持 XTuner 所运行的环境啦。其实对于很多的初学者而言,安装好环境意味着成功了一大半!因此我们接下来就可以进入我们的第二步,准备好我们需要的数据集、模型和配置文件!
流川疯
2024/06/12
4390
《书生·浦语大模型实战营》第4课 学习笔记:XTuner 微调 LLM:1.8B、多模态、Agent
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
[2024.07.19] 我们发布了 1.8B、7B 和 20B 大小的 InternLM2-Reward 系列奖励模型。可以在下方的 模型库 进行下载,或者在 model cards 中了解更多细节。
流川疯
2024/08/05
1740
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
接下来,我们便可以通过 python /root/demo/cli_demo.py 来启动我们的 Demo。
流川疯
2024/08/11
2040
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
炼丹炉 | XTuner 大模型单卡低成本微调实战
※ 因此,你找到了一种叫 LoRA 的方法:只对玩具中的某些零件进行改动,而不是对整个玩具进行全面改动。
AIGC新知
2024/10/08
3540
炼丹炉 | XTuner 大模型单卡低成本微调实战
基于XTuner微调书生·浦语大模型
XTuner 是一个傻瓜式、轻量级的大语言模型微调工具箱,由MMRazor和MMDeploy联合开发。其以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调;对于 7B 参数量的LLM,微调所需的最小显存仅为 8GB。
阿提说说
2024/03/01
5800
基于XTuner微调书生·浦语大模型
《书生大模型实战营第3期》进阶岛 第3关: LMDeploy 量化部署进阶实践
我们要运行参数量为7B的InternLM2.5,由InternLM2.5的码仓查询InternLM2.5-7b-chat的config.json文件可知,该模型的权重被存储为bfloat16格式
流川疯
2024/08/24
3370
《书生大模型实战营第3期》进阶岛 第3关: LMDeploy 量化部署进阶实践
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
幻觉 随着大语言模型的快速发展,逐渐发现即使是 GPT-4 这样的大语言模型,在某些场景下也不能满足实际需求,有着诸多的局限性,比如幻觉。
流川疯
2024/07/01
1830
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
这种说法是片面的,虽然计算机计算定点数和整数比计算浮点数快,但是模型的参数仅仅是以定点或者整数的方式存储,在实际计算时,还需要把定点数和整数反量化为浮点数进行数值计算,再把计算的结果以定点数或整数进行存储,这一步的目的是最大化减少计算精度的损失。
流川疯
2024/07/01
5870
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
XTuner & InternLM-Chat 微调个人认知小助手
InternStudio 平台中,从本地 clone 一个已有 pytorch 2.0.1 的环境(后续均在该环境执行,若为其他环境可作为参考)
AIGC新知
2024/10/08
1500
XTuner & InternLM-Chat 微调个人认知小助手
《书生·浦语大模型实战营》第一课 学习笔记:书生·浦语大模型全链路开源体系
一直比较关注LLM 相关内容的业界进展,所以特定来参加这个训练营《书生·浦语大模型实战营》,动手学习LLM,看看大模型生态链中具体的最佳实践(Best Practice),很早的时候GPT3.5 时代,我只是注意到了他的发布,之前的聊天机器人还是这么个架构
流川疯
2024/05/25
2220
《书生·浦语大模型实战营》第一课 学习笔记:书生·浦语大模型全链路开源体系
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
在 OpenCompass 中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。
流川疯
2024/08/15
1410
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
《书生·浦语大模型实战营》第7课 学习笔记:OpenCompass 大模型评测实战
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系 “司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。其主要特点如下:
流川疯
2024/07/01
3460
《书生·浦语大模型实战营》第7课 学习笔记:OpenCompass 大模型评测实战
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
本文将分为以下几个部分来介绍,如何使用 LlamaIndex 来部署 InternLM2 1.8B(以 InternStudio 的环境为例)
流川疯
2024/08/15
2190
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
《书生大模型实战营第3期》入门岛 学习笔记与作业:Python 基础知识
其实Python 的环境配置在所有编程技术栈中是相对简单的,由于conda,pip 的存在。古早c++, Java 程序员入职第一周基本周报都是写做环境配置,Python基本只要一天就能搞定。
流川疯
2024/07/26
2570
《书生大模型实战营第3期》入门岛 学习笔记与作业:Python 基础知识
书生·浦语大模型全链路开源体系介绍
随着人工智能技术的迅猛发展,大模型技术已成为当今人工智能领域的热门话题。2022 年 11 月 30 日,美国 OpenAI 公司发布了 ChatGPT 通用型对话系统 并引发了全球 的极大关注,上线仅 60 天月活用户数便超过 1 亿,成为历史上用户增长最快的互联网 应用产品。2023 年 3 月 14 日,OpenAI 公司再次发布了升级版模型 GPT-4 又展现 出了更高阶的能力,再一次实现了技术飞跃,并在全球范围掀起大模型发展浪潮。不仅国外科技巨头纷纷加码布局,推动大模型产业的快速落地,国内的头部企业也积极追赶步伐,竞相抢滩大模型的新赛道,抢抓认知智能大模型带来的历史机遇,下图为ChatGPT的发布时间线。
阿提说说
2024/02/28
5300
书生·浦语大模型全链路开源体系介绍
《书生大模型实战营第3期》入门岛 学习笔记与作业:Git 基础知识
Git 是一种开源的分布式版本控制系统,广泛应用于软件开发领域,尤其是在协同工作环境中。
流川疯
2024/07/26
1650
《书生大模型实战营第3期》入门岛 学习笔记与作业:Git 基础知识
书生·浦语大模型全链路开源开放体系
9月20日,上海人工智能实验室(上海AI实验室)与商汤科技联合香港中文大学和复旦大学正式推出书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发。
AIGC新知
2024/10/08
1650
书生·浦语大模型全链路开源开放体系
《书生大模型实战营第3期》进阶岛 第一关: 探索 InternLM 模型能力边界
本算法库的主要评估目标是大型语言模型。我们将以大型语言模型为例,介绍用于评估的具体模型类型。
流川疯
2024/08/15
2530
《书生大模型实战营第3期》进阶岛 第一关: 探索 InternLM 模型能力边界
推荐阅读
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
3150
XTuner 微调
1440
《书生·浦语大模型实战营》第4课 学习笔记:XTuner 微调 LLM:1.8B、多模态、Agent
4390
《书生大模型实战营第3期》基础岛 第1关 :书生大模型全链路开源体系
1740
《书生大模型实战营第3期》基础岛 第2关 :8G 显存玩转书生大模型 Demo
2040
炼丹炉 | XTuner 大模型单卡低成本微调实战
3540
基于XTuner微调书生·浦语大模型
5800
《书生大模型实战营第3期》进阶岛 第3关: LMDeploy 量化部署进阶实践
3370
《书生·浦语大模型实战营》第6课 学习笔记:Lagent & AgentLego 智能体应用搭建
1830
《书生·浦语大模型实战营》第5课 学习笔记:LMDeploy 量化部署 LLM 实践
5870
XTuner & InternLM-Chat 微调个人认知小助手
1500
《书生·浦语大模型实战营》第一课 学习笔记:书生·浦语大模型全链路开源体系
2220
《书生大模型实战营第3期》基础岛 第6关 :OpenCompass 评测 InternLM-1.8B 实践
1410
《书生·浦语大模型实战营》第7课 学习笔记:OpenCompass 大模型评测实战
3460
《书生大模型实战营第3期》基础岛 第4关 :InternLM + LlamaIndex RAG 实践
2190
《书生大模型实战营第3期》入门岛 学习笔记与作业:Python 基础知识
2570
书生·浦语大模型全链路开源体系介绍
5300
《书生大模型实战营第3期》入门岛 学习笔记与作业:Git 基础知识
1650
书生·浦语大模型全链路开源开放体系
1650
《书生大模型实战营第3期》进阶岛 第一关: 探索 InternLM 模型能力边界
2530
相关推荐
《书生大模型实战营第3期》基础岛 第5关 :XTuner 微调个人小助手认知
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档