Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >[答疑]系统用例多少个为好?1个!(更正)

[答疑]系统用例多少个为好?1个!(更正)

作者头像
用户6288414
发布于 2020-01-17 08:20:46
发布于 2020-01-17 08:20:46
6350
举报
文章被收录于专栏:软件方法软件方法

jintao 2020-1-3 9:40

老师,您教的从业务流程的序列图转到系统的用例图的方法很好。有一个问题请您解惑,改进的时候改到什么程度合适,得到的系统用例多少个为好?

UMLChina潘加宇

严格地说,每个迭代周期需要关注的系统用例永远都是1个。

即使在改进业务序列图时兴之所至使用目标系统改进了很多处,映射得到多个用例。例如下面两张序列图:

序列图1

序列图2

从上面两个序列图映射得到系统E的用例图:

系统E的用例图

但这只是一个初步的探索,不代表系统最终必须有这几个用例,也不代表系统只有这几个用例。

需要根据愿景来判断应该先实现哪个用例,然后观察改进的结果,判断有没有达到愿景的目标,有没有继续改进的需要。可以了就停止,还有需要就继续。

不断重复以上的探索,最终卖出去的系统应该有几个用例,没有标准答案,只有从愿景和涉众利益得到的最佳答案,可能是1个,也可以是1000个。

了解了以上知识,类似以下的问题也就知道怎么回答了:

*建模是不是用于新项目效果更好? *在遗留系统基础上改进的建模有什么不同? *怎样才能把系统所有的用例找完整? *……

这些问题没有本质的区别。

和看病类似。医生面对患者,就是检查患者的现状,思考治疗方案,尝试治疗,观察效果……不断重复。患者是不是在别的医生那里治疗过,患者有没有带别的医生那里拍的片子,甚至别的医生开的药还剩下好多,不影响这个套路,无非是带来的片子或者剩下的药还能用的话,就省点钱。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 UMLChina 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【机器学习】第三部分贰:决策树分类
决策树是一种常见的机器学习方法,其核心思想是相同(或相似)的输入产生相同(或相似)的输出,通过树状结构来进行决策,其目的是通过对样本不同属性的判断决策,将具有相同属性的样本划分到一个叶子节点下,从而实现分类或回归. 以下是几个生活中关于决策树的示例.
杨丝儿
2022/02/17
1.8K0
【机器学习】第三部分贰:决策树分类
机器学习实战第2天:幸存者预测任务
在泰坦尼克号灾难中,了解乘客生存状况是一个重要而挑战性的任务。这个任务的目标是通过分析乘客的各种特征,构建预测模型,以预测一个乘客在沉船事件中是否幸存。数据集提供了关于每位乘客的多个方面的信息,如性别、年龄、客舱等级等。
Nowl
2024/01/18
2090
机器学习实战第2天:幸存者预测任务
Python机器学习库scikit-learn实践
一、概述 以最广泛的分类算法为例,大致可以分为线性和非线性两大派别。线性算法有著名的逻辑回归、朴素贝叶斯、最大熵等,非线性算法有随机森林、决策树、神经网络、核机器等等。线性算法举的大旗是训练和预测的效率比较高,但最终效果对特征的依赖程度较高,需要数据在特征层面上是线性可分的。因此,使用线性算法需要在特征工程上下不少功夫,尽量对特征进行选择、变换或者组合等使得特征具有区分性。而非线性算法则牛逼点,可以建模复杂的分类面,从而能更好的拟合数据。 那在我们选择了特征的基础上,哪个机器学习算法能取得更
机器学习AI算法工程
2018/03/13
9310
数据城堡参赛代码实战篇(五)---使用sklearn解决分类问题
小编们最近参加了数据城堡举办的“大学生助学金精准资助预测”比赛,以分组第19名的成绩进入了复赛,很激动有木有!在上一篇文章中,小编带你使用pandas中merge()函数的功能,至此,我们所有的数据都已经处理完毕,已经生成了训练集和测试集。接下来需要做的是选取合适的方法对数据进行训练。本篇,小编文文将带你探讨sklearn库中常用的分类算法。 1 决策树分类器 通俗来说,决策树分类的思想类似于找对象。现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话: 女儿:多大年纪了? 母亲:26。 女儿:长
石晓文
2018/04/11
1.3K0
数据城堡参赛代码实战篇(五)---使用sklearn解决分类问题
【机器学习】关于机器学习模型可解释(XAI),再分享一招!
随着时间的推移,学习模型变得越来越复杂,很难直观地分析它们。人们经常听说机器学习模型是"黑匣子",从某种意义上说,它们可以做出很好的预测,但我们无法理解这些预测背后的逻辑。这种说法是正确的,因为大多数数据科学家发现很难从模型中提取见解。然而,我们可以使用一些工具从复杂的机器学习模型中提取见解。
黄博的机器学习圈子
2021/07/07
4020
【机器学习】关于机器学习模型可解释(XAI),再分享一招!
【机器学习-监督学习】集成学习与梯度提升决策树
  本文将会首先介绍集成学习的思路以及一些常用的集成学习方法,然后介绍梯度提升决策树模型。在前面的文章中,我们讲解了许多不同的机器学习算法,每个算法都有其独特的优缺点。同时,对于同一个任务,往往有多种算法可以将其解决。例如我们要将平面上的一些点分类,假设算法一和算法二的正确率是75%,算法三是50%。3种算法都已经通过调参达到了其最优表现,已经无法再进一步了。那么,我们是否能通过组合这些算法,得到比75%更高的正确率呢?看上去组合之后,算法三会拖算法一和二的后腿,反而会拉低整体表现,更别说提升了。然而,我们考虑表1中的例子。
Francek Chen
2025/01/22
1910
【机器学习-监督学习】集成学习与梯度提升决策树
【机器学习】第七部分:模型优化
验证曲线是指根据不同的评估系数,来评估模型的优劣. 例如,构建随机森林,树的数量不同,模型预测准确度有何不同?以下是一个验证曲线的示例:
杨丝儿
2022/02/18
3200
【机器学习】第七部分:模型优化
LightGBM实战
[LightGBM] [Warning] No further splits with positive gain, best gain: -inf [LightGBM] [Warning] No further splits with positive gain, best gain: -inf [99] valid_0's multi_logloss: 0.264218 [LightGBM] [Warning] No further splits with positive gain, best gain: -inf [LightGBM] [Warning] No further splits with positive gain, best gain: -inf [LightGBM] [Warning] No further splits with positive gain, best gain: -inf [100] valid_0's multi_logloss: 0.264481 [0, 1, 1, 0, 2, 1, 2, 0, 0, 2, 1, 0, 2, 1, 1, 0, 1, 1, 0, 0, 1, 1, 2, 0, 2, 1, 0, 0, 1, 2] 0.9666666666666667
西西嘛呦
2021/02/25
1.9K0
LightGBM实战
100天搞定机器学习|Day56 随机森林工作原理及调参实战(信用卡欺诈预测)
前文对随机森林的概念、工作原理、使用方法做了简单介绍,并提供了分类和回归的实例。本期我们重点讲一下:
Ai学习的老章
2019/12/06
8050
100天搞定机器学习|Day56 随机森林工作原理及调参实战(信用卡欺诈预测)
从决策树到随机森林:树型算法的原理与实现
选自Github.io 作者:Sadanand Singh 机器之心编译 基于树(Tree based)的学习算法在数据科学竞赛中是相当常见的。这些算法给预测模型赋予了准确性、稳定性以及易解释性。和线性模型不同,它们对非线性关系也能进行很好的映射。常见的基于树的模型有:决策树(decision trees)、随机森林(random forest)和提升树(boosted trees)。 在本篇文章中,我们将会介绍决策树的数学细节(以及各种 Python 示例)及其优缺点。你们将会发现它们很简单,并且这些内
机器之心
2018/05/09
2.2K0
从决策树到随机森林:树型算法的原理与实现
基于Python的随机森林(RF)回归与模型超参数搜索优化
  本文详细介绍基于Python的随机森林(Random Forest)回归算法代码与模型超参数(包括决策树个数与最大深度、最小分离样本数、最小叶子节点样本数、最大分离特征数等等)自动优化代码。
郭好奇同学
2021/05/28
17.4K0
基于Python的随机森林(RF)回归与模型超参数搜索优化
机器学习-决策树(Decision Tree)案例
这是我最喜欢的算法之一,我经常使用它。它是一种监督学习算法,主要用于分类问题。令人惊讶的是,它适用于分类和连续因变量。在该算法中,我们将总体分成两个或更多个同类集。这是基于最重要的属性/独立变量来完成的,以尽可能地作为不同的组。有关详细信息,请参阅简化决策树:https://www.analyticsvidhya.com/blog/2016/04/complete-tutorial-tree-based-modeling-scratch-in-python/
XXXX-user
2019/09/19
9400
机器学习-决策树(Decision Tree)案例
机器学习 | 决策树模型(二)实例
上面文章《决策树模型(一)理论》中,已详细介绍了决策树原理,包括决策树生长原理,决策树的特征选择原理,决策树剪枝策略以及决策树处理缺失值原理等等。如果您还没有阅读,可点击跳转,或关注公众号<数据STUDIO>获取文章详情。
数据STUDIO
2021/06/24
1.1K0
基于Python的随机森林(RF)回归与变量重要性影响程度分析
  本文详细介绍在Python中,实现随机森林(Random Forest,RF)回归与变量重要性分析、排序的代码编写与分析过程。其中,关于基于MATLAB实现同样过程的代码与实战,大家可以点击查看基于MATLAB的随机森林(RF)回归与变量重要性影响程度排序。
郭好奇同学
2021/05/28
11.9K1
基于Python的随机森林(RF)回归与变量重要性影响程度分析
机器学习篇(四)
在相亲过程中可能年龄这个特征比较重要,但是在实际其他应用中,我们把哪个特征放在第一位?
不断折腾
2019/09/23
4710
机器学习篇(四)
机器学习笔记之机器学习算法XGBoost
在上一篇Boosting方法的介绍中,对XGBoost有过简单的介绍。为了更还的掌握XGBoost这个工具。我们再来对它进行更加深入细致的学习。
Jetpropelledsnake21
2021/03/04
2.5K0
机器学习笔记之机器学习算法XGBoost
【机器学习】从理论到实践:决策树算法在机器学习中的应用与实现
决策树由节点和边组成,其中每个节点表示数据集的某个特征,每条边表示特征的某个值所对应的分支。决策树的最顶端称为根节点,叶节点代表决策结果。以下是一个简单的决策树示例图:
哈__
2024/06/23
4130
【机器学习】从理论到实践:决策树算法在机器学习中的应用与实现
【机器学习】--- 决策树与随机森林
决策树和随机森林是机器学习中的经典算法,因其易于理解和使用广泛而备受关注。尽管如此,随着数据集规模和复杂性增加,这些算法的性能可能会遇到瓶颈。因此,研究决策树与随机森林的改进成为了机器学习领域的一个热点话题。本博客将详细探讨决策树与随机森林的基本原理、其存在的问题以及如何通过多种改进方法提升其性能。
Undoom
2024/09/23
2040
【机器学习】第二部分上:线性回归
线性模型是自然界最简单的模型之一,它描述了一个(或多个)自变量对另一个因变量的影响是呈简单的比例、线性关系.例如:
杨丝儿
2022/02/17
1.9K0
【机器学习】第二部分上:线性回归
【机器学习-监督学习】决策树
  本文开始,我们将介绍机器学习中与神经网络并行的另一大类模型——决策树(decision tree)模型及其变种。决策树模型是非参数化模型。决策树模型简称树模型,顾名思义,它采用了和树类似的结构。图1展示了现实中的树与计算机中的树的异同。现实中的树是根在下、从下向上生长的,计算机中的树却是根在上、从上向下生长的。但是,两者都有根、枝干的分叉与叶子。在计算机的树中,最上面的节点称为根节点,最下面没有分叉的节点称为叶节点。其中,根节点和内部节点都有一些边指向其他节点,这些被指向的节点就称为它的子节点。叶节点是树的最末端,没有指向其他节点的边。而除了根节点之外,每个内部节点和叶节点都有唯一的节点指向它,该节点称为其父节点。
Francek Chen
2025/01/22
1520
【机器学习-监督学习】决策树
推荐阅读
相关推荐
【机器学习】第三部分贰:决策树分类
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档