前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >10-风险管理:如何应对暗礁风险?系统化风险管理让你安心!

10-风险管理:如何应对暗礁风险?系统化风险管理让你安心!

作者头像
JavaEdge
发布于 2023-06-10 06:34:10
发布于 2023-06-10 06:34:10
4290
举报
文章被收录于专栏:JavaEdgeJavaEdge

项目已到中期,目前看很顺利,但隐隐不安:项目进展越平稳,我越觉不安。我担心项目会不会存在什么风险,而自己却没发现。

这种担心很必要,因为项目从构思起,就存在风险。光担心没用,项目管理人员需要做识别风险,以便更好应对,甚至可能将风险尽早扼杀。

项目风险是不确定事件或条件,一旦发生,就会对至少一个项目目标造成影响,如范围、进度、成本、质量等。

项目风险也可能对组织或组织的目标造成影响,比如财务、声誉等。

而应对风险的方式,并不总是规避。如果风险给项目造成的威胁在可以承受的范围内,并且与可能得到的收获是相平衡的,那么这个风险就是可以接受的。

想在充满不确定性的大环境成功,组织应致力于 在整个项目期间,积极又持续地开展风险管理。这时,如何识别风险、如何应对风险,尤为重要。

1 系统化风险识别

风险识别的主体,应该包含项目中的团队成员在内的各方干系人,而不只是项目经理。组织中的每个层级都须有意识积极识别,并有效管理风险。系统化的风险识别,是一个反复进行的过程,应该从项目构思阶段开始,贯穿规划和执行始终。

结合执行中常见的各类风险,一份项目典型风险列表。可对照,对你的项目情境下可能风险,进行概率及影响程度量化分析,形成初始风险清单。

识别风险过程的主要输出,就是初始的风险登记册, 包括已识别的风险清单,以及潜在应对措施清单。对于已识别的每个风险,都要评估其概率和影响,并进行优先排序

  • 风险概率,每个具体风险发生的可能性
  • 风险影响,风险对项目目标(进度、成本、范围、质量)的潜在影响

上图是《项目管理知识体系指南》给出的,风险对项目目标影响程度的评估量表,可对照量表来计算相应的风险指数,如造成成本增加大于40%、进度拖延大于20%的风险,属于最高影响程度级别,风险指数0.80。

可通过访谈或会议进行风险概率和影响的评估,参与人员包括:

  • 熟悉相应风险类别的人员
  • 项目外部的经验丰富人员

风险登记册示例:

2 暗礁风险

最大风险,不是那些显而易见的风险,而是暗礁看不见的风险,才最要命。项目组中最坏情况是,大家对项目风险避而不谈。

2.1 避而不谈的原因

  • 缺乏风险的沟通渠道
  • 提出来也没用
  • 老板会认为我没能力管好当前项目

试想,你的项目鼓励坦诚沟通项目风险吗?你的项目有恰当的程序和渠道,能让你和干系人沟通项目风险吗?

2.2 无人反馈风险,不代表无风险

某项目组在某时间段业务猛扩,突招大批实习生,从事内容基础建设。日常工作:

  • 管理者只把任务交待,不做深度沟通
  • 业务繁忙,很少有人带实习生

于是,他们形成与外界隔绝的小透明集体。直到一次重要里程碑交付前,大量实习生离职,影响部门重要KPI达成,才引起部门管理层关注。

若一个项目经理只依靠正常渠道识别项目风险,这类问题就无法避免。

2.3 如何识别暗礁风险?

寻常渠道不管用,就要看项目经理的信息网络。项目经理不能脱离团队,没有群众基础,只坐等别人上报风险,那你的工作远没有做到位。

优秀的项目经理须是优秀的“情报人员”:

  • 上至最高项目发起人及组织各层决策者
  • 下至项目最边缘人群,如外包、实习生、短期借调支持人员等

都要和他们建立广泛且深入联系。我这人不擅长人际交往,是否就无法做到这些?不是。我们有很多内向项目经理,也做得好。你需要的是一颗真诚交流的心,关注项目中的每个角色、每个成员的需求,理解他们的困难,愿为他们提供发展机会,帮助他们获得更大成功而已。

若说你还需要个简单有效办法, 那就先观察,你的团队吃饭时都会分成哪些群体。这些自然划分的群体,哪些是你经常交流的?哪些你缺少交流?

工作之余要多关注和你缺少交流的群体,抽时间和他们多吃饭沟通,让自己站在他们视角想问题。很快你就能扩展自己对暗礁风险的理解。

你识别出的风险越多,项目风险就越低。

3 风险应对措施

你要为识别出的每个风险,制定相应风险应对措施。 对发生概率高的严重风险,要提前准备风险应对方案和危机应急预案,一旦风险和危机来临,应急预案就能有效降低风险的损失和危机的灾难。

如“双十一”前故障演练应急预案,你要针对每种可能发生的线上突发状况,提前确定好处理步骤、责任人、预计时长,甚至每步的指令或脚本,以免突发问题时,手忙脚乱导致出错。

项目排期时,确保有相应故障演练计划,做好充足准备。也许有些风险预案永远用不上,但不是说它们多余。风险降临危机关头,它们的价值就会凸显。

项目执行期间,已识别风险会不断变化,新风险也会产生,你要在每周项目状态同步会议,对风险再评估,并通过 周期性的风险审查,识别新风险

4 树立正确风险观

4.1 治未病,建立系统性保健机制

“阿波罗”登月计划,让项目管理风靡全球。当时肯尼迪航天中心,流传着两个黑话:

  • “沙包”:把任务的延期藏起来,不到最后不汇报
  • “打伞”,虽然你延期了,但还有更倒霉的家伙也延期了,且率先被暴露

即便“阿波罗”计划,瞒报延迟、寄希望于他人“打伞”也无法杜绝。

为何那么多瞒报?

因为当时,及时汇报延期往往只会招来责骂。越是严格控制的系统,越是有问题窝藏,很可能一出问题就是大问题。事物发展,总从量变开始。为防止风险演变成问题,就要在项目早期,建立系统性保障机制。事后不如事中控制,事中不如事前控制。

执行中的风险,群众永远最有发言权。若该系统健康,一定能自行呈现和反馈风险。而建立系统性保障机制关键在于,你要致力持续改善人间互动品质,提升项目团队的健康度。

经常做 匿名的问卷收集或访谈,定期做一场坦诚布公的复盘会,都是系统性保健的好方法。

调查问卷方式是项目经理了解团队的重要方式。每个重要版本结束时,你都能用调查问卷收集大家意见,有两个典型问题:

  • 对这个版本研发过程的综合评分(迭代方式、工作量、工作压力、团队配合、时间管理等各个方面),反映过程满意度
  • 对这个版本功能设计的满意度,即产品认可度

坚持在多个版本中反复使用,积累数据。这样就能通过各版数据变化,看到团队状态的起伏和健康度走势。

当团队对产品的发展方向疑虑或不认可,或对过程中的管理方式或协作状态不满,要允许团队各抒己见,充分沟通表达。事先预防永远胜过事后纠正,若你有意识在团队中构建这样常规反馈渠道,系统性风险提示和保健的作用就会逐渐发挥。

上医治未病,若你还不具备“望闻问切”的功力,匿名问卷就是简单的措施。

4.2 积极管理致命风险

项目经理不只管理好常规执行风险,真正导致项目失败的致命风险,在项目一开始就埋下。如公司高层对项目的态度和预期、项目目标与组织战略目标的一致性、项目所依赖的重要资源方的合作关系、竞争对手及行业市场状况变化、政策变化或监管风险。

作项目经理的第一个项目,开工半年就被紧急叫停,让我对项目致命风险有深刻体感。管理好这些致命风险,不是仅凭项目经理就能做到。但若我们只是一直做容易的事,做会做的事,对这些致命风险视而不见,就会把项目置身于危险的境地。

一旦致命风险发生,很可能回天乏力。有经验的项目经理,可从过往经历失败,敏锐嗅到危险味道。项目经理能做啥?

  • 挖掘出这些致命风险,把它们变为可见、可谈的。很多管理者关心执行中的风险,却对这类致命风险讳莫如深,只留在自己脑子,这样反而最危险。致命风险的挖掘,通常会让我们对于项目背景的理解更透彻,并对那些影响到项目生死存亡的关键要事,有更加清晰的认知和规划部署
  • 正视风险,不存侥幸心理。要和发起人一起想办法,发动核心团队,合力去制定应对策略
  • 在项目核心团队中,周期性梳理和同步风险状态

互联网领域,真正成功突围者大多一路坎坷,从各种致命风险中爬出来,九死一生。致命风险的存在本就是警醒。 加速构建核心能力,不断拓宽护城河,才是最根本应对之道

5 总结

介绍了系统化风险识别的方法及项目典型风险列表。根据风险概率和影响,你需要召集项目组成员完成风险登记册以及风险具体评估,制定相应的风险应对措施及应急预案,同时对冰山下的风险保持敏感。

风险是一种不确定的事件或条件,辩证眼光看, 风险另外一面就是“机”。互联网领域的产品创新,大多是一场跳进未知的冒险,给传统风险观带来极大冲击。项目管理过程中,步步为营的风险管理外,积极把握不确定性带来的机会,提升系统反脆弱能力,达到最优效果,项目经理要持续修炼。

FAQ

你自己所在的项目组中,是否存在暗礁风险?你有哪些识别风险的好办法?

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-06-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
使用TensorRT-LLM进行生产环境的部署指南
TensorRT-LLM是一个由Nvidia设计的开源框架,用于在生产环境中提高大型语言模型的性能。该框架是基于 TensorRT 深度学习编译框架来构建、编译并执行计算图,并借鉴了许多 FastTransformer 中高效的 Kernels 实现,并且可以利用 NCCL 完成设备之间的通讯。
deephub
2024/03/11
1.9K0
使用TensorRT-LLM进行生产环境的部署指南
揭秘 NVIDIA Dynamo:分布式AI推理的高效引擎
随着生成式AI模型规模的爆炸式增长,企业面临推理成本激增、分布式部署复杂度高、资源利用率低等挑战。传统推理框架在跨多节点扩展时,常因KV缓存重复计算、GPU负载不均、通信延迟等问题导致性能瓶颈。NVIDIA Dynamo作为新一代开源推理框架,专为大规模分布式环境设计,通过解耦式服务、智能路由、动态资源调度等创新技术,将推理吞吐量提升30倍以上。本文将深入解析其核心架构、技术优势及实际应用场景,帮助开发者高效部署生成式AI模型,降低推理成本并释放GPU潜能。
数据存储前沿技术
2025/03/29
1.2K0
揭秘 NVIDIA Dynamo:分布式AI推理的高效引擎
NVIDIA发布TensorRT-LLM 0.8.0:加速最先进语言模型
NVIDIA上周宣布TensorRT-LLM版本0.8.0的发布!这个更新标志着在GPU加速推断方面取得了重大进展,使得部署最前沿的语言模型架构变得轻而易举。在TensorRT-LLM,NVIDIA的目标是为您提供极速的执行速度,以解决语言模型任务,而此版本带来了大量增强功能,正是为了实现这一目标。
GPUS Lady
2024/03/14
2900
NVIDIA发布TensorRT-LLM 0.8.0:加速最先进语言模型
TensorRT LLM vs OpenPPL LLM
PPL LLM只支持baichuan、chatglm、llama三个模型,Tensor-LLM支持几乎所有大模型。
aaronwjzhao
2023/11/21
9720
使用 BigDL-LLM 加速 Intel ® 数据中心 GPU 上的 LLM 推理
导读:本文探讨了在 Intel® 数据中心 GPU 上采用 BigDL-LLM INT4 和 FP16 (使用 Self-Speculative Decoding) 进行大型语言模型推理的性能评估。文章介绍了 BigDL LLM 的 Self-Speculative Decoding,通过测量下一个 Token 延迟,分析了不同配置下的推理性能,并提供了性能测试所采用的工具包和硬件环境。结果显示,在 Intel® 数据中心 GPU Max 1100C 上利用 BigDL LLM 进行 FP16 (Self-Speculative Decoding)的大语言模型推理,可以显著改善推理的延迟。这篇文章将为对大型语言模型推理性能感兴趣的读者提供有益的参考和启示。
深度学习与Python
2024/03/26
3710
使用 BigDL-LLM 加速 Intel ® 数据中心 GPU 上的 LLM 推理
使用Triton+TensorRT-LLM部署Deepseek模型
随着大模型项目的开源环境越来越好,大家在本地部署一个大语言模型跑demo应该是一件很简单的事情。但是要将模型运行到生产环境,就需要考虑模型运行性能,GPU资源的调度,高并发场景的支持等情况了。
languageX
2024/04/17
3.5K2
LLM 推理引擎之争:Ollama or vLLM ?
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的模型推理框架。
Luga Lee
2025/04/24
4210
LLM 推理引擎之争:Ollama or vLLM ?
TensorRT-LLM:开启Jetson平台上大语言模型推理的新篇章
TensorRT-LLM for Jetson是针对Jetson平台优化的高性能大语言模型(LLM)推理库,专为Jetson AGX Orin等高性能计算设备设计。该库集成了先进的量化技术、注意力核函数以及分页键值(KV)缓存,旨在提供高效的LLM推理性能。
GPUS Lady
2024/11/28
4890
TensorRT-LLM:开启Jetson平台上大语言模型推理的新篇章
大语言模型推理框架调研
大语言模型(LLM)的迅猛发展及其在自然语言处理、代码生成、多模态交互等领域的广泛应用,对底层推理基础设施提出了前所未有的挑战。模型规模的急剧膨胀(参数量从数十亿扩展至数万亿)和复杂计算需求(如注意力机制)导致推理过程中的显存占用巨大、计算延迟高昂。为了在实际生产环境中高效、经济地部署 LLM,业界涌现出一系列专门针对 LLM 推理优化的框架。这些框架通过引入创新的内存管理机制、批处理策略、并行计算技术以及硬件加速等手段,旨在提升推理吞吐量、降低延迟、优化资源利用率。
磊叔的技术博客
2025/06/03
9130
大语言模型推理框架调研
业界分享 | NVIDIA大语言模型落地实践
大家好,这里是 NewBeeNLP。 今天分享 NVIDIA 在大语言模型领域的解决方案。
NewBeeNLP
2024/03/25
5060
业界分享 | NVIDIA大语言模型落地实践
LLM 大模型学习必知必会系列(十二):VLLM性能飞跃部署实践:从推理加速到高效部署的全方位优化[更多内容:XInference/FastChat等框架]
训练后的模型会用于推理或者部署。推理即使用模型用输入获得输出的过程,部署是将模型发布到恒定运行的环境中推理的过程。一般来说,LLM的推理可以直接使用PyTorch代码、使用VLLM/XInference/FastChat等框架,也可以使用llama.cpp/chatglm.cpp/qwen.cpp等c++推理框架。
汀丶人工智能
2024/05/28
12.9K0
LLM 大模型学习必知必会系列(十二):VLLM性能飞跃部署实践:从推理加速到高效部署的全方位优化[更多内容:XInference/FastChat等框架]
3万字详细解析清华大学最新综述工作:大模型高效推理综述
大模型由于其在各种任务中的出色表现而引起了广泛的关注。然而,大模型推理的大量计算和内存需求对其在资源受限场景的部署提出了挑战。业内一直在努力开发旨在提高大模型推理效率的技术。本文对现有的关于高效大模型推理的文献进行了全面的综述总结。首先分析了大模型推理效率低下的主要原因,即大模型参数规模、注意力计算操的二次复杂度作和自回归解码方法。然后,引入了一个全面的分类法,将现有优化工作划分为数据级别、模型级别和系统级别的优化。此外,本文还对关键子领域的代表性方法进行了对比实验,以及分析并给出一定的见解。最后,对相关工作进行总结,并对未来的研究方向进行了讨论。
zenRRan
2024/06/07
2.3K0
3万字详细解析清华大学最新综述工作:大模型高效推理综述
老黄给H100“打鸡血”:英伟达推出大模型加速包,Llama2推理速度翻倍
GPU的运算能力一直影响着大模型的表现,无论是硬件提供者还是使用者都希望能算得更快些。
量子位
2023/09/19
4150
老黄给H100“打鸡血”:英伟达推出大模型加速包,Llama2推理速度翻倍
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
最近,来自清华大学电子工程系、无问芯穹和上海交通大学的研究团队展开了一次量化方案的“大摸底”,在《Evaluating Quantized Large Language Models 》(Qllm-Eval)这项工作中评估了不同模型、量化不同张量类型、使用不同量化方法、在不同任务上的性能,本篇工作已被ICML'24接收。Qllm-Eval列举出很多大模型落地环节应当关注的模型能力,对产业中的模型量化工作实践,比如如何选取量化方法、针对哪些层或组件进行优化等问题具有指导意义。
机器之心
2024/06/27
4660
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
优化内存使用:TensorRT-LLM和StreamingLLM在Mistral上提升推理效率
内存是否不足以支持长时间聊天内容的#LLM应用?NVIDIA工程师Song Han 开发了StreamingLLM,集成了TensorRT LLM v0.8。让我们看看StreamingLLM在中的应用吧!
GPUS Lady
2024/03/25
3750
优化内存使用:TensorRT-LLM和StreamingLLM在Mistral上提升推理效率
GPU实战:低成本运行多模态大模型
随着多模态大模型(如视觉-语言模型、文本-音频生成模型等)的快速发展,企业对高效、低成本的算力需求日益迫切。 无服务器 GPU 服务结合其弹性扩展和按需付费的特性,为开发者提供了部署多模态大模型的理想平台。本文将从实战角度,探讨如何基于 无服务器 GPU 基础设施,低成本运行多模态大模型。
Michel_Rolle
2025/01/16
1.6K0
PyTorch 2.7 发布,进一步助力 NVIDIA 技术生态加速产业智能化转型
全球领先的开源深度学习框架 PyTorch 正式发布 2.7 版本。此次版本不仅在性能、稳定性和开发体验方面进行了重要升级,更进一步强化了与 NVIDIA 全栈技术平台的深度协作,为生成式AI、大模型部署、自动驾驶、智慧医疗等产业应用提供了更强有力的技术支撑。
GPUS Lady
2025/04/28
2960
PyTorch 2.7 发布,进一步助力 NVIDIA 技术生态加速产业智能化转型
H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型
刚刚,英伟达发布了一款开源软件TensorRT-LLM,能够加速H100上大型语言模型的推理。
新智元
2023/09/19
7240
H100推理飙升8倍!英伟达官宣开源TensorRT-LLM,支持10+模型
TensorRT详细入门指北,如果你还不了解TensorRT,过来看看吧!
作为在英伟达自家GPU上的推理库,这些年来一直被大力推广,更新也非常频繁,issue反馈也挺及时,社区的负责人员也很积极,简直不要太NICE。
老潘
2023/10/19
10.7K1
TensorRT详细入门指北,如果你还不了解TensorRT,过来看看吧!
LLM推理后端性能大比拼,来自BentoML团队的深度评估!
选择适宜的推理后端来服务大型语言模型 (LLMs) 至关重要。它不仅可以确保用户通过快速生成速度获得最佳体验,还可以通过 token 的高生成率和资源利用率降本增效。如今,开发者可以选择多种由知名研究和行业团队创建的推理后端。但是,为特定用例选择最佳后端可能具有挑战性。
OpenMMLab 官方账号
2024/06/17
2.9K0
LLM推理后端性能大比拼,来自BentoML团队的深度评估!
推荐阅读
相关推荐
使用TensorRT-LLM进行生产环境的部署指南
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档