上一篇分享了经营分析的基本思路,很多小伙伴习惯性的问:那做经营分析有没有什么模型呢?有的,可以参考OGSM模型,今天跟大家简单分享一下。 一、OGSM模型是什么?...此时,利用OGSM模型进行分解如下图: 当然,OGSM不止是简单的分解,还有运作流程。 二、OGSM如何运作? 经营分析的运作,都是自上而下,OGSM模型的运作也是如此。...OGSM模型中,采用O(定性目的)G(定量目标)分离的方式,一定程度上解决了这个问题。比如O定为:2022年度成为行业销量第一。那么如果面临全行业下降,就能通过行业数据,合理、合法、不扯皮地调整目标。...这种扯皮,在传统经营分析的时候经常遇到。 在OGSM模型中,通过区分G(整体目标)和M(度量指标),一定程度上解决了这个问题。 M(度量指标)只考核S(策略)的执行进度。...不过作为做数据分析的小伙伴,我们自己知道这些事就好了。毕竟找工作的时候,被人问到“你会什么模型呀”多说一个总是好的,哈哈。
之前分享了销售分析的基本做法,今天来分享一个销售分析最常用的模型:人货场模型。这是来源于传统零售业的经典分析模型,在电商环境里其实也能用。大家一起来看一下。 传送门:一文看懂:销售数据分析怎么做?...因此人货场模型被非常广泛地用于诊断销售情况。具体操作时,根据销售形式的不同(实体门店/线上店铺/APP站内转化/电话销售……),人货场指标会有区别。...是否因XX地区实体店不能正常运作,导致销量不佳 是否因XX渠道流量出问题,导致线上销售不佳 五、如何综合利用“人货场”进行分析 在综合利用人货场进行诊断的时候,需要按照从大到小,逐级排查的原则,播洋葱一样...比如发现本月销量下降,可以先从人货场三大因素中,每一个挑选出一个最优代表性的进行分解: 人:客户等级、销售等级 货:商品大类 场:大区 然后先看:哪一块发生的问题更严重?...六、模型不足之处 人货场模型产生于传统零售业,而传统零售业里,“场”才是最主要因素。占据了有利旺铺位置,就能有源源不断的客流。 但互联网消费不是这样,促销活动、明星带货等效果更明显。
今天跟大家分享的是一个经常被提及,但是价值被严重低估的模型:RFM模型。...二、RFM的小例子 一起来看个具体例子:某个打车出行APP,已按RFM格式,统计好用户数据(如下图,仅为示例数据100条),现领导要求:分析分析用户情况。要怎么分析呢? 第一步:先看M。...这样就完成了一个简单的RFM分析,而且每个客群都有针对性业务建议给到哦。 如果只到这里就停下,那就太可惜了!因为RFM模型价值远远不止于此。...可是,如果我们发现: A用户:趁大促销,囤了1000元洗发水、沐浴露、护发素、纸巾 B用户:趁大促销,买了个1000元的空调 那即使RFM分类一致,我们也知道,A与B用户是完全不同的两类人,应该采用2类激活消费的策略...因此,RFM模型可以用,但是要结合用户消费品类,做细化思考哦。 作者:小熊妹。数据界新人,喜欢数据分析、数据挖掘。
今天继续来谈数据分析八大模型系列。今天分享的,是一个原理很简单,但是应用很广泛的模型:同期群模型。在商品分析、用户分析、渠道分析上,都用得着哦。 一、同期群的原理 同期群分析原理很简单:种豆子。...二、商品同期群:商品LTV模型 商品分析中的同期群模型,也被称为商品LTV模型。...不止商品分析,用户分析也能用得上。 三、用户同期群:用户留存率模型 用户同期群分析,也被称为用户留存率模型。 做法如下: 设定用户分群(一般按注册时间or注册渠道)。...如果发现某些节点,用户留存明显下降,则说明这些节点出现问题,需要进一步分析。同时,基于同期群数据,可以拟合出预计留存用户数量,就能为运营筹划服务用户资源,提供数据支持(如下图)。...单靠同期群解释不了,需要其他分析模型来解释。
今天介绍一个行业分析的业务模型:PEST模型。...即使不是专业做数据分析的人,也能感受到:政策、经济、社会、技术会影响到行业发展。问题是在,怎么把这四个因素,量化成可分析的指标呢?...有了这个设定,就可以分头找数据了。 用户数量可以从国家统计局获得,用户喜好,可以通过市场调查抽样获得,或者通过天猫/京东/抖音/快手等平台发布的平台用户画像数据来获得。...因此,PEST的分析,不需要每日/每周的追数据。本身指标变化就不是很大,采集数据难度又很高。...一般是在月度复盘的时候,把变化的苗头提示出来,在季度复盘的时候,如果PEST某方面放生重大变化,再单独列数据进行分析。这样既能满足需求,又不增加很大工作量。
2、如何构建漏斗模型?要将浏览→完成交易中的每步都列出来吗? 3、有哪些分析场景? 今天我们就来一起捋捋常见的数据分析方法——漏斗分析模型,同时逐一回答上述问题。...一、什么是漏斗分析模型 漏斗分析模型,简单来讲,就是抽象产品中的某一流程,观察流程中每一步的转化与流失。 ?...通过产品每一个设计步骤的数据反馈得出产品的运行情况,然后通过各阶段的具体分析改善产品的设计,提升产品的用户体验,这就是漏斗模型的核心价值。...漏斗分析,仅仅是帮助我们分析问题的工具,重要的是要培养数据分析的思想:通过精细化的拆分,从宏观的视角,将复杂的事件分析拆分为独立的归因分析。...漏斗分析到这里就结束了,下一篇是热图分析模型,诸葛君将继续解读如何改善用户体验,提升转化,帮你更好地运用数据驱动产品运营。
一、什么是热图分析模型?...两者各有不同的应用场景,但当用户行为数据的采集和分析被重视起来后,热图与热图之间的差别逐渐变得更模糊。因为对于同一个分析目标和需求,有时候我们能找到更优的分析模型和方案。...当然,诸葛io的热图分析模型,我们又增加了一些更重要的特性。...2、聚焦分析 热图在视觉上给我们更直观的对比,对于关键的分析,我们依然需要进行量化,在诸葛io的热图分析模型,我们加入了聚焦分析,每一个热度背后的点击统计和百分比都有清晰的计算。...作为信息时代兼具客观性和易用性的数据分析模型——热图分析,可视化的数据呈现,帮助你快速发现数据背后的问题,为网站的优化提供有力的数据支撑,关注点击行为的同时更关注不同特点用户的浏览习惯,为用户呈现个性化的产品价值
接下来,我们将探讨数据分析方式的演进逻辑,分析Kyligence如何将指标平台、数据分析与大模型融合,实现基于自然语言的指标数据分析,为数据分析的未来描绘一幅可能的蓝图。...基于大模型,构建基于自然语言的数据分析方式 依据Kyligence的实践经验,要做好这个事情,关键的有三个方面:基于大语言模型来准确理解用户数据分析需求;联通指标平台来进行数据计算和分析,给出分析结果;...首先,基于大语言模型来准确理解用户数据分析需求。大语言模型如ChatGPT,通过训练大量的文本数据,它们可以理解和生成自然语言,使得人机交互更加自然、便捷。...例如,需要优化大模型与指标平台、数据分析平台的对接方式。大模型理解并生成的是自然语言,而指标平台通常接受的是具体的数据查询和操作指令。...此外,大模型的准确性和稳定性也是一大挑战。虽然大模型可以理解和生成自然语言,但是在一些复杂和模糊的场景下,它的理解可能并不准确,或者产生的结果可能有多种可能。
诸葛君说:在日常的数据分析中,常用的有8大模型:用户模型(点我回顾)、事件模型、漏斗分析模型、热图分析模型、自定义留存分析模型、粘性分析模型、全行为路径分析模型、用户分群模型,其中,“事件模型”对于很多业务人员来说相对比较陌生...,但他却是用户行为数据分析的第一步,也是分析的核心和基础。...事件模型中的逻辑结构、事件的准确性、自定义能力和对事件的管理是“事件模型”的几大要素。对这一模型有了深刻的认识和理解,那用户行为数据的采集逻辑也就基本掌握。下文我们稍作展开。 一、什么是事件?...二、事件的采集 其实,要说明白事件模型这个事,就像我们写作文,记叙文的六要素:时间、地点、人物,起因、经过、结果,也就是:谁,在什么时间,在哪儿做了一件什么事儿,相应的,数据分析就像是通过数据/指标来讲述用户与产品之间的故事...此外,事件模型也是漏斗模型、自定义留存模型、全行为路径分析模型的基础,后续我们将陆续解读,每周二更新敬请关注。
当我们将这一模型进行可视化, 如下图,选择“任意行为”,按周查看,即为用户平均每周使用产品的天数分布。 ?...图2:任意行为的粘性分析 如上图所示,我们可以看到近四周所有使用产品的用户中,平均每周使用2天、3天及以上的用户占比。...当然,你更可以评估某一功能的粘性,比如我们选择「开始签到」来分析新上线的社区功能的粘性: ?...图3:「开始签到」模块的粘性分析 说明:在计算各个天数的人数占比情况时,我们会以在所选时间段内触发过该事件的人为基数(第一天为100%)。...图4:不同用户群对于「查看股票市场」的粘性对比 (数据为脱敏数据) 如上图所示,我们发现,与未投资用户相比,有过投资行为的用户更关注股票市场的动态,对股票市场这一功能模块的粘性更大。
除了N-day留存,业内常见的留存分析方式还有“Unbounded留存”、“Bracket留存”,这3类留存的区别就在于时间条件的差异,具体关注哪种留存,需要根据业务来定。...图2:回访行为是查看课程详情的7日留存数据 -初始行为:初始与回访是相对的概念。 -回访行为:与初始行为的设定是并且关系。用户的初始行为可以理解为上一次行为,回访行为即理解为下一次行为。...(当然,签到功能也会和积分等其他可兑换的奖励所绑定),而签到功能本身,就是一个纯粹的为了提升用户回访的功能,这一功能到底有没有吸引用户回访,用自定义留存分析功能再合适不过了。...图3:回访行为是签到成功的7日留存数据 从上图可以看出,签到功能带来了很好的用户粘性。很多用户回访都会触发签到功能,功能价值得以衡量和提现。...随着用户规模的饱和,获客成本大幅提高,用户可能因为一点不爽分分钟就卸载掉你的应用,此时提高留存就显得尤为重要,因为不管是花费在金钱还是资源上的成本都会更低,留存已成为检验产品的重要指标,自定义留存模型,
最近,腾讯发布了自主研发的大型语言模型:混元大模型。该大模型具备多轮对话能力、内容创作能力、逻辑推理能力、搜索增强和知识图谱等特点。...除了对于人类自然语言的理解,混元大模型对于计算机编程语言同样可以进行分析和和生成。...今天我就来用一个很常见的Python开发需求:对一组数据进行采集、整理、可视化分析,来演示下混元大模型在编程辅助开发上所能提供的帮助。...尤其对于数据分析这种开发需求来说,会用到很多第三方模块中的函数,在过去需要频繁查阅文档和搜索网络来了解具体的用法和参数设置,现在借助于大模型,可以很方便地得到示例代码,稍加调整就可以应用在代码中,大大节省了时间...但总的来说,作为一个「开发助手」的角色,混元大模型已经可以给到开发者实实在在的效率提升。并且,大模型还在不断地进化迭代,期待后续有更令人惊艳的表现。
image.png 微软开源了Deepspeed深度学习训练优化库,它通过优化transformer kernel性能、极致的显存优化及节省、提升模型scale能力等多个层面对大模型训练做了详细的分析以及极致的性能优化...2、TI-Deepspeed显存节省技术 1)模型显存占用分析 模型的显存占用主要包括两个部分,一部分为Model States,主要包括优化器的状态和梯度以及参数等。...1、大模型参数多轮通信allgather 随着深度学习模型复杂度和数据集规模的增大,计算效率成为了不可忽视的问题,GPU 显存一直是训练先进深度学习模型的最大瓶颈——大规模训练经常会碰到模型参数太多,...由于模型并行和数据并行参数量比较大,对带宽的要求比较高,所以TI-Deepspeed尽可能在节点内做模型并行和数据并行,充分利用节点内高带宽。...、 三、TI-Deepspeed大模型训练最佳实践 腾讯云TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP大模型不同的参数规模沉淀出了完整且高性能的分布式训练方案
提到数据分析,肯定要提到数据分析模型,在进行数据分析之前,先搭建数据分析模型,根据模型中的内容,具体细分到不同的数据指标进行细化分析,最终得到想要的分析结果或结论。...一、数据分析模型 要进行一次完整的数据分析,首先要明确数据分析思路,如从那几个方面开展数据分析,各方面都包含什么内容或指标。...二、五大数据分析模型 1. PEST分析模型 ? (1)政治环境 包括一个国家的社会制度,执政党性质,政府的方针、政策、法令等。不同的政治环境对行业发展有不同的影响。...2.5 W2H分析模型 ? 5W2H分析法主要针对5个W以及2个H提出的7个关键词进行数据指标的选取,根据选取的数据进行分析。 ? 3....三、总结 五大数据分析模型的应用场景根据数据分析所选取的指标不同也有所区别。
可以称为大key,应该进行合理的拆分 大key的获取 如何获取大key对于使用云数据库的朋友们来说,是比较轻松的一件事情,因为很多云厂商都默认提供了大key的分析工具,例如腾讯云数据库在【控制台】【系统监控...】【监控概览】页面提供了大key分析功能,其原理是分析静态RDB文件然后从中抓出大key按照大小顺序排序,本文的重点是分享下如何使用开源工具rdbtools进行大key分析 rdbtools的安装 rdbtools...使用云数据库的朋友可以联系云厂商获取下载链接。...This can be a regular expression -t TYPES, --type TYPES //指定分析哪些数据类型,例如string、hash、set、list、sortedset...接下来给一个常用的命令,分析rdb文件当中top100的大key,可以使用lrzsz下载到本地,使用Excel进行分析。
HBase,作为一个基于Hadoop的分布式NoSQL数据库,因其能够处理海量数据且具备高吞吐量和低延迟的特点,被广泛应用于各种场景,如实时数据分析、在线服务、物联网等。...然而,如何设计一个高效且符合业务需求的数据模型,仍然是许多开发者面临的核心问题。本文将通过实例分析,详细探讨HBase数据模型设计的最佳实践,并结合代码示例,帮助读者在实际项目中应用这些技巧和原则。...在设计数据模型时,应尽可能地减少表的数量,增加列族和列,以提高查询效率。 行键设计 行键(RowKey)是HBase数据模型设计的核心。...在设计模型时,应合理利用时间戳与版本控制。 实例分析:社交网络应用的数据模型设计 假设我们正在开发一个社交网络应用,该应用需要存储用户信息、用户的好友关系、用户的帖子及其评论等数据。...行键设计优化 在数据量非常大的情况下,可以考虑使用分区行键(如哈希前缀 + 实际行键)的方式,进一步提升系统的并发处理能力。
Self-llm 开源项目是一个围绕开源大模型、针对国内初学者、适合中国宝宝的专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程...,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。...为了进一步深化学习者对大模型应用的理解,self-llm项目特别增加了大模型最佳实践应用集合。应用将不断更新,以反映最新的技术进展和应用趋势。...这些案例将涵盖不同的实际应用类型,引导学习者探讨和实践如何有效利用大模型解决实际问题。...我们期望,通过这些精心设计的大模型应用项目示范(Demo),学习者能够在完成我们的示例后,不仅全面掌握大模型应用开发的技术要点,还能具备独立进行大模型应用的二次开发或自主开发的能力。
微软开源了Deepspeed深度学习训练优化库,它通过优化transformer kernel性能、极致的显存优化及节省、提升模型scale能力等多个层面对大模型训练做了详细的分析以及极致的性能优化,已经成为了超大...TI-Deepspeed框架简介 1、TI-Deepspeed显存节省技术 1)模型显存占用分析 模型的显存占用主要包括两个部分,一部分为Model States,主要包括优化器的状态和梯度以及参数等。...1、大模型参数多轮通信allgather 随着深度学习模型复杂度和数据集规模的增大,计算效率成为了不可忽视的问题,GPU 显存一直是训练先进深度学习模型的最大瓶颈——大规模训练经常会碰到模型参数太多,...由于模型并行和数据并行参数量比较大,对带宽的要求比较高,所以TI-Deepspeed尽可能在节点内做模型并行和数据并行,充分利用节点内高带宽。...image.png TI-Deepspeed大模型训练最佳实践 腾讯云TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP大模型不同的参数规模沉淀出了完整且高性能的分布式训练方案
本期精彩 随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。...由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。...因此,该技术值得我们进行深入分析其背后的机理,本次分享主要讲述目前业界常见的一些大模型微调技术原理(如:LoRA、Prefix Tuning、Adapter Tuning 等)以及在进行大模型微调技术研究时的最佳实践分享...;同时,将分享大模型微调实践过程中如何选择模型及 GPU 型号等。...LoRA LoRA 方法的核心思想就是通过低秩分解来模拟参数的改变量,从而以极小的参数量来实现大模型的间接训练。
模型参数量 微软开源了Deepspeed深度学习训练优化库,它通过优化transformer kernel性能、极致的显存优化及节省、提升模型scale能力等多个层面对大模型训练做了详细的分析以及极致的性能优化...TI-Deepspeed框架简介 1、TI-Deepspeed显存节省技术 1)模型显存占用分析 模型的显存占用主要包括两个部分,一部分为Model States,主要包括优化器的状态和梯度以及参数等。...1、大模型参数多轮通信allgather 随着深度学习模型复杂度和数据集规模的增大,计算效率成为了不可忽视的问题,GPU 显存一直是训练先进深度学习模型的最大瓶颈——大规模训练经常会碰到模型参数太多,...由于模型并行和数据并行参数量比较大,对带宽的要求比较高,所以TI-Deepspeed尽可能在节点内做模型并行和数据并行,充分利用节点内高带宽。...3D并行技术 TI-Deepspeed大模型训练最佳实践 腾讯云TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP大模型不同的参数规模沉淀出了完整且高性能的分布式训练方案
领取专属 10元无门槛券
手把手带您无忧上云