MySQL新增留存率

MySQL新增留存率,第1张

没错,留存的问题还没有写完,之前两篇把日、周、月当期活跃用户在后续周期的留存率问题解决了。但是还有个非常重要的指标,当期新增用户的留存率,这个指标也是很有价值的,我们必须要关注不同日期拉新用户的质量如何,看看不同时期新用户的后续留存情况,对后续拉新的时间选择也是有参考价值的。

其实实现也很简单,只需要在之前的基础上,先把当期的首次登陆用户找出来就行了。实现方式是,按照用户聚合,然后取日期最小值就能取出每个用户首次登陆日期了,SQL语句如下↓

然后就以此为基础,通过左连接把用户表格再连接一次,判断与首次登陆的日期相差多少天就行了,就能判断是第N天有活跃,就能计算N日留存和留存率了,SQL语句和结果如下↓

后面就和之前思路一样了,就可以求出日留存率情况了,SQL语句如下,解释可以看前面两篇。

然后按月实现方式和上一篇一样的思路,关联一个辅助表就行了,这里不详细解释了,可以参考上一篇,完整SQL语句和结果如下↓

那么按周的留存率也是一样的,SQL语句和结果如下↓

End

◆ PowerBI开场白

◆ Python高德地图可视化

◆ Python不规则条形图

LAG()函数是一个窗口函数,允许您从当前行向前看多行数据。与LEAD()函数类似,LEAD()函数对于计算同一结果集中当前行和后续行之间的差异非常有用。

LAG语法: LAG(列名,[offset], [default_value]) OVER ( PARTITION BY 列名,... ORDER BY 列名 [ASC|DESC],... )

LEAD语法: LEAD(列名,[offset], [default_value]) OVER ( PARTITION BY 列名,... ORDER BY 列名 [ASC|DESC],... )

offset:offset是从当前行偏移的行数,以获取值。offset必须是一个非负整数。如果offset为零,则LEAD()函数计算当前行的值。如果省略 offset,则LEAD()函数默认使用一个。

default_value:如果没有后续行,则LEAD()函数返回default_value。例如,如果offset是1,则最后一行的返回值为default_value。如果您未指定default_value,则函数返回 NULL 。

PARTITION BY子句:PARTITION BY子句将结果集中的行划分LEAD()为应用函数的分区。如果PARTITION BY未指定子句,则结果集中的所有行都将被视为单个分区。

ORDER BY子句:ORDER BY子句确定LEAD()应用函数之前分区中行的顺序。

用途举例:

ps:

不适合计算留存,举例说明:

求3日留存用户,以下为用户登录表login_history_table:

首先使用LEAD函数对用户登录时间做偏移,SQL如下:

结果如下:

根据上面查询到的结果,3日留存用户中不能统计到abc,而实际应该包含abc,因为该用户20211022登录后,在3天后的20211025日又重新登录了。

相信很多数据分析师在写数据分析报告的时候也会遇到一些困惑,因为我最近也在写一个报告,在这里就梳理一下如何写数据分析报告 数据分析报告是数据分析师常见的工具,写好一份数据分析报告,不但能够清楚描述问题,洞察数据并且提出一些有思考的举措,也很能反映出一个数据分析师的思维和用数据讲故事的能力,网上虽然也有很多关于写好数据分析报告的文章,但是大部分都是偏重于理论,具体实践的很少,我就在这里做一个汇总,希望能帮助一些朋友,以期抛砖引玉 --------分割线--------正式开始-------- 一份好的数据分析报告离不开两部分:数据部分和分析部分。巧妇难为无米之炊,数据之于数据分析师就好像食材之于巧妇,数据的重要性可见一斑,分析部分是数据分析师将数据做成报告的最重要一步,是最体现一个数据分析师功底的部分,也是拉开差距的部分,下面就针对两部分分别进行阐述 一. 数据部分 数据部分最重要的就是数据质量,数据质量的好坏直接决定一份数据分析报告的好坏,如果报告中某一个数据被质疑,会直接影响这份数据分析报告的可信度,本章说一说跟数据有关的一些内容 1.数据的质量 1.1数据类型 数据类型比较好理解,就是数据以什么样的类型存储的,不同的数据类型有不同的使用方法,因此在处理数据之前,必须要先了解数据类型,常见的数据类型有(这里只说一些常见的数据类型): 整数型int :用于存储整数,存储从-2的31次方到2的31次方之间的所有正负整数,每个INT类型的数据按4 个字节存储bigint :用于存储大整数,存储从-2的63次方到2的63次方之间的所有正负整数,每个BIGINT 类型的数据占用8个字节的存储空间smallint :用于存储小整数,存储从-2的15次方到2的15次方之间的所有正负整数。每个SMALLINT 类型的数据占用2 个字节的存储空间 浮点型real :存储的数据可精确到第7 位小数,其范围为从-3.40E -38 到3.40E +38。 每个REAL类型的数据占用4 个字节的存储空间float :存储的数据可精确到第15  位小数,其范围为从-1.79E -308 到1.79E +308。 每个FLOAT 类型的数据占用8 个字节的存储空间。  FLOAT数据类型可写为FLOAT[ n ]的形式。n 指定FLOAT 数据的精度。n 为1到15 之间的整数值。当n 取1 到7  时,实际上是定义了一个REAL 类型的数据,系统用4 个字节存储它;当n 取8 到15 时,系统认为其是FLOAT 类型,用8 个字节存储它 字符型char : 数据类型的定义形式为CHAR[ (n) ],n 表示所有字符所占的存储空间,n  的取值为1 到8000, 即可容纳8000 个ANSI 字符。若不指定n 值,则系统默认值为1。  若输入数据的字符数小于n,则系统自动在其后添加空格来填满设定好的空间。若输入的数据过长,将会截掉其超出部分nchar : 它与CHAR 类型相似。不同的是NCHAR数据类型n 的取值为1 到4000。 因为NCHAR 类型采用UNICODE  标准字符集(CharacterSet)。 UNICODE 标准规定每个字符占用两个字节的存储空间,所以它比非UNICODE  标准的数据类型多占用一倍的存储空间。使用UNICODE  标准的好处是因其使用两个字节做存储单位,其一个存储单位的容纳量就大大增加了,可以将全世界的语言文字都囊括在内,在一个数据列中就可以同时出现中文、英文、法文、德文等,而不会出现编码冲突varchar :VARCHAR数据类型的定义形式为VARCHAR  [ (n) ]。 它与CHAR 类型相似,n 的取值也为1 到8000,  若输入的数据过长,将会截掉其超出部分。不同的是,VARCHAR数据类型具有变动长度的特性,因为VARCHAR数据类型的存储长度为实际数值长度,若输入数据的字符数小于n  ,则系统不会在其后添加空格来填满设定好的空间。一般情况下,由于CHAR 数据类型长度固定,因此它比VARCHAR 类型的处理速度快 时间和日期型date :‘2018-01-17’time :‘10:14:00’timestamp :‘2018-01-17 10:14:00.45’ 以上就是常用的数据类型,如果有其他的数据类型没有说到,可以去网上搜一下,都比较好理解 1.2噪音数据 因为网上有非常多的关于噪音数据的解释,都非常专业,我就不在这里做过多的详细解释了,我们只探讨从sql取出数据的时候有一些异常值的处理办法: null 一般跑过sql的朋友肯定会发现,在跑出来的数据中会有null的情况,这个时候需要对null进行替换,如果是计算用,就把null替换成0,这个步骤可以在sql里面完成,也可以在excel里面完成 极大值 极大值会影响数据的计算结果,一般会进行处理,要么替换成除极大值以外的最大值,要么直接弃用 作为分母的0 如果0作为分母,在excel里会出现#DIV/0,这个时候可以直接把结果替换,或者在sql里面直接进行替换,用case……when……就可以替换 1.3数据的口径 数据的口径很重要,根据经验看,大部分的数据出现问题是口径造成的,数据的口径一定要跟业务的口径一致,拿留存率举例: 留存率是周期比率型指标,一般在计算留存率的时候需要确定 留存周期 和 活跃判定的口径留存周期:留存周期通俗来讲就是指用户在多长时间范围内活跃,并在下一个周期内仍然活跃,这里的多长时间就是指留存周期 活跃判定:指怎么判定一个用户活跃,可以是启动App,可以是登陆,也可以是完成了一次其他特定行为,这个主要依照业务需求而定 实际计算:周留存率的计算分子:本周活跃 且 上周也活跃的用户数 分母:上周活跃的用户数 2.可能会用到的工具 在处理数据的过程中可以用很多工具,在这里就介绍一些比较常见的工具,大家耳熟能详,学起来也不是特变难 2.1提取数据 mysql hivesql 两者的查询语句有相似的地方也有不同的地方,主要看自己所在公司的数据存储情况 2.2数据处理 python:一般写个脚本做一些机械的 *** 作(我目前是这么用),也可以用来做计算 mysql:在查询的时候可以进行处理 excel:数据量比较小的时候,可以在excel上简单处理 2.3数据可视化 python:可以用来做一些词云图 Tableau:可视化一些图表,可以和sql结合着用 excel:做一些简单的图表,实际上数据处理的好的话,一般用excel就足够了 二. 分析部分 在处理了数据以后就要开始进行报告的撰写,写报告会涉及到几个部分的工作,这里分别进行介绍一下: 1.报告结构 一篇数据分析报告的结构是十分重要的,一个好的结构能够将他人带入到你的报告中,让他人更好的明白你的意图,减少信息传递之间的丢失,同时你的思维也主要展现在结构上,这就意味着在写数据分析报告前,一定好想清楚数据分析报告的结构,当然这里说的报告结构即包括整个报告的结构,也包括每一个章节的结构,这里就放到一起说了 1.1 总 - 分 - 总(多用在整体结构)我们在读一本书的时候,打开目录,会发现整部书的结构一般包括: 前言 第一篇 第二篇 …… 第n篇 结尾 这就是典型的总 - 分 - 总结构,是最常见的结构,如果是对一个专题进行分析,用这种形式是非常好的,举个例子:某电商App近一个月内的销售额出现下滑,让你针对这个问题进行一次专题分析分析思路:拿到这个问题,我们很容易想到的是,销售额出现下滑出现的原因有两个,一个是付费用户数减少了,另一个是付费用户的人均付费金额减少了,这两个原因属于并列的原因,不存在递进关系,也就是说付费用户数减少了与人均付费金额减少并不存在因果关系,没有什么相关性,因此需要对两个原因共同分析,最后输出结论和提升建议,分析完以后,会发现总- 分 - 总结构很适合这样的分析,所以列出以下提纲问题描述销售额近一个月下降多少?绝对值,环比,同比数据 原因假设:付费用户数下降/人均付费金额下降付费用户数下降分析付费用户数降幅是多少?绝对值,环比,同比数据 定位下降人群:是整体下降还是某一群体用户数下降 这里就涉及到用户分群,用户分群的方法有很多,涉及到用户价值的分群常见的就是RFM模型,将分完群的用户进行数据对比,看看上个月付费用户的结构占比跟本月有什么不同,当然用户分群的方法也不止这一个,还有按照会员等级分群(主要用会员等级进行用户分群),按照活跃程度(新用户/留存用户/回流用户),按照消费习惯(一般用户表里面都会有用户的标签,标识这个用户的消费习惯,表示这个用户更喜欢购买哪一类的商品),不管用什么分群方法,都需要纵向对比,也就是这个月和上个月付费人群的对比 原因分析: 如果是付费用户整体下降(这种是大家都不想看到的现象,欣慰大盘数据的驱动需要投入大量的资源,也有可能是自然波动),考虑可能的原因主要有:用户整体流失,比如用户流失到竟对;或者本月有什么特殊情况,影响到了整体的用户活跃;或者是从活动维度去观察,是不是活动的力度减小,影响了用户付费的欲望 如果是某一个用户群体下降:考虑的原因可能有商品品类的影响,是不是某一类商品在平台没有上架,或者某一类商品涨价;或者这一类用户受到了哪些影响,一般可以从属性和行为角度去分析 提出策略: 针对分析出的原因提出可落地的策略(策略一定要落地,要具体,比如如果你提出一条策略是:提升新注册用户数,那么等于没说,老板多数会diss你,但是你如果说,通过减少注册时填写的非必要字段,如年龄/职业,来简化注册流程,挺升注册转化率,进而提升新注册用户数,那感觉是不一样的)人均付费金额下降分析人均付费金额的降幅是多少?绝对值,环比,同比数据 定位原因人均付费金额下降可能的原因主要有:订单数量下降;每个订单包含的商品数的下降/某一个品类购买数下降 提出策略:针对分析出的原因提出可落地的策略 总结问题 明确造成销售额下降的原因到底是什么(定性以后,记得一定要量化,不量化会被diss) 提出有针对性的建议 如何预防再次发生 1.2 递进(可用于整体结构和章节内部结构)这种结构适合对一个问题进行探索,就像上一个例子中,我们针对每一个可能原因进行分析的时候,就是采用的这种分析方法,这种分析结构特别适合对一个小问题进行深入的探索分析,层层递进,深挖原因,这里在举一个例子:某一个App的新注册用户数环比上个月减少,需要你做一个深入的分析,找到原因,提供改进策略分析思路:新注册用户数的的影响因素是一个典型的漏斗结构,也是一个典型的单向性用户旅程,画一张图就能说明白: 如图所示,影响注册用户数的原因全部标注在漏斗里面,但是注册全流程这个漏斗只能看个大概流失,所以我们会对某一步进行细化,这张图上,我们对用户从启动到注册成功进行细化,细化到用户行为,这样能够提出一些产品上的改进意见,这个时候,如果想要提升新注册用户数,只需要针对每一步流失原因进行分析,找到提升策略就可以了,基本上是所见即所得的分析 比如:我们想对提交注册信息到注册成功这一步进行优化,那么首先我们要找到用户注册失败的原因有什么,一般有: 用户已注册 密码格式不合规 系统错误 未勾选《隐私协议》 在提出建议的时候,只要针对以上原因提出具体改进意见就可以了1.3并列结构(多用于整体结构)这种结构一般遇到的情况不多,常见的有对不同的校区进行经营分析/对不同品类的商品进行售卖分析,基本都是以描述型分析为主,因为分析的主体是并列关系,所以只需要每个主体就行单独分析就好,基本采用的分析思路是一样的1.4因果结构(多用于章节内部结构)这种结构一般用在复盘分析报告中,复盘是常见的数据分析报告类型之一,也是很多公司比较重视的一个报告,比如双十一复盘/新手活动复盘等等, 以电商某一次大促复盘为例 ,这里直接写结构: 总体描述: 本次大促整体数据表现,整体活动节奏的介绍;销售额是多少,同比提升多少;利润情况;参与用户有多少,同比提升多少;卖出商品有多少,同比提升多少;各个子活动的贡献是多少 子活动1的效果分析 子活动1的简介,作用,发力点 子活动1的贡献是什么,对于直接提升结果指标或者间接提升指标有哪些贡献 子活动1的成本是什么?投入产出比是多少? 子活动2的效果分析 子活动x的效果分析 最后汇总,提出优化建议 2.分析方法 讲完了整体结构,我们就该进入到具体分析的过程里面,这里的分析方法,主要想说说怎么去针对不同的数据进行分析,也就是说怎么通过数据看出问题,这里介绍常用的5种分析方法,但是有一句话非常重要,想写这节的最前面: 数据分析师一定要懂业务,在分析之前最好能把问题定位个大概,再去捞数,再去分析,否则每天会沉浸在漫无目的取数中,我认为一个数据分析师最重要的能力是要懂业务,从数据的角度看业务,才能驱动业务2.1 对比分析 横向对比 横向对比就是把一个指标按照不同维度拆分,去对比不同维度的变化,举个简单的例子来说就是: 昨天的DAU增长了30%,那么把DAU进行拆分,可以拆分成以下三种方式: DAU=新注册用户数+留存用户数+回流用户数 DAU=北京活跃用户数+河北活跃用户数+山东活跃用户数+…… DAU=北京活跃用户数+河北的活跃用户数+……                 =北京的新增用户数+北京的留存用户数+北京的回流用户数+河北的新增用户数+河北的留存用户数+河北的回流用户数+…… 这里留一个疑问,怎么去选择优先下钻的维度?想明白以后分析的效率就会有很大提升 纵向对比 在进行完横向对比以后,就要开始进行纵向对比,纵向对比主要是在时间维度上,还拿上一个例子来说,我们按照第一种方式进行横向对比以后,就要纵向对比,见下表: 2.2分布分析 分布分析一般是应用的场景比如用累计消费金额去分组/按照用户一个月活跃天数去分组,这些场景都有两个共性的特征: 属性值都是数值类型,或者日期类型 属性值非常多,比如累计消费金额可能从1-90000中间任意一个数字,也就是属性值非常多,没办法用每一个属性值去单独分析,因此需要分组 还是上图说明: 2.3交叉分析 交叉分析一般指多维度交叉,或者不同指标之间的交叉 多维度交叉其实有点类似对比分析的第三类分类方法,这里不在赘述了,还是那个图,但是在实际分析中的作用其实很是强大,具体如何应用就需要大家举一反三啦,仔细看看这张图,可以换成哪些分析场景下的哪些场景的交叉分析: 不同指标交叉一般用在分析变化趋势中,或者寻找相关因素的时候,上图: 这样既能看绝对值的变化,又能一目了然的看出变化趋势,如果不同指标之间呈现一定的相关性,那就是相当完美了 2.4漏斗分析 漏斗分析模型比较好理解了,一般在行为分析中常用到,直接上图吧: 是不是有点眼熟?漏斗分析一般分析应用在分析用户使用某项业务时,经过一系列步骤转化的效果,因为用户会沿着产品设计的路径到达最终目标事件,在分析每一步转化的时候会用到这个模型 2.5矩阵分析 矩阵分析是一个不错的分析模型,主要用在分类上面,常见的有用户分类、产品分类等,比如像常见的RFM模型是一个三维矩阵,有八个象限,上两个图看看:矩阵分析其实不难理解,但是涉及到一个比较关键的问题,就是临界点怎么选择,通俗来说就是第一象限和第二象限的临界值是多少,有的是0,有的不是0,举个例子:我想用活跃度和累计消费金额对1万个用户进行分群,使用矩阵分析我建好了这个二维矩阵,我第一件事就是先要确定原点的坐标值,也就是说用户的累计消费金额大于x,就会出现在第一/四象限,如果小于x,就会出现在第二/三象限,想确定这个值需要一定的方法,会用到一些分类算法,这个可以去网上查一些关于分类的教程,有很多,后续我会写一盘文章来介绍分类,这里就不细讲了 以上就是数据分析最重要的两个模块,当然在实际 *** 作中还有很多需要思考的地方,太细节的东西不太能够面面俱到,这里留给大家去思考的空间,比如: 数据分析报告怎么讲成一个故事,比如背景-现状-原因-策略-预期结果-复盘结果? 每一页PPT怎么排版会让你的数据分析报告可读性更高? 如果你的数据分析报告不采用上述的结构,还能用哪些结构? 怎么让你的数据分析报告显得更高大上?可以留言交流哦


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/7402706.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-05
下一篇 2023-04-05

发表评论

登录后才能评论

评论列表(0条)

保存