想要学习了解更多数据挖掘的信息,推荐CDA数据分析师课程。CDA认证考试由经管之家主办,该课程要求学生根据业务场景来综合判断,洞察数据规律,使用正确的数据清洗与特征工程方法,综合使用统计分析方法、统计模型、运筹学、机器学习、文本挖掘算法,而非单一的机器学习算法。点击预约免费试听课。
数据挖掘,已成为各大公司的必备职位,针对顾客行为和购买历史等进行数据整合、分析挖掘,达到精准定位营销的目的。但数据挖掘并不是简单的数据采编,更多需要一些算法技巧,比如我们做数据挖掘会采用分类算法、聚类算法、关联规则等。下面 大圣众包威客平台 我就这三种算法详细介绍下,如何实现精准营销。分类算法:
我们做电商平台,用户留存是很重要的一部分,但顾客流失走向我们是无法控制的,只能通过预测,这时就需要运用到分类模型。分类算法属于预测性模型,根据过去数据、分析来预测将来一段时间的行为过程。分类学习方法所使用的数据集称为训练集,训练集中每一个个体都有明确的类别,通过训练集中的数据表现出来的特征,为每一个类找到一种准确的描述或者模型。其优点是容易理解、预测准确度高。分类算法有logistic回归,神经网络、贝叶斯分类器、SVM等算法。
分类算法实际应用案例:
比如高尔夫球场,这个跟天气情况关系密切,因为前期的数据分析,得出天气是否晴朗,气温如何,湿度如何、风力如何都会影响到打高尔夫球场的人,因此,作为一个高尔夫球场的运营人员便可以根据分类模型,去构建决策树,不同的天气因素,决定是否开放等。
聚类算法:
说完分类算法,谈谈聚类,聚类算法主要是按照样本、数据自身的属性去归类,用数学方法根据相似性或差异性指标,定量确定样本亲疏关系。聚类有Kmeas,Two-step
聚类算法实际应用案例:
电商公司想要新进一批高端服装,但究竟进什么款式等,这需要根据消费群体特征来分类,首先需要从上一年的数据,查看顾客购买行为、消费额、购买时间等通过聚类方法进行分类,找出每类群体的特征,然后根据这类群体进行相应的推送,而不是广撒网模式。
关联规则:
关联分析是从大量数据中发现样本之间有趣的关联和关系,从而为用户推送。关联分析主要用“支持度”(support)和“置性度”(confidence)两个概念衡量事物之间的关联规则。关联规则A->B的支持度support=P(AB),指的是事件A和事件B同时发生的概率。置信度confidence=P(B|A)=P(AB)/P(A),指的是发生事件A的基础上发生事件B的概率。这有点像我们高中的概率学。
我们常见的电商平台,“为你推荐”、“购买该产品的用户还购买了”等都属于关联分析,其依据就是通过分析之前购买产品的顾客的购物篮分析,分析顾客的购买习惯,可以帮助零售商制定营销策略。
数据挖掘不是简单的数据整合,采集,更多是根据用户的行为习惯,深入分析用户的意图,了解背后的动机,才能给予企业决策,更好服务营销。
原文地址: http://www.dashengzb.cn/articles/a-146.html
数据精准营销的七个关键要素说到大数据精准营销,不得不先提个性化的用户画像,我们针对每一类数据实体,进一步分解可落地的数据维度,刻画TA的每一个特征,在聚集起来形成人群画像。 01用户画像用户画像是根据用户社会属性、生活习惯和消费行为等信息而抽象出的一个标签化的用户模型。具体包含以下几个维度:用户固定特征:性别,年龄,地域,教育水平,生辰八字,职业,星座用户兴趣特征:兴趣爱好,使用APP,网站,浏览/收藏/评论内容,品牌偏好,产品偏好用户社会特征:生活习惯,婚恋,社交/信息渠道偏好,宗教信仰,家庭成分用户消费特征:收入状况,购买力水平,商品种类,购买渠道喜好,购买频次用户动态特征:当下时间,需求,正在前往的地方,周边的商户,周围人群,新闻事件如何生成用户精准画像大致分成三步。1.采集和清理数据:用已知预测未知首先得掌握繁杂的数据源。包括用户数据、各式活动数据、电子邮件订阅数、线上或线下数据库及客户服务信息等。这个是累积数据库;这里面最基础的就是如何收集网站/APP用户行为数据。比如当你登陆某网站,其Cookie就一直驻留在浏览器中,当用户触及的动作,点击的位置,按钮,点赞,评论,粉丝,还有访问的路径,可以识别并记录他/她的所有浏览行为,然后持续分析浏览过的关键词和页面,分析出他的短期需求和长期兴趣。还可以通过分析朋友圈,获得非常清晰获得对方的工作,爱好,教育等方面,这比个人填写的表单,还要更全面和真实。我们用已知的数据寻找线索,不断挖掘素材,不但可以巩固老会员,也可以分析出未知的顾客与需求,进一步开发市场。2.用户分群:分门别类贴标签描述分析是最基本的分析统计方法,描述统计分为两大部分:数据描述和指标统计。数据描述:用来对数据进行基本情况的刻画,包括数据总数,范围,数据来源。指标统计:把分布,对比,预测指标进行建模。这里常常是Data mining的一些数学模型,像响应率分析模型,客户倾向性模型,这类分群使用Lift图,用打分的方法告诉你哪一类客户有较高的接触和转化的价值。在分析阶段,数据会转换为影响指数,进而可以做"一对一"的精准营销。举个例子,一个80后客户喜欢在生鲜网站上早上10点下单买菜,晚上6点回家做饭,周末喜欢去附近吃日本料理,经过搜集与转换,就会产生一些标签,包括"80后""生鲜""做饭""日本料理"等等,贴在消费者身上。3.制定策略:优化再调整有了用户画像之后,便能清楚了解需求,在实际 *** 作上,能深度经营顾客关系,甚至找到扩散口碑的机会。例如上面例子中,若有生鲜的打折券,日本餐馆最新推荐,营销人员就会把适合产品的相关信息,精准推送这个消费者的手机中;针对不同产品发送推荐信息,同时也不断通过满意度调查,跟踪码确认等方式,掌握顾客各方面的行为与偏好。除了顾客分群之外,营销人员也在不同时间阶段观察成长率和成功率,前后期对照,确认整体经营策略与方向是否正确;若效果不佳,又该用什么策略应对。反复试错并调整模型,做到循环优化。这个阶段的目的是提炼价值,再根据客户需求精准营销,最后追踪客户反馈的信息,完成闭环优化。我们从数据整合导入开始,聚合数据,在进行数据的分析挖掘。数据分析和挖掘还是有一些区别。数据分析重点是观察数据,单纯的统计,看KPI的升降原因。而数据挖掘从细微和模型角度去研究数据,从学习集、训练集发现知识规则,除了一些比较商业化的软件SAS,WEKA功能强大的数据分析挖掘软件,这边还是更推荐使用R,Python,因为SAS,SPSS本身比较昂贵,也很难做页面和服务级别的API,而Python和R有丰富的库,可以类似WEKA的模块,无缝交互其他API和程序,这里还需要熟悉数据库,Hadoop等。02数据细分受众“颠覆营销”书中提到一个例子,可以引述一下,大家思考一个问题:如果你打算搜集200份有效问卷,依照以往的经验,你需要发多少份问卷,才能达到这个目标?预计用多少预算和时间来执行?以往的方法是这样的:评估网络问卷大约是5%的回收率,想要保证收到200份的问卷,就必须有20倍的发送量,也就是发出4000份问卷,一个月内如果可以回收,就是不错的表现。但现在不一样了,在执行大数据分析的3小时内,就可以轻松完成以下的目标:精准挑选出1%的VIP顾客发送390份问卷,全部回收问卷寄出3小时内回收35%的问卷5天内就回收了超过目标数86%的问卷数所需时间和预算都在以往的10%以下这是怎么做到在问卷发送后的3个小时就回收35%?那是因为数据做到了发送时间的"一对一定制化",利用数据得出,A先生最可能在什么时间打开邮件就在那个时间点发送问卷。举例来说,有的人在上班路上会打开邮件,但如果是开车族,并没有时间填写答案,而搭乘公共交通工具的人,上班路上的时间会玩手机,填写答案的概率就高,这些都是数据细分受众的好处。03预 测“预测”能够让你专注于一小群客户,而这群客户却能代表特定产品的大多数潜在买家。当我们采集和分析用户画像时,可以实现精准营销。这是最直接和最有价值的应用,广告主可以通过用户标签来发布广告给所要触达的用户,这里面又可以通过上图提到的搜索广告,展示社交广告,移动广告等多渠道的营销策略,营销分析,营销优化以及后端CRM/供应链系统打通的一站式营销优化,全面提升ROI。我们再说一说营销时代的变迁,传统的企业大多还停留在“营销1.0”时代,以产品为中心,满足传统的消费者需求,而进入“营销2.0”,以社会价值与品牌为使命,也不能完全精准对接个性化需求。进入营销3.0的数据时代,我们要对每个消费者进行个性化匹配,一对一营销,甚至精确算清楚成交转化率,提高投资回报比。 大数据下的营销颠覆经典的营销4P理论,Product,Price,Place,Promotion,取而代之的是新的4P,People,Performance,Process,Prediction。在大数据时代,线下地理的竞争边界早就不存在,比的是早一步的先知能力,利用大数据,从顾客真实交易数据中,预测下一次的购买时间。 营销3.0时代关键词就是“预测”。预测营销能够让你专注于一小群客户,而这群客户却能代表特定产品的大多数潜在买家。以上图为例,你可以将营销活动的目标受众锁定为20万潜在客户或现有客户,其中包括特定产品的大多数买家(4万人)。你还可以拨出部分预算用于吸引更小的客户群(比如20% 的客户),而不是整个客户群,进而优化你的支出。过去我们看数据可能是被动的方式,但预测营销强调是决策价值,比如购买时间,你该看的不是她最后的购买日期,而是下次购买的时间,看未来的存活概率,最后生成客户终身价值(CLV)。预测营销催生了一种新的数据驱动营销方式,就是以客户为中心,核心在于帮助公司完成从以产品或渠道为中心到以客户为中心的转变。04精准推荐大数据最大的价值不是事后分析,而是预测和推荐,我就拿电商举例,"精准推荐"成为大数据改变零售业的核心功能。譬如服装网站Stitch fix例子,在个性化推荐机制方面,大多数服装订购网站采用的都是用户提交身形、风格数据+编辑人工推荐的模式,Stitch Fix不一样的地方在于它还结合了机器算法推荐。这些顾客提供的身材比例,主观数据,加上销售记录的交叉核对,挖掘每个人专属的服装推荐模型。 这种一对一营销是最好的服务。数据整合改变了企业的营销方式,现在经验已经不是累积在人的身上,而是完全依赖消费者的行为数据去做推荐。未来,销售人员不再只是销售人员,而能以专业的数据预测,搭配人性的亲切互动推荐商品,升级成为顾问型销售。05技术工具关于预测营销的技术能力,有几种选择方案:1、使用预测分析工作平台,然后以某种方法将模型输入活动管理工具;2、以分析为动力的预测性活动外包给市场服务提供商;3、评估并购买一个预测营销的解决方案,比如预测性营销云和多渠道的活动管理工具。但无论哪条路,都要确定三项基本能力:1)连接不同来源的客户数据,包括线上,线下,为预测分析准备好数据 ;2)分析客户数据,使用系统和定制预测模型,做高级分析 ;3)在正确时间,正确客户,正确的场景出发正确行为,可能做交叉销售,跨不同营销系统。06预测模型预测客户购买可能性的行业标准是RFM模型(最近一次消费R,消费频率F,消费金额M),但模型应用有限,本质是一个试探性方案,没有统计和预测依据。“过去的成绩不能保证未来的表现”,RFM只关注过去,不去将客户当前行为和其他客户当前行为做对比。这样就无法在购买产品之前识别高价值客户。我们聚焦的预测模型,就是为了在最短时间内对客户价值产生最大影响。这里列举一些其他模型参考:参与倾向模型,预测客户参与一个品牌的可能性,参与定义可以多元,比如参加一个活动,打开电子邮件,点击,访问某页面。可以通过模型来确定EDM的发送频率。并对趋势做预测,是增加还是减少活动。钱包模型,就是为每个客户预测最大可能的支出,定义为单个客户购买产品的最大年度支出。然后看增长模型,如果当前的总目标市场比较小,但未来可能很大,就需要去发现这些市场。价格优化模型,就是能够去最大限度提升销售,销量或利润的架构,通过价格优化模型为每个客户来定价,这里需要对你想要的产品开发不同的模型,或者开发通用,可预测的客户价格敏感度的模型,确定哪一块报价时对客户有最大的影响。关键字推荐模型,关键字推荐模型可以基于一个客户网络行为和购买记录来预测对某个内容的喜爱程度,预测客户对什么热点,爆款感兴趣,营销者使用这种预测结果为特定客户决定内容营销主题。预测聚集模型,预测聚集模型就是预测客户会归为哪一类。07AI在营销领域的应用去年人工智能特别火,特别是深度学习在机器视觉,语言识别,游戏AI上的突飞猛进,以至于人们开始恐慌人工智能是不是已经可以接管人类工作,我个人是对新技术有着强烈的兴趣,也非常看好新科技,数据与现实的关联。我以前在国外零售店买单的时候经常被询问“你有没有购物卡”,当我说没有收银员会赶紧劝我免费开通,有打折优惠,只需要填个手机号和邮箱,后面就可以针对我的购买记录做营销活动,而当我下次进来,他们就让我报出电话号码做消费者识别,当时我想如果做到人脸识别,岂不是更方便,刷脸就可以买单。而这个场景在去年也有了实验,蚂蚁金服研发出了一个生物识别机器人,叫蚂可Mark,据说其认脸能力已经超越了人类肉眼的能力。还有VR购物,Amazon推出的无收银员商店Amazon Go,通过手势识别,物联网和后续数据挖掘等技术实现购物体验。针对营销领域,主要有以下三种预测营销技术:1、无监督的学习技术无监督学习技术能识别数据中的隐藏模式,也无须明确预测一种结果。比如在一群客户中发现兴趣小组,也许是滑雪,也许是长跑,一般是放在聚类算法,揭示数据集合中 真实的潜在客户。所谓聚类,就是自动发现重要的客户属性,并据此做分类。2、 有监督的学习技术通过案例训练机器,学习并识别数据,得到目标结果,这个一般是给定输入数据情况下预测,比如预测客户生命周期价值,客户与品牌互动的可能性,未来购买的可能性。3、强化学习技术这种是利用数据中的潜质模式,精准预测最佳的选择结果,比如对某用户做促销应该提供哪些产品。这个跟监督学习不同,强化学习算法无须仅需输入和输出训练,学习过程通过试错完成。从技术角度看,推荐模型应用了协同过滤,贝叶斯网络等算法模型。强化学习是被Google Brain团队的负责人Jeff Dean认为是最有前途的AI研究方向之一。最近Google的一个AI团队DeepMind发表了一篇名为《学会强化学习》的论文。按团队的话来说,叫做“学会学习”的能力,或者叫做能解决类似相关问题的归纳能力。除了强化学习,还在迁移学习。迁移学习就是把一个通用模型迁移到一个小数据上,使它个性化,在新的领域也能产生效果,类似于人的举一反三、触类旁通。强化学习加上迁移学习,能够把小数据也用起来,我认为是很激动人心的,通过AI来创造AI,数据科学家的部分工作也可以让机器来实现了。欢迎分享,转载请注明来源:内存溢出
评论列表(0条)