如何通过领英寻找客户

如何通过领英寻找客户,第1张

作为国际知名的职场社交网站,LinkedIn进入中国市场已有两年多。不仅仅是老外,中国用户的粘性也在逐年增长。除了招聘,求职和交友功能,我们是否还可以挖掘出更多的价值?

前期准备

Profile完善个人页面(利用推荐信,技能认可等体现专业性)

Group加入行业内的小组(即可免费向同组内的成员发送信息)

利用搜索引擎获取目标客户的相关信息,并利用以下工具推断出其邮箱地址。

推断目标公司邮箱的格式

>

验证邮箱的有效性

>

Connect建立联系

为什么要建立联系?- 获取邮箱等****,创建客户信息数据库Database

建立联系之后即可在对方主页的Contact info看到邮箱地址。有些会有电话和其他****,帮助我们创建客户信息数据库Database,便于后期的电话推广Cold call/邮件营销Email campaign/站内信沟通Inmail。

如何建立联系?

如果你是LinkedIn普通免费用户

关键词搜索

以目标职位为例:

普遍试用- 采购相关Purchasing/Sourcing/Buyer/Procurement/Supply chain/Merchandiser

基于你的调查- 其他目标职位Engineer/IT etc

Similar的应用

利用Similar标签找到更多相似的潜在客户,如下图找到30是个类似HSBC汇丰银行的客户。

发送邀请

如果知道对方邮箱地址(或者推断出对方邮箱地址),选择“其他”,填写对方的邮箱,发送邀请。

若不知道邮箱地址,选择不认识对方。

如下图编辑邀请内容Note后发送邀请。(邀请内容请使用个性化的语言)

如果你是付费用户,后期会有更多技巧发布。敬请关注。

下面我为你准备的关于市场营销的论文,欢迎阅读借鉴,希望对大家有帮助。

一、数据分析时代演变历程

(一)数据10时代

数据分析出现在新的计算技术实现以后,分析10时代又称为商业智能时代。它通过客观分析和深入理解商业现象,取缔在决策中仅凭直觉和过时的市场调研报告,帮助管理者理性化和最大化依据事实作出决策。首次在计算机的帮助下将生产、客户交互、市场等数据录入数据库并且整合分析。但是由于发展的局限性对数据的使用更多的是准备数据,很少时间用在分析数据上。

(二)数据20时代

20时代开始于2005年,与分析10要求的公司能力不同,新时达要求数量分析师具备超强的分析数据能力,数据也不是只来源于公司内部,更多的来自公司外部、互联网、传感器和各种公开发布的数据。比如领英公司,充分运用数据分析抢占先机,开发出令人印象深刻的数据服务。

(三)数据30时代

又称为富化数据的产品时代。分析30时代来临的标准是各行业大公司纷纷介入。公司可以很好的分析数据,指导合适的商业决策。但是必须承认,随着数据的越来越大,更新速度越来越快,在带来发展机遇的同时,也带来诸多挑战。如何商业化地利用这次变革是亟待面对的课题。

二、大数据营销的本质

随着顾客主导逻辑时代的到来以及互联网电商等多渠道购物方式的出现,顾客角色和需求发生了转变,世界正在被感知化、互联化和智能化。大数据时代的到来,个人的行为不仅能够被量化搜集、预测,而且顾客的个人观点很可能改变商业世界和社会的运行。由此,一个个性化顾客主导商业需求的时代已然到来,大数据冲击下,市场营销引领的企业变革初见端倪。

(一)大数据时代消费者成为市场营销的主宰者

传统的市场营销过程是通过市场调研,采集目前市场的信息帮助企业研发、生产、营销和推广。但是在大数据以及社会化媒体盛行的今天,这种营销模式便黯然失色。今天的消费者已然成为了市场营销的主宰者,他们会主动搜寻商品信息,货比三家,严格筛选。他们由之前的注重使用价值到更加注重消费整个过程中的体验价值和情境价值。甚至企业品牌形象的塑造也不再是企业单一宣传,虚拟社区以及购物网站等的口碑开始影响消费者的购买行为。更有甚者,消费者通过在社交媒体等渠道表达个人的需求已经成为影响企业产品设计、研发、生产和销售的重要因素。

(二)大数据时代企业精准营销成为可能

在大数据时代下,技术的发展大大超过了企业的想象。搜集非结构化的信息已经成为一种可能,大数据不单单仅能了解细分市场的可能,更通过真正个性化洞察精确到每个顾客。通过数据的挖掘和深入分析,企业可以掌握有价值的信息帮助企业发现顾客思维模式、消费行为模式。尤其在今天顾客为了彰显个性,有着独特的消费倾向。相对于忠诚于某个品牌,顾客更忠诚与给自己的定位。如果企业的品牌不能最大化地实现客户价值,那么即使是再惠顾也难以保证顾客的持续性。并且,企业不能奢望对顾客进行归类,因为每个顾客的需求都有差别。正是如此,大数据分析才能更好地把握顾客的消费行为和偏好,为企业精准营销出谋划策。

(三)大数据时代企业营销理念――“充分以顾客为中心创造价值”

传统的营销和战略的观点认为,大规模生产意味着标准化生产方式,无个性化可言。定制化生产意味着个性化生产,但是只是小规模定制。说到底,大规模生产与定制化无法结合。但是在今天,大数据分析的营销和销售解决的是大规模生产和顾客个性化需求之间的矛盾。使大企业拥有传统小便利店的一对一顾客关系管理,以即时工具和个性化推荐使得大企业实现与顾客的实时沟通等。

三、基于数据营销案例研究――京东

京东是最大的自营式电商企业。其中的京东商城,涵盖服装、化妆品、日用品、生鲜、电脑数码等多个品类。在整个手机零售商行业里,京东无论是在销售额还是销售量都占到市场份额一半的规模。之所以占据这样的优势地位,得益于大数据的应用,即京东的JD Phone的计划。

JD Phone计划是依据京东的大数据和综合服务的能力,以用户为中心整合产业链的优质资源并联合厂商打造用户期待的产品和服务体验。京东在销售的过程中,通过对大数据的分析,内部研究出一种称为产品画像的模型。这个模型通过综合在京东网站购物消费者的信息,例如:年龄、性别、喜好等类别的信息,然后进行深入分析。根据分析结果结合不同的消费者便有诸如线上的程序化购买、精准的点击等营销手段,有效的帮助京东实现精准的营销推送。不仅如此,通过对于后续用户购物完成的售后数据分析,精确的分析商品的不足之处或者消费者的直接需求。数据30时代的一个特征便是企业不在单纯的在企业内部分析数据,而是共享实现价值共创。所以,京东把这些数据用于与上游供应商进行定期的交流,间接促进生产厂商与消费者沟通,了解市场的需求,指导下一次产品的市场定位。总的来说,这个计划是通过京东销售和售后环节的大数据分析,一方面指导自身精准营销,另一方面,影响供应商产品定位和企业规划,最终为消费者提供满足他们需求的个性化产品。

四、大数据营销的策略分析

(一)数据分析要树立以人为本的思维

“以人为本”体现在两个方面,一方面是数据分析以客户为本,切实分析客户的需求,用数据分析指导下一次的产品设计、生产和市场营销。另一方面,以人为本体现在对用户数据的保密性和合理化应用。切实维护好大数据和互联网背景下隐私保护的问题,使得信息技术良性发展。

(二)正确处理海量数据与核心数据的矛盾

大数据具有数据量大、类型繁多、价值密度低和速度快时效高的特点。所以在众多海量的数据中,只有反映消费者行为和市场需求的信息才是企业所需要的。不必要的数据分析只会影响企业做出正确的决策。鉴于此,首先企业需要明确核心数据的标准;其次企业要及时进行核心数据的归档;最后要有专业的数据分析专业队数据进行分析,得出科学合理的结果以指导实践。

(三)整合价值链以共享数据的方式实现价值创造

Sean Ellis 是在 DropBox 负责增长的,他在 DropBox 工作时间很短,不到 2 年,但是这期间每年 DropBox 的增长率在 500% 到 700% 之间(一年 5 倍到 7 倍),这是非常疯狂的一个增长速度,他根据自己的经验总结出来了一套 AARRR 的框架:

这套框架中所有的步骤都是围绕人展开的,也就是用户。

以往的产品设计或者业务设计,都是根据功能来推的,市场功能、产品功能、销售功能、客户功能。但是今天,无论是产品运营、用户运营、市场营销、客户服务还是销售,所有的东西都应该是以用户为核心的,这套AARRR 框架就是以用户为核心的。

如何用数据分析的方法获取新用户

怎样在数据驱动下做拉新?数据驱动的拉新很简单,首先一定要对你现在的运营渠道进行拆解,一般来说美国把市场营销渠道分成两块:

第一部分:对外营销

广告投放(在各种不同的媒体和平台上做广告投放),线下活动,销售直接找到潜在客户给人家打电话等等。一般来说对外营销都是需要花钱的。

第二部分:入站营销

入站营销是用户有主动的意愿,比如说自然搜索(百度、谷歌搜索引擎),内容的运营,社交网络的传播,这些基本上可以理解为入站营销。

无论是入站还是对外营销,第一步都要让每个渠道有衡量的指标,如果你想增长一个东西,你必须要能衡量它。如何衡量它,就需要在你整个不同的资源里面,进行数据的标记,这个过程是很重要的。

这是谷歌的一套标准的代码,无论是线下的活动,还是线上的营销(包括电子邮件营销/短信/ Push推送),尽量把它统一在这套框架下进行收集数据,然后才能对比是否有效果。我们并不关心来的是三个转化还是两个转化,我们关心的是他的转化效率。比如两次活动的效果评估时,看哪个转化率好,哪个转化率差,大致是差多少。所以说分析的核心就是可比性,所以要用统一的方法来持续衡量不同的渠道。

发现有差异以后,就要问为什么这两者之间有差异,当你明白了为什么这两者之间有差异以后,往往就找到了真正的核心的原因。

有一个软件叫Sline,那个软件有点像今天的钉钉,是到现在为止增长最快的一个企业服务的软件,它的填写信息的注册流,大约有7步到11步之间的程度,每一个注册页面都要你填一个信息才能进入到下一个页面,但是长的流好还是短的人没人知道,唯一能证明这一点的话就是数据,所以说这里面还有很多可以改变的空间。数据分析的基本思维,就是找到数据的点,然后切分、对比、思考原因、去改进,改进后看数据是不是提高了。你的产品里面也有很多可以改进的空间,这里面就需要小范围迭代、小幅度的测试,把它做得越来越精、越来越好。

当然不一定每次都出来这么好的效果,有可能上完以后会很差,但是因为你有数据来证明了,就可以做持续的优化和改进。

为什么都在说留存很重要?

AARRR 模型的每一个模块都非常重要,但是在一个产品的早中期,真正最重要的一点,还是留存度。

产品的留存度,反映了整体产品的健康度。如果一个产品或者服务,没有把留存做好,没有把用户流失控制得很好,就不要去做大规模的推广和增长。因为当你的留存度很低的时候,就像水桶不断地在漏水,每次往里灌水都要成本。但是当你把留存做得很好之后,就可以迅速去扩张做增长了,所以说增长的第一个核心是用户的存留度,而不是大量的拉新。

留存度是一个很泛的概念,昨天100个用户来,今天有60个继续用,就是将近60%的留存。只有把留存用户拆解了,才能通过产品运营以及其他的手段来把它抬升。

Facebook 的一个研究报告表明,互联网产品一般隔日留存需要在 50% 以上,一周的留存率应该在 20% 以上,一个月的留存率必须是要在 10% 以上,这样的话才是相对 OK 的互联网产品。

但是这一个指标并不表示所有的企业完全适合,电商的品类、新闻的品类、O2O的品类,他们的自然使用周期是不一样的,所以说用户留存基础是不一样的,大家对自己要有一个细致的判断。

高留存用户用的产品功能和低留存用户是非常不一样的,通过留存度和产品的功能点,拆分了以后你会很快找到你产品核心的用户是怎么用的。

在linkedin我们发现用户在第一周之内增加的5个社交关系,后面留存下来的概率很大,这样你就找到了这个魔法数字:

LinkedIn 发现在第一周增加 5 个社交关系的用户留存度很高;

Facebook 发现在第一周增加 10 个好友的用户留存度很高;

Twitter 发现在第一周有 30 个 followers 的用户留存度很高;

Dropbox 发现在第一周安装两个以上 *** 作系统的用户留存度很高。

大家看每家公司都不太一样,但是核心来说每家公司都有这个数字,我相信百度、阿里、淘宝他们都有,你的产品也有这个数字,但是一定要花时间去寻找,把这个点做上去,就有很高的用户黏度。

一般来说高留存的用户,都是高价值的用户,高价值的用户需要有共同的营销和变现或者转化的方法。我在易趣工作3年多,易趣把它的买家分成了 4 个区:

A区的买家,是超级的买家,这部分买家占用户数量 5%,但是贡献整个的营业额超过 30%;

B区的买家,占用户量的20%左右,贡献的营业额是大约占 40%;

C区的买家,这类用户占到整个用户体系 30%,贡献的营业额是大约 25%;

D区的买家,超过 40% 左右的,却只贡献整个的 10% ,甚至是 5% 。

有了这个模式,就有了运营的方法,我们需要把低留存变成中留存,中留存变成高留存的,同时用运营、市场、产品销售各种手段,减低上面这个区隔往下边流失里面过渡。

领英的战略上有一个很大的胜出的地方,就是它一直在关注用户的增长和体验,而不是超级关注盈利,他把用户的基数和黏度做稳了,盈利是未来的事儿,这也是为什么他现在估值很高的原因。

如何使营收增长?

我们的资源是有限的,时间是有限的,不可能每个人都得到同样的待遇,你只能把最重要的资源放在最重要的地方,来解决最紧急的问题,一个销售管 500 个公司,他不可能给所有人打电话,他只能去管最重要的前面的几个,蓝色的部分。

数据分析的核心有三点:

标准化,要知道发生什么事儿了。

需要明白为什么,我们需要不断地持续思考为什么,因为只有你知道了为什么,才能解决它找到原因,在产品运营或者销售各种策略里面进行实际 *** 作。

基本上我们能够预测用户未来的行为。

因此如果我预测到这些用户会买单,我们就把销售的资源调到这里面来增加销售额。当时 Linkedin 一周的销售额增长了 270% ,以前的话销售打一个电话来,500 个人的名单,随机给人打电话非常没有效率,后来用了这个体系以后,他就给最重要的几个打电话,这样提高了效率,得到了更好的效果。

近期成为月入两万的数据分析师的广告遍地都是,可能会对一些未入行的同学造成错觉。我个人感觉数据分析师这个岗位,可能近几年会消亡。

这不意味着这份工作本身不重要,而是说这份工作本身可能会转化为产品运营的一些必备技能,而不再需要单独特设人力去做这件事。或者说,不是再需要你学习SQL或者学习python,只是为了成为一名数据分析师。作为一名数据分析师,职业自身的壁垒正在不断消减,更加主动的拥抱业务,解决真正的产品和用户需求,或将成为未来的发展趋势。

数据分析师的日常工作

我们来看下预设中的分析师的一些工作场景,看看数据分析师核心的工作价值。

取数

数据清洗

数据可视化

统计分析

数据方向建设和规划

数据报告

取数 — SQL

很多人对数据分析师的预设是SQL达人,包括现在很多数据分析师的核心工作其实就是进行SQL取数。

这项工作的痛点和难点在于,我们为了得到一个结果,通常需要join很多的数据集,然后整个SQL语句就会写的特别长,而且可能会出现一些问题:比如join的表可能会出现key是重复的情况,造成最终的SQL结果因为重复而变得不可用。所以我们需要专人去专门维护各种各样的数据集,他们知道每张表应该怎么用。

但这个其实是关系型数据库遗留下来的产物——我们完全可以不需要join那么多的表。现在的分布式计算的框架,已经完全可以支持我们只保留一张大宽表,有需要的所有字段,然后所有的 *** 作都在这张大宽表上进行,而且可以保证查询速度。这样数据分析最大的痛点已经没有了。至于你说大宽表里面存了很多重复的数据,是不是很浪费资源(关系型数据库之所以不用大宽表就是从存储空间和性能的trade-off角度考虑的):放心,分布式存储本身是不贵的,而计算效率则是由分布式计算框架进行专门优化的。现在的计算框架计算的响应速度,已经可以在大宽表上可以很快的得到结果了。相比之下,多次join *** 作反而可能会更慢一些。

同时,现在很多公司的NB框架,其实都已经支持拖拽取数了,也根本不需要写SQL了。

此外,不得不说的一点是,SQL语句本身真的不难。可能如果你自己静下心来想学,一个周末的时间肯定能搞定。而资历老的数据分析师,并不会比资历轻的数据分析师,在SQL语句的写作上有什么本质的区别。以前可能还有一些小表join大表的trick,但现在计算框架大多都已经优化过这些了。所以即使是需要写SQL的场景,本身也是没有什么难度的。

所以,通过大宽表来解放数据分析工作的生产力。即使在一定要写SQL做join *** 作的时候,本身也不是一件壁垒特别高的事情。取数这件事儿,对于其他岗位的同学,就已经没那么复杂了。

数据清洗 — Python

数据清洗其实是很多强调python进行数据分析课程中,python部分的主要卖点。包括但不限于,怎么处理异常值,怎么从一些原始的数据中,得到我们想要的数据。

在日常产品需求过程中,这种需求的场景其实很小。因为数据大部分都是自己产生的,很少会出现没有预设到的极端值或者异常情况。如果有的话,一般就是生产数据的同学代码写的有bug,这种发现了之后修复代码bug就行。

数据清洗在工作场景的应用在于落表——就是把原始数据变成上面提到的,可以通过SQL提取的hive表。这个工作是需要懂代码的同学去支持的,他们负责数据的产出,包括数据的准确性,数据的延时性(不能太晚产出)等等。前文提到的生成大宽表,其实也可以是他们的工作。这其中就涉及到一些代码的效率优化问题,这个就不是简单懂一点python可以搞定的了,可能涉及到一些数据压缩格式的转化,比如Json/Proto buffer到hive表的转化,还有一些计算框架层面的调优,比如spark设置什么样的参数,以及怎么样存储可以更好的提升查询速度。

所以这部分工作一般是由懂代码的同学完成的。可能数据团队会有比较少数的同学,管理支持全公司的基础表的生成。

数据可视化 — Tableau

很多之前在数据分析做实习的同学,主要的工作内容就是在一个商业化的软件(比如Tableau)上,做一些统计报表。这样可以通过这些数据报表,可以很方便的查看到所属业务的一些关键指标。这些商业软件通常都比较难用,比如可能需要先预计算一下才能输出结果;而且不太好做自定义功能的开发。稍微复杂一点的需求场景,可能就需要一个专门的同学捣鼓一阵,才能输出最终的统计报表。

现在有更先进的套路了。

首先可视化。很多公司打通了前端和后端的数据,这样就可以通过网页查询原始的数据库得到数据结果。而现在很多优秀的前端可视化插件,已经可以提供非常丰富的统计图形的支持。而且因为代码是开源的,可以根据公司的需求场景进行针对性的开发,公司可以再辅以配置一些更加用户友好的 *** 作界面,这样一些复杂需求也有了简单拖拽实现的可能。而且这些前端js代码都是免费的!对于公司来说也能省去一笔商业公司的采买成本。

其次很多商业软件,都是针对小数据集场景设计的。在一些大数据集的场景,一般需要先预计算一些中间表。而如果自己公司定制化开发的前端展示结果,就可以根据需要自主设置计算逻辑和配置计算资源,先在后端进行预计算,前端最终只是作为一个结果展示模块,把结果展示和需要的预计算进行解耦。这样就省去了很多中间表的产出,也会更加快速的得到想要的业务指标,快速迭代。

所以可视化数据的工作量也会大大减少。而且会变成一个人人都可以 *** 作,快速得到结果的场景。

统计分析

对于一名数据分析师而言,统计学分析可能是一块知识性的壁垒。尤其是在现在ab实验成为互联网公司迭代标配的今天。需要把实验设计的那套理论应用起来:比如ab实验进行后的显著性检验,多少样本量的数据才能让这个结论有效可信呢。

但是,你我都知道,经典的统计分析其实是一个非常套路性的工作。其实就是套公式,对应到代码层面,可能也就一两行就搞定了。这个代码的统计分析结果可以作为ab平台的指标展示在最终的ab结果上,大家看一眼就能明白。即使是对那些可能不知道显著性是什么意思的人,你可以跟他简单说,显著了才有效,不显著就别管。

这么一想是不是其实不怎么需要投入额外的人力进行分析?

其他数据相关的工作

数据层面的规划和设计。移动互联网刚刚兴起的时候,可能那时候数据分析师需要对每一个数据怎么来设计一套方案,包括原始的埋点怎么样,又要怎么统计出想要的结果。但现在大部分已经过了快速迭代的时代了,新产品的埋点添加可以参考老产品,这就意味着形成套路了。而一旦形成套路,其实就意味着可以通过程序直接完成或者辅助完成。

数据报告。那就真的是一件人人都能做的事情了,试想谁没在大学期间做过数据报告呢?以前只是因为数据都是从分析师产出的,而如果人人都能取到数据的话,数据报告是不是也不是一个真需求呢?

在我看来,数据分析师这个岗位的天花板和其他岗位相比起来是比较低的。可能工作一两年之后,从岗位本身就已经学不到什么额外的工作知识了。主要的工作内容技术含量不是特别高,技能性的更多的是一些可以简单上手的东西,而且做的时间长了,在这些技能性的事情上得到的积累并不是很多。

数据分析师更像是一个在时代变迁过程中的一个中间岗位:我们从一个基本没有数据的时代,突然进入了一个数据极大丰富的时代,在这个过程中,我们都知道重视数据。那怎么能够利用这个数据呢?可能之前的那一帮人并没有太多的经验,于是老板就招一些人专门来研究一下它,同时做一些底层数据的优化。

经过多年的迭代,现在互联网行业的每个人都知道数据的价值,也大概知道了什么样的数据是重要的,怎样可以更好的挖掘数据背后的价值。同时底层的基础设施也已经支持可以让一个之前没有经验的同学可以快速的上手得到自己想要的关键数据。这时候对于一个职业数据分析师来说,他的任务就已经完成了。就如同当人人都会讲英语的时候,翻译其实也就没有存在的价值了。

此后的数据分析工作,可能不再是一些单独的人做的工作。它会变成一个产品和运营的基础工具,而且足够简单,没有取数的门槛。只是产品运营怎么样可以更好的认识数据,通过数据本身更好的配合产品运营的工作,这已经超脱我们一般理解的数据分析师的工作了,而是一个产品运营分内的工作。

对于那些已经在从事数据分析师岗位的同学来说,建议不要把心思全部投入到数据分析的本职工作上,以完成任务为核心KPI。而是不要给自己设置边界,多从用户的角度思考问题,不要因为是产品运营的工作就不去做了。数据分析师这个职业发展到这个阶段,要么做更加底层的数据建设,要么拥抱业务,最大化的发掘数据背后背后的价值。不要再死守着数据分析的“固有技能”沾沾自喜了。

数据本身的价值是无穷的,作为数据分析师,你们已经先人一步的掌握它了,要有先发优势。你们最接近数据的人,是最可能发现用户的宝藏的人。

以上就是关于如何通过领英寻找客户全部的内容,包括:如何通过领英寻找客户、大数据分析时代对市场营销的影响研究、互联网创业公司如何用数据分析做用户增长等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/sjk/10203293.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-06
下一篇 2023-05-06

发表评论

登录后才能评论

评论列表(0条)

保存