数据分析 – 青瓜传媒 //www.f-o-p.com 全球数字营销运营推广学习平台! Fri, 10 May 2024 07:18:43 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.2.21 https://static.opp2.com/wp-content/uploads/2021/04/favicon-1.ico 数据分析 – 青瓜传媒 //www.f-o-p.com 32 32 如何搭建社群运营数据分析体系? //www.f-o-p.com/344130.html Fri, 10 May 2024 07:18:43 +0000 //www.f-o-p.com/?p=344130

 

现在的商业环境,已经开始从流量运营,进入留量运营时代了。而在存量时代,追求数字化,可以说是一种必然的趋势。所以,关于数据分析的内容,已经被越来越多的企业所重视。而我们在运营社群的时候,数据分析也是必不可少的一项基本技能。

所以,今天我们来聊一聊关于社群运营数据分析的内容,因为这块内容比较多,所以我会分上下两篇来阐述。

在实际工作过程中,社群运营的好坏、流程是否存在问题,社群是否活跃等等问题,很多时候我们是很难靠主观感受去评判的!这个时候就需要用一些相对较客观的数据来作为我们的评判依据。这个时候,我们就需要通过对数据的分析,来让我们知道,社群运营有没有更好地承接、完成在业务端的使命,实现相应的指标目的。

另外,放到我们个人身上,作为一名优秀的社群运营从业者,具备数据分析能力将会是一个绝对的加分项,它可以帮助我们吃透社群的核心数据指标,从而制定相应的运营策略,去促使社群完成企业的运营目标。

而且,可以毫不夸张的说,在不久的将来,数据分析能力,将会是所有运营领域从业者必须要掌握的一项技能。

那言归正传,我们该如何进行社群运营数据分析工作呢?

我们都知道,社群运营它其实是一个系统工程,并不是简单地建立一个社群就完事了。所以面对这样一个系统工作,我们的数据分析当然也不能随便抓取几个数据指标来进行分析,就自认为是在做数据分析工作了。

一个合理的数据分析工作,它至少需要在一套合理的体系下面去开展。所以我们做社群运营数据分析,关键就是要搭建一套适合自己的社群运营数据体系。

为什么?因为数据体系的搭建,至少可以帮助我们解决四个问题:制定北极星指标;量化运营成果;提升运营效率;评价成员绩效。

在整个社群运营生态下,如果没有一个比较完善或方便快捷查询的数据体系可供社群运营使用,进而导致社群运营人员无法快速有效乃至准确判断整个社群运营的用户在各环节转化效果,这样也就无法高效的优化改进运营策略,如果长此以往,就会失去在这一领域的进攻先机。同时,社群运营团队及团队个人所从事的许多工作也无法准确的衡量和效果评估,这也极大的限制社群运营发展的想像空间。最后,没有现状数据,我们无法设定一个合理的北极星指标,从而无法有效指导我们的运营计划。

所以,社群运营想要做好数据分析工作,一定要搭建适合自己实际运营情况的数据分析体系。

【社群数据分析基础概念】

那具体如何搭建呢?

在开始讲之前,我们首先来明确两个概念:数据维度和数据指标

所谓的数据维度,就是指切入分析问题的角度,切入点,也是同学们可能经常会听到叫做“破局点”。

比如要实现7天引流1万用户,那我们可能需要选择不同的渠道进行推广,我们可以笼统的将这些渠道划分为线上、线下。那么线上选择广告投放或者进行裂变营销,线下选择跟商业体、实体店、代理商等进行合作推广。那这里线上推广、线下布局,就是我们为了实现7天引流1万用户这一目标的不同维度,也就是破局点。

我们所有的社群运营数据分析工作,都要在同一纬度上去进行数据分析,如果跨纬度进行分析,就会失去意义了。比如你不能拿线上的自媒体渠道的数据,来跟线下代理商合作推广的数据进行比较,因为两者其实没有什么可比性!我们应该是在同一个维度下面,比如线上推广,我们筛选出几个不同的线上推广渠道。例如自媒体软文渠道、短视频投广、SEO等等,然后去比较不同的线上推广渠道,他的各项数据,最后再结合投入,筛选出一个最优的推广渠道,然后进行扩大传播。这样的数据分析才是合理,且有实操指导意义的。

数据指标:是用来衡量某种行为、某个对象的结果与表现的。比如刚才我们说到的,实现7天引流1万用户,那这里面的1万就是一个具体的数据指标。当然也包括像我们常说的入群率、转化率、退群率等等这些数据。

当然,以上这两个概念,倒不用过于执著!毕竟我们是社群运营的数据分析,而不是要进行商业数据分析。

除了这两个概念之外,我们还需要了解关于数据的分类问题:

首先,我们把整个社群运营过程中可能涉及到的数据,进行一个分类。如果有小伙伴听过我之前的关于社群运营的系列课的话,就能知道,其实整个社群营销,大致可以把社群运营工作划分为三个版块,分别是引流、社群活跃和变现。

所以我们的社群运营数据,大致上也可以划分为3个核心环节,即拉新环节数据、社群活跃环节数据以及社群成交转化环节的数据。

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

当然,如果社群运营数据就这么划分的话,不免显得有点过于笼统了。所以我们应该在此基础上,对社群运营数据做进一步的细分。如果我们把拉新、社群活跃、成交转化这3个环节,看成是数据维度的话,那在不同维度下面,我们还可以把具体的数据指标,根据其特征,划分为3个关键数据指标:分别是:基础数据指标、转化率相关数据指标以及用户行为相关数据。

基础数据指标:就是指具体的、可直接查看的数据类指标,例如广告投放曝光量、社群新增人数、付费人数、活动参与人数等等。

转化率相关的数据指标:则是指需要根据基础数据指标,计算得出的!例如:社群推广的扫码率、活跃用户占比、付费转化率等等。

用户行为相关的数据:则是像打卡、发言、评论等等,这类跟用户互动的有关的,所以用户行为相关数据,也可以说成是互动类数据。

那下面这个表呢,就是社群运营过程中,根据3个环节,我总结出的3类关键数据指标的具体内容。当然,实际的社群运营过程中可能还会涉及更多的数据类型,这个也跟你的社群运营规模是相关的,我也就不一一罗列了!我只是简单的,把一些相对比较重要的数据进行总结、归类。

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

好,那理解了数据维度和数据指标这两个概念,以及具体数据指标的分类之后,我们就可以开始正式尝试搭建适合自己的社群运营数据体系了。

那具体的流程,我们大致可以划分为:设计用户路径图、梳理关键数据指标、数据接入、搭建数据分析框架以及最后的决策支持。这五个步骤。

其中设计用户路径图和梳理关键数据指标,是今天这篇文章的重点,而关于数据接入、搭建数据分析框架以及最后的决策支持,我们会放到下一篇再来讲。

【第一步:设计用户路径图】

在这里,我通过之前给一个公司做的社群活动来做案例,便于各位可以更好的掌握。

这个社群呢,是一个知识付费的社群,要推广一个系列课,前期主要是通过软文、问答等渠道进行推广,然后引流至社群,接着通过一个打卡活动,来实现增加用户黏性的目的,为最后的转化做准备。当然,这个活动实际上会更复杂一点,它还涉及到营销裂变和分销的内容,那这些我都给他简化了,我们主要通过这个来掌握社群运营的数据分析就够了。

首先,第一步是画出用户路径图。

我个人认为用户路径图其实在很多运营工作中是非常重要的。尤其是我们做社群运营的,毕竟社群运营本质上就是对用户的运营,所以我们必须要了解用户的实际路径是什么样的,这样才能知道用户可能面对什么情况,我们需要对其作出什么的引导,以及内容调整等等。所以,关于用户路径图,我希望每一个社群运营人都要能够掌握,都要会画。

那这个案例里面,他的用户路径图,大致是下面这个图:

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

用户在知乎问答这类第三方平台上面看到我们的软文,然后点进其中的连接关注我们公众号。接着公众号会自动推送客服微信,只要用户添加好友后就可以免费试听一节课程的内容。因为当时我们的课程有三门,分别是用户运营、内容运营以及社群运营,之所以等用户添加微信之后,客服首先会简单做一个询问,主要目的就是给客户打上标签。

这也是我个人认为,我们在做社群的时候,不建议直接引流到群内的原因。因为通过首先添加客服微信,一方面可以给用户打标签,另一方面是如果没有促成转化,那也可以沉淀到客服的好友里,后面通过朋友圈的营销,进一步地潜移默化去影响用户。

回到这个路径上来,当客服给用户打上标签之后,我们就先把用户感兴趣的试听链接发给他。比如说用户对社群运营感兴趣,那我们就把相关的试听课推给他。然后等到用户听完以后,后台系统会自动跳出一个领取优惠券的页面。

到这一步,就会出现两种情况,一种是用户直接用这个券就下单购买了,另一种呢,就是用户没有下单。我们主要来说第二种情况。当然,那些课程没有听完,也就是没有领取优惠券的,我们也算在这一部分里。

等到我们的客服微信好友关注的数量差不多了,我们就开始建群!(在这里插一句,有个关于365建群原则的,不知道有多少人知道?不知道的可以去翻看我之前的文章哦)

等到我们建群之后,我们在社群里做了一个打卡活动,只要用户连续7天,坚持在社群内打卡,就可以额外再获得一节试听课,同时再获得一张优惠券。

好,那以上这个就是一个简单的用户路径图了,当然我把中间的一些话术、具体的活动细则这些都省略了。

【第二步:去梳理用户路径上的关键点,以及相对应的数据指标】

根据这个路径图,我们可以把整个路径简化成下面这些关键节点:

广告曝光、公众号、客服微信、社群、以及最后的付费下单。

然后我们根据这几个关键节点,把每个环节内的基础数据和转化数据罗列出来:

比如在第一个部分:广告曝光,这里最主要的基础数据是:曝光次数,而对应的转化类数据则是:曝光率和内容的点击率

接着公众号环节,对应的基础数据则有:新增人数、关键字消息数,对应的转化类数据则又:公众号承接率和扫码率。另外在这个阶段还涉及到用户行为分析,也就是当用户关注你的公众号之后,会有哪些行为,比如消息互动、点击下面的菜单栏等等。

而客服微信,也就是微信个人号,最主要的就是统计添加好友数,以及要给用户打上标签,这是为后期用户分层做准备的。也可以说是这一步存在的最主要目的。

接下来就是社群,在这个部分我们又可以细分为三个阶段,分别是获客期、激活期和留存期。

一、我们一个个来讲,首先是获客期

在这一阶段最主要需要我们关注的基础数据是入群数和退群数,对应的转化指标则是:入群率和退群率。

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

在这里需要注意的是,入群人数并不完全等同于客服添加好友的数,因为一方面当我们的客户添加好友数量达到前面我们说过的360建群原则之后就可以直接建群了,而随着社群搭建,就会有其他的新用户主动入群。其次是通过客服微信一对一的跟用户沟通,给用户打上标签。这样我们可以根据不同的用户搭建不同类型的社群。所以这两者是不同的。

那在这个阶段,我们主要需要分析的是入群率和退群率这两大指标

入群率=入群人数/入群渠道曝光量

退群率=某个周期内退群人数/社群总人数

前者主要反映了你引流的内容是否有足够的吸引力,哪一个渠道的曝光效果最好。而后者则主要反映了你的社群内容是否具有价值,可以留得住人。同时,我们还可以进一步分析,什么样的裂变营销活动,可以提升入群率;用户退群的原因是什么?在什么时间点退群?如何降低退群率?等等。

那在这里还有一个隐藏的数据指标:净增用户数=某个周期内新增人数-退群人数

净增用户数是最直接、客观的考核指标,决定了后续用户的规模和运营策略。

数据的正负可以帮助社群运营者分析社群处于上升阶段还是下滑阶段,其主要价值在于参考,而非直接得出结论。与其相对应的就是社群累计人数这个指标。

累计与净增的差异,代表了留存和流失,结合当期的运营行为和某日影响比较大的运营动作,做分析改进。

我们平时的工作可以通过创建一个像这样的表格:

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

那也可以利用第三方工具来帮助我们进行统计。

二、接下来是激活阶段

在这个阶段我们运营的关键是如何提高客户活跃,通常来讲社群的活跃度越高,社群的价值越大,反之社群的价值则越小。所以我们主要关注的数据有“互动率”和“内容数”两个方面。

互动率=当日有效发言人数 / 群成员总人数

在统计活跃用户数前,社群运营者需要先定义“互动”的标准,例如平均每天至少有一次发言,然后再通过这个标准来筛选出活跃用户,最后得出活跃用户数。如果碰到互动率下降的情况,我们就需要通过一些运营手段来解决了。

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

那在这个阶段,我们还可以继续衍生,例如根据实际运营策略,我们可以统计

消息总量和人均消息量

消息总量指的是一定时期内社群中消息数量的总和;人均消息量是将消息总量除以社群人数而得的数据。

从互动次数的指标上可以分析出有多少用户参与活动、有多少用户深度参与。次数多,说明参与深度比较高,那么我们可以进一步分析用户的喜好和群体的互动特点。

据此,可以在后续的活动中迭代优化策略,提升运营效率。

另外还有消息的时间分布

通过统计得出一天内消息的数量分布情况,从而把活动、分享、推送等内容安排在社群活跃的时间点,大幅提高社群中的活动参与率和用户积极性,同时提高用户满意度。

当然还可以统计:话题频次

统计一段时间内社群内出现的高频词汇,分析的主要目的是为了找出社群群员所喜好的话题,从而对群员的喜好进行分析,完善用户画像,使得活动、营销等行为更加受到用户的欢迎,提高社群的收益。

同样的,在社群激活阶段,我们依然可以通过创建一个表格来便于我们对数据的统计。

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

那以上这些,我们可以统称为关键行为及行为转化率。用户在社群内的关键行为还可以包括像打卡、内容阅读、活动参与等等。这个就看我们在具体运营社群时的运营策略以及共同目标事件是如何制定的了。

三、第三个阶段:留存期

在这个时期,我们运营的难题是如何提高留存率,因为留住老用户的成本,远低于获取新用户成本。那最主要关注的数据就是“留存率”。

留存率=周期内留存的用户数/新增用户数;这里的新增用户数是指在某个时间段新入群的用户数

那留存率的统计,一般是根据天数来定,比如第1日留存率:(当天新增的用户中,新增日之后的第1天还留存的用户数)/第一天新增总用户数;

第30日留存率:(当天新增的用户中,新增日之后的第30天还留存的用户数)/第一天新增总用户数;

所以,简单讲统计第X日留存,就是新增用户日之后的第N日依然还留存用户占新增用户的比例

那我们同样可以用一张表来进行统计,例如:

5个步骤,3种关键数据,帮助你搭建社群运营数据分析体系(上)

在这里各位需要有思想准备,只要是做社群,因为是跟用户挂钩的,所以涉及到用户生命周期的事,那么无可避免的用户就是会产生流失,我们无法做到100%不流失这种情况的。所以作为一名优秀的运营人,们应该是要能够接受流失这种情况的。

只是,我们必须深度分析流失原因,是产品还是服务还是体验?进而思考是否能通过提供优惠券或高价值内容等措施召回客户。

而且留存率也不是唯一的指标,特别是在社群裂变以后,会进入大量的非精准用户,也就是我们常说的,当用户和我们价值观不统一的时候,这些用户很难再进入到下一步阶段的。所以当面临这种情况的时候,选择适当的放手才是上策。

四、第四个阶段:付费转化期

好,回到用户路径上的最后一个关键节点就是付费阶段了。

在这一步最主要的数据指标就是:转化率了!也就是订单数/群成员总数。

那不同的行业、产品类型,转化率的合理范围都是不一样的。比如你不能拿电商行业的平均转化率,来作为知识付费领域的标准。同时,你也不能拿快闪群的转化率来衡量学习型社群的转化率。

所以,除了转化率之外,我们还需要关注社群ROI,也就是社群的投入产出比。以及客单价,订单总额/订单人数。

社群ROI主要是衡量投入和销售的均衡点,避免过度补贴,投入太大。一般来说ROI大于1,那么说明可以继续加大投入。

而客单价则是衡量一个社群营销情况的重要指标,在流量转化都不变的情况下,高客单价也就意味着高收益。但是客单价并不是越高越好,需要结合社群的实际情况而定

那以上就是根据用户路径梳理出来的关键节点,以及每个节点上所需要统计的关键数据指标。在这里,其实有漏掉一个环节。因为我举的这个案例他其实是一个快闪群性质的社群。比较注重最后的转化。而对于一些成长性社群或者核心会员群来说,还有一个环节是必不可少的,就是分享。

那在分享环节,我们最主要的是要测算用户的忠诚度与满意度,因为只有实现用户的裂变传播,才能带来用户的低成本增长。

所以要区分不同类型用户的比例,从而设计不同的活动,用户也会自发的去将内容传播到自己的社交圈子,带来新的用户。而达成这一点,社群的运营也就形成了一个闭环。

以上就是关于社群运营数据分析体系搭建的流程,前两个步骤的内容了。剩下的三个步骤的内容我们会在下一篇文章里来具体展开聊。

]]>
用户裂变数据分析 //www.f-o-p.com/339751.html Thu, 14 Mar 2024 09:22:14 +0000 //www.f-o-p.com/?p=339751

 

用户增长是一个工作和找工作的时候都不可避免的话题,那么用户增长,该怎么做数据分析?本文从两个方面分享了大部分企业做用户增长的方法,希望对你有所帮助。

01 用户增长的基本办法

1. 买量

在互联网公司中,买量是占大头的。

一般分为:

(1)搜索引擎的广告,包括:app应用市场、短视频平台、腾讯系、字节系、百度系的搜索平台等。

(2)二级渠道等广告,包括:免费APP内的广告(如看广告免费看小说)、游戏内的广告(如)、长视频网站的广告等。

(3)地推,对,你没看错,就是地推!有大型和小型的地推,大型的就像地铁广告、广场的广告牌等,小型的就是发传单,跟某些品牌做联名。

一般的互联网公司,主要是搜索引擎和二级渠道的量,稍微大一点的场子,如小红书、知乎、头啊腾之类的,才会上地推团队。

至于传统企业的互联网化,方法是类似的,但是结构上有所不同。一般做连锁门店的企业,都会以地推为主,因为成本低,见效快,搜索和渠道买量都是较少的。

所以不同的行业,用户增长的分析方法也是不一样的,我们下面会聊到。

2. 裂变(转介绍)

这种方式有一个大家都很熟悉的场景——拼多多砍一刀。

其实这个方式看起来非常简单粗暴,里面有很多细节需要去关注。

裂变也有几种固定的方式:

  • 活动裂变:通过设计活动、搭配激励,让用户主动拉人头进来获得优惠。这是pdd最常用的方式。像淘宝、京东团购单子,也属于这个类型的裂变。
  • 产品裂变:通过一些产品机制的设计,在一些节点让用户主动分享。比如分享后获得3天vip、游戏抽到了好皮肤、好卡牌的分享,一般是常驻的。
  • 私域裂变:这个方式俗称“老带新”,是传统高客单企业常用的,比如教育培训、医美、健身之类的,老带新都是常用的方式。还有一些做的比较规模化的,会把会员变成代理人,做规模化的返点,变成分销模式。

在大部分互联网企业是没有专门的部分去做活动裂变和私域裂变的,产品裂变是最常见的,因为只需要设计规则和产品引导,成本比较低。但同样的,效果也会比较差。

3. 优化流程

这一个部分的内容一般都搭配AB实验来使用,大部分时间都是来解决纷争。

比如:

用户进来了,转化不好,到底是产品问题,还是买量问题?!

产品裂变不行,到底是入口太深了,还是产品内容不行,用户不愿意分享?!

还有小部分时间,是正儿八经用来调优:

  • 多个活动方案,选择合适的参数,达到最优的裂变效果。
  • 多个产品点位、产品方案,进行赛马实验,选择最优路径。
  • 多个不同区域,实验不同的激励方案,成本最小化。

能做到流程优化这么细致工作的公司,一般来说都有点体量。虽然AB实验大部分时间都是拿来甩锅和争功劳的,但是面试的时候肯定会考的比较细,可以关注一下。

另外,正儿八经做调优的情况下,AB实验的原理一般已经不太重要了,因为都已经产品化了。而「怎么一次性做多个实验」这件事会变得更重要,所以如果业务上有多组AB并行的情况,了解AB实验的分桶规则和原理,会更有竞争力。

02 用户增长的分析思路

1. 买量工作如何分析?

以部分工作内容举例:

(1)每个应用市场的买量规则不一样,比如vivo市场有banner横幅,可以按照曝光计费,IOS市场一般都靠关键词优化和打榜。

(2)再或者用头条系的内容投放、和seo/sem的投放也不一样。一般内容平台的投放都会有推荐系统,如果可以精准定义出价值用户,再回传给平台,可以有效的进行算法调试来提升广告计划的roi。

(3)每种推广平台可以拿到的数据是不一样的,比如国内的巨量,基础的api只能拿到成本、收益等聚合数据,而国外的appflyer就可以拿到用户级别的归因数据。数据粒度的不一样,也会导致分析下钻的程度和成本不一样。

对于买量工作,都有硬性考核指标:ltv和roi。这两个指标是考核「投放做的好不好」这件事情的关键。所以所有关于买量的工作都可以基于这两个指标展开。

接下来就可以拆解流程指标:

(1)点击率、跳出率、页面转化率等产品流程指标,进行漏斗分析。

(2)来源渠道、ip归属、注册时段等用户基本属性,拆解时注意MECE法则。

上面的分析是相对公式化的,因为跟业务逻辑相对脱离。

再深入的分析,就需要用到以上提到的不同平台的买量知识,来判断推广计划的优劣以及素材的好坏了,篇幅原因不再一一列举,大家可以自行去了解一下自己公司所用的平台特性,有需求再详聊。

2. 用户裂变怎么分析?

用户裂变的分析也跟具体的工作方式有关:

  • 做活动裂变的,跟业务形态是非常相关的。需要分析的一般是活动的参数、活动面向的人群、活动的形式、激励的内容等寻找最优解。
  • 做产品裂变的,一般会拆解渗透率、分享率、分享链接点击率等产品化的内容。
  • 做私域裂变的,会更关注返现的激励、机制是否合理,有没有做防薅机制。其次就是对代理人的分析,进行多级代理的分层管理。

同样的,用户裂变有各种不同,也有一个分析的核心指标:裂变因子。

所谓裂变因子的公式为:

K 因子= (每个用户向他的朋友们发出的邀请的数量) * (接收到邀请的人转化为新用户的转化率)

当K>1时,用户群就会像滚雪球一样增大。如果K<1的话,那么用户群到某个规模时就会停止通过自传播增长。

但是要能精准的算到K因子,非常重要的一点是做好用户血缘,算好用户的父级和子级。

所谓用户血缘,就是需要知道A介绍了B,B介绍了C,且能知道A是C的上上级。一般血缘至少需要做三层,才好计算裂变因子。

3. 流程优化怎么分析?

这里的流程优化基本上都是指实验分析了。

实验分析分为两种情况:

(1)用实验来分功劳或者甩锅的场景,校验预设条件、流量、执行过程是否符合实验要求。如果符合就采用T检验或者卡方检验出结果,如果不符合就不出实验结果,反馈实验要求即可。

(2)正儿八经做实验调优的,主要校验流量分发是否符合要求,管理好实验过程即可。后续的实验结论和计算就按照标准化的AB过程给结论就行。这种情况反而更简单。

所以对于这一part,其实基本知识才是关键,AB实验的理论基础,多实验并行的技术基础与理解最终影响到实验结果。

03 写在最后

用户增长这件事的终极商业逻辑,是随着市场变化而变化的。

比如在13年-18年的时候,移动互联网的故事讲得通,大家都相信13亿人每人收1块钱的故事。

所以那个年代的增长一般做的就是DAU增长,有没有付费都无所谓。

因为在那个年代,互联网公司的商业逻辑是卖一个故事给投资人来融资,然后卖掉公司盘子变现。

而经过了很多年的迭代和很多故事,现在的用户增长更多的向转化和利润负责。

在这个场景下,反而会更务实的去分析用户、产品以及渠道的关系,向正常的商业逻辑迈进。

 

作者:汪浩

来源公众号:只说人话的小汪(ID:transform_wh)

]]>
2024年数据分析5大趋势 //www.f-o-p.com/336193.html Wed, 24 Jan 2024 01:05:10 +0000 //www.f-o-p.com/?p=336193

 

在快速发展和创新的数据分析领域,2024 年有望成为突破性趋势的一年,这些趋势将重新定义企业从数据中提取洞察的方式。

下文将分析2024 年 5 大数据分析趋势,揭示将塑造数据驱动决策未来的工具和策略。

趋势一:人工智能落地将成为关键战略

人工智能 (AI) 和机器学习 (ML) 的融合必将在 2024 年彻底改变数据分析。人工智能的运用不仅仅是一种趋势,更是一种必然。

这是释放人工智能和机器学习技术全部潜力的战略方法。随着组织努力应对大量非结构化数据,将人工智能用于数据分析成为自动化流程、优化效率和简化决策的关键。

应对措施:要拥抱可操作的人工智能,企业必须投资于数据管理,探索外部数据源,并利用人工智能应用程序,例如个性化营销、供应链数字化和人工智能驱动的自动化。

使用低代码/无代码工具为员工提供支持,可以提高生产力并确保竞争力,同时保持对负责任的人工智能和伦理道德考虑的关注。

趋势 2:边缘计算有助于实时数据洞察

在寻求实时洞察的过程中,边缘计算将在 2024 年成为游戏规则的改变者。对于需要闪电般快速响应的行业来说尤其重要,边缘计算可以筛选数据噪声,并立即在现场进行处理。

随着传统云跟上不断增长的数据洪流,边缘计算占据了中心舞台,提供了减少网络带宽、优化运营和节省成本的解决方案。

应对措施:企业必须优先考虑采用边缘计算,以克服实时数据分析中的挑战。该技术能够过滤不必要的数据传输到云,从而确保效率、成本效益并提高生产力。

强大的隐私和数据安全措施对于充分发挥边缘计算的潜力至关重要,要求企业适应不断变化的数据法规和隐私问题。

趋势 3:企业将利用数据网格分散数据所有权以促进创新

数据网格方法已成为开启数据管理未来的强大工具。数据网格倡导数据所有权和控制权的去中心化,将数据视为有价值的产品,促进互操作性,减少存储系统的压力,并确保符合安全和监管标准。

应对措施:企业应该采用数据网格理念来分散数据所有权,鼓励组建以领域为中心的数据团队,并授权团队选择符合其特定领域需求的工具。

在域数据团队中嵌入治理可以简化决策、减少瓶颈并提高数据管理的敏捷性。

趋势 4:合成数据彻底改变数据分析隐私

随着隐私问题的升级,合成数据将成为 2024 年的革命性趋势。合成数据诞生于计算机程序,通过提供注重隐私的替代方案来证明其价值。

Gartner 预测,到 2024 年,人工智能和分析解决方案使用的数据将有 60% 是合成数据,这将展示其在保护隐私和释放数据分析全部功能方面的变革潜力。

应对措施:企业必须战略性地整合合成数据,以解决数据稀缺、隐私问题并提高运营效率。识别合成数据可以取代敏感信息的场景、投资自动化数据生成工具以及跟上合成数据技术的步伐是充分利用这一趋势的关键步骤。

趋势 5:数据素养将成为有效利用数据的超级力量

2024 年,数据素养将成为一种重要工具,使组织能够有效使用数据、解释可视化、根据见解采取行动并负责任地处理数据。随着员工越来越多地与数据交互,数据素养成为一项磨练的技能,将组织转变为数据驱动的实体。

应对措施:企业必须优先考虑广泛的培训,以提高数据素养,使数据更容易访问,并使员工具备数据素养。可用性、速度、安全性、稳定性和可扩展性的核心原则必须支撑数据素养工作,以确保数据分析的持久成功。

总之,当我们驾驭2024 年数据分析的动态格局时,拥抱顶级趋势不仅是一种选择,而且是战略要务。

运用人工智能、采用边缘计算、利用数据网格、整合合成数据以及优先考虑数据素养是释放数据驱动决策全部潜力的关键。

抓住这些机遇的组织无疑将在这个不断发展的数据分析时代引领潮流,将自己定位为数字时代的先驱。

 

作者:晓晓

来源公众号:数据驱动智能(ID:Data_0101)

]]>
数据分析标准流程,收藏! //www.f-o-p.com/335048.html Wed, 10 Jan 2024 08:58:40 +0000 //www.f-o-p.com/?p=335048

 

本文系统地讲解了数据分析的标准流程,包括两种基本流程和六种具体情况,以及数据分析的结果应该如何应用到实际中。如果你感觉自己做了数据分析,得到的结果却不尽人意,就来阅读本文吧。

01 从问题出发的流程

此类流程,典型有三步:问题→数据→答案,一般业务部门会沿着这个路径思考。比如你是一个销售主管,你最关心的肯定是自己业绩表现,于是你会先看:

  1. 问题1:我的团队业绩如何?
  2. 数据1:当月达标情况……今年累计达标情况……
  3. 答案1:目前已达标,超额20%。

当然,有可能你思考得更深入一些。比如公司目前有一个业绩排名奖:全国每月同比增长排名前5的团队,可以拿一笔奖金。现在已经20号了,你很想知道自己有没有机会拿到这个奖。

于是,你会进一步分析:

  1. 问题2:目前排行+未来10天预计增速,能否让我拿到这个奖。
  2. 数据2:截至19日,同比增长排行……未来10天,各团队预计完成情况。
  3. 答案2:从目前行业+未来增速来看,我能/不能拿到奖金。

注意!问题2比问题1要复杂很多,因为问题1只需要统计历史数据就好了,问题2得预测未来10天的走势。

在怎么预测上,可能有好几种方法,比如:

  • 简单用前20天趋势,模拟未来10天走势。(趋势外推)
  • 根据去年同期的走势,模拟未来10天走势。(周期性分析)
  • 根据手头尚在跟进的客户*预计转化率,推荐结果。(业务模型)
  • 根据销售人数、销售费用等数据建模,再预测结果。(算法模型)

这就是我们常说的:复杂需求。当需求变复杂的时候,数据分析的流程也会变长,主要在数据环节,越复杂的方法,需要越多的数据准备。那么,有哪些是复杂方法呢?

02 四种复杂度下,分析流程

复杂度一级:认识现状。这种最简单,直接统计历史数据即可,比如截至1月3日,今年新增加的用户数/累计完成的销售业绩;1月3日时间点上,商品库存有多少等等。注意!单纯罗列数据,并不能解释现状好坏,需要数据+判断标准,比如累计销售业绩+业绩考核标准,这样才能发现问题。

在这种情况下,数据分析流程就是:业务想了解现状→统计数据指标+判断标准→描述现状。

复杂度二级:原因分析。典型的问题,比如业务问:“为什么我的业绩没达标?”注意,此时业务有假设和没假设,处理流程不一样:

最全总结,数据分析的标准流程,收藏!

总之,想做得深入,一定要业务题假设才行,不然数据自己把指标拆来拆去,很有可能只输出诸如:“因为人数少了,所以没达标,建议把人数搞高!”一类肤浅结论。

复杂度三级:优化表现。典型的问题,比如“我要怎么做,才能让业绩冲第一”。此时,需要把前边两个复杂度的问题全部做完,才能有结论。

最全总结,数据分析的标准流程,收藏!

所以,优化表现类流程会特别长。很多数据分析师不知道怎么提业务提升建议,其实就是因为缺少了前边这几步铺垫,啥情况都不了解,肯定没法直接提建议。

复杂度四级:预测走势。在上一节已经举过预测例子,实际上,凡是预测类的问题都很复杂。起码得先了解现状,知道问题点,知道业务有没有计划做改进动作,收集一大堆信息以后才能做合理预测。

此时:

  • 如果不考虑业务动作,那么可以直接用趋势外推,分析流程就很短:业务想知道预测结果 → 观察过往趋势→按过往趋势拟合函数→直接外推结果。
  • 如果业务想考虑自己的动作,比如“我追加投入会怎样”,这时流程就复杂了,业务想知道预测结果 → 观察过往趋势→建立模型,量化投入影响→代入参数,预测结果。

总之,业务上提问越复杂,需要分析的环节越长,前期铺垫越多,不然很难输出有价值的结论。

03 从数据出发的流程

还有一种情况,就是业务端没主动提需求,但是数据分析师需要主动从数据里读出业务含义,发现业务问题。此时的基本流程是:数据→问题→答案。

但是!这个流程经常走不下去。因为很多很多数据分析师只看得到数据,对业务情况不了解。因此不知道该怎么解读这个数。比如:

  • 知道累计销售额是多少,但不知道业务考核标准,因此没法解读“好/不好”。
  • 知道销售排行是啥,但不知道业务的排行奖励细则,因此没法看出谁有潜力拿奖。
  • 知道销售不好,是因为某个产品卖得很差,但不了解产品属性,没法深入分析。

因此本篇用了很长篇幅介绍业务视角如何展开分析,就是为了提醒那些每天对着报表发呆的同学,多和业务沟通,多加深对业务背景/业务状况的了解。好在,有很多公司业务和数据沟通还是很紧密的,因此,可以优化下“数据→问题→答案”的基本流程。

  • 比如:从异动出发,数据→异常波动→业务沟通→问题确认→深入分析/问题结束。这种一般是数据分析师发现了指标异动,之后向业务确认。如果异动是业务主动发起/早就知道/已经采取措施应对,那就不再纠结,如果是意外情况,就再深入分析,直到落实问题原因。
  • 比如:从标杆出发,数据→寻找标杆→业务沟通→可复制性确认/问题结束。这种一般是数据上,发现某个产品/某个地区/某个渠道表现特别好,此时数据可以向业务主动确认“是不是一个机会点”“值不值得推广”。如果业务早就知道了,那就结束。如果业务感兴趣,就深入分析标杆可复制性,推动标杆推广
  • 比如:从部门联动角度:数据→关联情况分析→信息共享→问题确认→深入分析/问题结束。这种一般是做经营分析的时候,比如发现销售走势下滑,提醒供应注意积压风险;比如发现营销花钱很猛,关注现金流;比如发现业务计划大活动,提醒客服/售后准备。先共享信息,再看相关部门是否有应对,如果没有应对再深入分析。

以上,所有流程总结如下图,方便大家取用:

最全总结,数据分析的标准流程,收藏!

 

作者:接地气的陈老师

来源公众号:接地气的陈老师

]]>
数据分析落地全流程 //www.f-o-p.com/332186.html Thu, 14 Dec 2023 01:54:26 +0000 //www.f-o-p.com/?p=332186

 

“你做的数据分析,一点都不落地!”

“除了写数字,能不能有落地建议!”

“看了数,所以呢?要干啥?”

这一类抱怨,经常在办公室响起,让做数据的同学很郁闷。到底咋做算落地?今天通过一个例子,系统讲解一下。

问题场景:某大型售后连锁服务商,同时承接厂商、企业、个人的服务需求,由客服接需求以后生成工单,分配给自营的服务点或外包的服务商,上门完成服务。

现在已定下,北极星指标是:实际完成工单件数,问:如何做进一步落地分析。

数据落地的常见错误

很多同学一看到问题,就说:老师,这题我会!工单=需求数*转化率嘛,既然要提高完成工单件数,那要做的就是,把需求数和转化率两个指标:

搞高!

所以数据落地的方式,就是:

一要多签厂商客户

二要多签企业客户

三要做大个人流量

四要提高客服效率

五要加强上门管理

六要提升师傅技能

你看,这建议多具体,多落地……

额……

首先,这么说确实没错,确实这些指标要搞高,确实这六条都是建议,问题是:这些都是正确的废话,即使不做数据分析师,大家也“早就知道了”,那肯定要搞高呀,还能搞低不成。

从数据推导业务落地行动,核心是:轻重缓急。通过数据分析找到哪里是重点,哪些是辅助,这才是数据计算的价值。如果不加计算,那人人都知道这也要加强,那也要加强。

第一步:梳理业务流程

想落地第一步,就是停止在数据层面坐而论数,就数论数。数据到底从哪个业务流程里来,又受哪个流程影响,得先理清楚。业务层的梳理,一般由粗到细,剥洋葱般层层深入。比如本案例中,虽然涉及业务的角色很多,但以客服收到线索为界限,可以划分为:需求/供给(如下图)。

数据分析落地全流程

目标是提高完成工单数量,第一级要做的轻重缓急判断,就是:需求/供给是否匹配。

仅看单个月份/整体供需情况,可能有三个状态:

  • 需求≥供给
  • 需求=供给
  • 需求≤供给

第一级判断,决定了后续落地方向:

  • 需求≥供给,提升供给能力
  • 需求=供给,持续观察/降低供给成本
  • 需求≤供给,发展客户,扩大需求

这就是V1.0的落地建议。注意,真实建议不会给得这么口语化,而是经过计算的:

数据分析落地全流程

这一步看起来简单,其实也暗藏玄机:怎么判断到底哪头大?

第二步:树立判断标准

判断标准,绝不是让老板拍个脑袋那么简单。需求≤供给相对容易观察,比如售后师傅人均工单数少、平均工资低、人员流失多等等。

但需求≥供给,很有可能是没有数据记录的。比如个人客户打电话进来,结果约不到师傅;企业客户打电话进来,要排队很久才能修理,但是因为签的是年度合同,所以一时半会不会翻脸。

这些情况都使得评估供给能力存在困难,数据不真实情况。等企业客户流失的时候才反应过来,已经太晚了。

因此,树立标准最好单独做分析。比如厂商/企业客户,需要匹配合同签约时服务条款(比如接单24小时内处理完毕);对个人客户,需要看客户发起需求后完成率,并且从完成率中,剔除客户原因(询价后嫌贵、上门找不到人、随口问问等情况)才能算出来相对准确的数字。

这是寻找判断标准的工作,建立标准工作后,还得跟各部门共识,才能达成一致认可。

这一步很重要,很多同学之所以难以落地,从第一步就是:只有数字,没有判断。或者判断条件不严谨,导致后边一深入,发现有很多业务上定义模糊,相互扯皮的地方。这样自然落不下去(如下图)

数据分析落地全流程

第三步:从短期到长期

注意:时间拖长,可能有季节性变化。比如特定设备在夏季/冬季使用频率高,更容易出故障。因此基于一个月份建立标准后,可以看一整年的情况,进一步锁定问题。

比如整体情况是:需求≥供给,但是:

  • 偶尔性(1、2个月)
  • 经常性(连续发生大于3个月)
  • 持续性(新上/临近报废)
  • 季节性(特定季节发生)

对应的轻重缓急也是不同的,能引导出的落地建议也不同(如下图)

数据分析落地全流程

第四步:找重点、抓重点

整体情况确定以后,再看局部问题。比如在第一阶段,锁定了问题来自:供给端,就是供给不够,那么该怎么进一步分析呢?

首先,业务有三条线,三条线谁是重点,要先区分出来。因为厂商/企业这种toB类客户和toC类个人用户,是根本两个发展思路,不仅当前在工单总数中占比不同,而且对未来发展重要性也不同,很有可能toB才是公司生命线。

在不同重要性影响下,即使当前数据相同,对未来发展的判断也可能是不同的,要先做判断,再往下细看(如下图)

数据分析落地全流程

第五步:从整体到局部

其次,售后服务是分区域交付的,因此哪个区域特别严重,哪个区域例外,再分出来。这个相对容易理解,每个区域的客户需求,门店/师傅配置都不同,很可能边远地区还是二次外包出去的,因此锁定问题点,也有助于:抓大放小,先解决问题突出的地区。

这里又有策略上差异:如果真看到某个地区需求特别旺盛,且都是外包在做,很有可能会选择“更换掉外包,自己设一个服务点”而不是“该外包需保持业绩发展趋势”。

在落地上,从来都不是哪个指标好了就保持,也不是哪个差了就改进的,很有可能有第三选择。

数据分析落地全流程

第六步:从局部到细节

最后,售后服务是分2个环节执行的,到底是客服派单慢,还是售后执行差,再分出来。

这个分解最为复杂。因为客服派单派不出去,很有可能是因为该区域/该大客户服务团队的工作已经饱和了,或者是因为节假日等正常原因,或者是因为在等零件调货等客观原因,所以不拿到接到单以后的服务团队/配套情况/节假情况等明细数据,很难说清楚到底是派单员的问题,还是服务的问题。

在考虑落地方案的时候,越细节的问题,越放在后边解决。因为很有可能落到特别细的细节以后,你会发现根本没有数据……手头有啥数据就用啥,这也是分析的基本原则。

第七步:从数据到管理

面对细节数据缺失,可以用管理手段配合数据建设。比如要求客服在首次接单且售后无异常的情况下,接单30分钟内完成分配,有异常就人工反馈标注。

还可以提前对各地区配件数库存进行检查,提前标注缺货标签,这样分析的时候,能区分哪些因为等配件而延迟。还可以要求服务师傅上门前/服务完成后进行系统打卡登记,这样统计师傅在岗情况,从而反推是否师傅已饱和。

注意,这些管理手段本身对业绩也是有帮助的。可以提前发现配套问题,可以监控一线行为奖励多劳多得,可以及时发现有增长潜力的地区。

所以,用这些业务上利益点做诱饵,是可以推动管理手段落地的,进而达到采集数据的目的,从而一举两得。如果没有好的管理手段,很有可能数据都采集不上来,自然也无法落地。如果没有业务上利益点,即使高层强力介入,强行把软件推下去,业务不配合、乱填一通,数据还是一塌糊涂。

小结

想把数据落地,就是这样一步步从粗到细,剔除各种异常,击中要害,最后靠和管理手段结合落地。

而不是简单地:

1、哪个指标低了就搞高

2、哪个指标高了就保持

也更不是出一套“神威无敌大将军模型”就能搞掂的。比如有的同学一看:诶呀!有客服派单!立马条件反射般:我们效仿滴滴/美团,建立人工智能派单模型。

那个,这是售后业务耶,机器的损坏率可不会像打车/外卖一样天天持续,需求就那么多。且上门还牵扯配件问题,哪里能随便乱套。所以想做的细,就得深入业务流程,耐着性子剥洋葱。

]]>
淘宝用户数据分析报告 //www.f-o-p.com/332105.html Tue, 28 Nov 2023 08:46:16 +0000 //www.f-o-p.com/?p=332105

 

本文是一份关于淘宝用户行为数据的分析报告,作者主要对淘宝用户行为和商品特性进行数据分析,并根据分析结果提出了一些想法与建议,与大家分享。

01 项目背景

选取了2017年11月25日至2017年12月3日之间,有行为的约500名随机用户的所有行为(行为包括点击、购买、加购、喜欢),数据量约5万,分析了用户行为与商品规律。

注:因获得数据时间范围有限,该数据为临近双十二数据,因此以下结论并不严谨,仅是为了锻炼数据分析能力。

02 分析思路

03 分析过程

3.1 前提

数据来源:阿里天池。

分析工具:MySQL 8.0,Navicat for MySQL。绘图工具:Excel。

对数据进行数据清洗后再进行进一步分析,处理过程略,下文中仅显示数据处理后结果,不展示处理过程。

3.2 整体数据

3.2.1 数据体量

3.2.2 整体数据概览

3.2.3 日均数据概览

从图中数据可以看出,12月2日和12月3日的日访客数和点击数较前几日更多,可能由于这两日为周末,且双十二临近,但访客数与点击数的提升并未影响成交量,因缺少后续数据,故暂时推测为这是为双十二活动预热。

3.3 用户分析

3.3.1 复购率和跳失率

复购率=购买次数>1的用户/所有购买用户

跳失率=点击次数为1的用户/所有点击用户

从复购率可以看出,一半以上的用户有复购行为,且跳失率为0,说明淘宝对用户有足够的吸引力,让用户停留。

因仅有9天的数据,对用户复购时间特征没有足够的数据进行分析,因此没有对复购时间特征进行分析。

3.3.2 用户行为分析

用户行为可分为四种:点击、收藏、加购、购买,对这四类行为进行分析。

因用户购买途径有4种:点击-购买;点击-收藏-购买;点击-加购-购买;点击-收藏-加购-购买。因此,从上图中暂时无法判断点击、收藏、加购与成交数的关系,需进一步分析。

将用户成交方式分为四类:仅有点击行为;仅有收藏行为;既有收藏行为又有加购行为;仅有加购行为。分别计算出这四类人群的成交率。成家率=有下单行为的该类用户/该类用户总人数。可以看出,有收藏加购行为的和仅加购用户的购买率相较另外两者更高,因此,可以推测,用户的加购行为在一定程度上可以提高成交率。

3.3.3 用户时间分布分析

以日为单位对用户行为进行分析,可以看出,加购量与点击量几乎呈正相关趋势,收藏数与点击数相关性也较好,而购买量则与其他量没有呈现出明显的相关性。由前文我们已经推测,12月2日与12月3日点击量较高是由于周末和双十二近邻的缘故,但成交量没有随之提升同样可能是由于双十二活动预热所致,要研究成交量与其他行为的关系需要更多的数据进行进一步分析。

以小时为单位对用户行为进行分析,可以看出,晚上7点到11点是用户点击量行为的高峰期,此时用户加购量也随之增加,但下午1点却是用户下单的高峰期。因此,如果商家想以增长曝光度为目的,可以在晚上7点到11点之间做活动,如果是以提高营收为目的的活动,则可以在下午1点左右开始。

3.4 商品分析

3.4.1 商品转化分析

对商品进行转化漏斗分析,可以看出从点击到购买有很大的流量损失。同样,对不同渠道的商品购买方式进行分析。

3.4.2 购买路径分析

对商品购买路径进行分析,点击购买率=商品仅点击后购买量/商品仅点击量,收藏购买率与加购购买率同上。可以看出,加购购买率明显高于收藏购买率与点击购买率。

3.4.3 热门商品分析

分别对点击量、收藏量、加购量和购买量前十的商品大类进行分析。可以看出点击量、收藏量和加购量前几名较后几名差距较大,但是购买量却没有表现出明显的差距,说明没有爆款的出现。

根据四者韦恩图可以看出,点击、收藏与加购前十品类的重合度较高,但购买量前十品类与其他三者的重合度却没有那么高,说明对于部分品类商品而言,虽然能吸引许多用户,但是购买转化率却相对较低,这部分产品的转化率有释放空间。

04 结论与建议

4.1 结论

通过以上分析,可以得到以下结论:

  1. 在2017年11月25日至2017年12月3日这段时间内,淘宝用户的回购率相对较高,跳失率低,说明淘宝对用户有着较好的留存效果。
  2. 从用户角度看,加购后成交率较收藏后成交率与直接点击成交率更高。
  3. 用户在点击量与加购量几乎呈正相关趋势,周末和活动邻近之前的点击量与加购量均有所提升,但购买量并未有显著提升。周末对用户购买量的影响需要更多数据进一步分析。用户在晚上7点到11点之间打开淘宝的频率极高,但成交量却是下午1点的时候更高,说明淘宝成为了用户的一种消遣方式,而不仅仅是购物工具。
  4. 从商品角度而言,商品加购后成交率较直接点击后成交率与收藏后成就率更高。
  5. 虽然商品点击量、收藏量、加购量前十的商品呈现出一定的差距,但成交量前十的商品差距却不大。且成交量前十的商品中有近一半商品未在另外3个榜单之中。
  6. 整体而言,淘宝的用户留存率较高,但夜间成交量转换率和热搜商品品类的成交转化率有提升空间。

4.2 建议

通过上述结论,对淘宝和商家提出以下建议:

获客:

对于商家而言,如果想要提高曝光度,获得更多流量,可在周末晚上7点到11点之间开始活动。

成交率转化:

由上述分析可以看出,淘宝的用户留存量较高,但消费潜能却有待释放,因此提出以下建议:

  1. 无论从用户消费习惯还是商品成交特性看,加购后成交率较点击购买和加入收藏购买成交率更高。因此,对于淘宝而言,可增加用户将商品加入购入车的入口,在商品的收藏界面可添加加购入口。对于商家而言,可设置加购优惠,提高用户加购率。
  2. 用户在下午1点的成交率最高,因此对于以提高成交量为目的的活动,可在中午或下午1点开始。而夜间虽然用户流量高,但成交量却一般,说明淘宝对于用户而言有一定的消遣属性。因此,一方面淘宝可以提高自身产品的趣味性让自身成为用户的消遣工具,另一方面,可在该时间段进行一些活动比如直播等提高商品优惠释放用户消费潜能。
  3. 有的商品品类虽然有着良好的点击量、收藏量与加购量,但成交量却并不高,对于这类产品,可通过淘宝官方进行联合活动,提高成交转化率。

写在最后

因获得的数据时间范围有限,而自己的电脑处理更大体量的数据较慢,因此整体处理的数据体量并不大,对于通过数据发现产品中的问题,也希望能与各位进行有关方面的交流。

 

作者:ZWM

来源:ZWM

]]>
营销人必备的数据分析思维 //www.f-o-p.com/331517.html Wed, 22 Nov 2023 07:42:48 +0000 //www.f-o-p.com/?p=331517

 

在这个互联网时代,我们把大部分的营销场景都设置在了互联网上。

在互联网上做营销,我们需要有互联网营销思维,它可以帮助我们理清互联网营销的方向、目标、策划、执行等方面的问题。同样,作为广告优化师在做分析时,也需要有数据分析思维。

数据分析思维可以有效地帮助我们优化账户,同时也能提高我们的工作效率。

对于广告优化师来说,后台操作已经熟悉得不能再熟悉了。但是在操作的时候,我们应该明白:

  • 账户有什么问题?
  • 操作的目的是为了什么?
  • 为什么要这么操作?
  • 操作完之后会带来什么结果?

大多数的竞价员在日常的工作中,频繁地调整后台,比如:否词、加价、降价、调匹配模式等等,而只有少部分的人知道自己为什么这么做,这么做会带来什么效果。

这就是为什么很多竞价员工作了很多年,却成为不了一名真正的广告优化师,仅仅只是一个后台操作员的原因。

而这个问题出现,就在于我们做数据分析时没有一个正确的数据分析思维。

什么是数据分析思维?

以下我将从5个方面来讲解:

  1. 发现问题
  2. 分析问题
  3. 制定方案
  4. 执行方案
  5. 复盘

首先,来看一组客户原先自运营的广告投放数据:

干货 | 顶级广告优化师必备的数据分析思维

发现问题

看完上图的数据,我们一目了然地发现:

干货 | 顶级广告优化师必备的数据分析思维

问题1:广州、重庆、郑州、西安的线索量很少,数值分别为:40、20、4、6,并且平均线索成本都偏高。

问题2:成都的平均线索成本是六个城市中最低的,但是线索量也只有70个,虽然比上面四个城市稍微高一些,但是相对于深圳的211个线索量还是偏低的。

分析问题

经过初步的观察,我们发现了上述问题,但这么看,仅仅只是看到了表面。

数据分析思维中,最为重要的一点就是:透过现象看本质,解决本质问题,才能有效地优化广告效果。

从表面上看,由于广州、重庆、郑州、西安线索量偏少,造成了平均线索成本偏高,但是我们要清楚线索量偏少的本质原因是什么?

(1)广州

我们先对比一下深圳和广州的数据:

干货 | 顶级广告优化师必备的数据分析思维

从以上数据我们发现,广州的线索率仅仅只有60.6%,正常值应该在80%以上。

通常来说,线索率偏低的原因跟客服的业务能力有关,所以查看了一下商桥会话记录,发现广州的受众人群和深圳的受众人群有所差异。同样的话术,深圳的咨询能得到线索甚至是成交,而广州的咨询却不行,这就是问题所在。

广州的展现量、点击量大约是深圳的1/3,但是咨询量却只有深圳的1/4,这样就造成了广州的咨询率只有4.85%。

根据咨询率偏低的问题,我们深入分析发现落地页制作得并不好,并且落地页在广州地区转化能力偏差。为了提高广州的咨询率,我们可以单独制作符合广州人群的落地页进行转化,线索率方面我们可以通过对客服人员的话术培训。

按照目前广州66个咨询,如果线索率能达到深圳的80.5%能有53个线索,成本能降到¥368.83。

(2)重庆

重庆其实和广州差不多,本质问题都是咨询率偏低,只有4.15%。

假如咨询率能提高至深圳的7.03%,那么咨询量将提高1.66倍,咨询成本将降至¥165.81。

(3)成都

成都的线索量少的问题,我们从中分析:

  • 线索量=咨询量×线索率
  • 咨询量=点击量×咨询率
  • 点击量=展现量×点击率

根据公式可知:线索量与线索率、咨询率、点击率、展现量有关。

从上面的数据我们会发现,成都的线索率为所有城市最高的87.5%咨询率10.10%,点击率为2.92%,都属较好的数值。

但是成都的展现量只有深圳的23%,所以本质问题是成都的展现量偏低

在效果较好的情况下,我们可以尝试进行拓量,带来更多转化

(4)郑州和西安

最后,我们分析一下郑州和西安的线索量少的原因,发现这两个城市的消费加起来仅仅只比重庆高一些。

两个城市的流量是比较少的,所以还需要进一步地拓量,这样才有足够的数据去支撑我们分析原因,只有充足的数据才能正确分析出问题所在 。

这五个城市的问题看似都是线索量偏低,但实际分析出来,各有各的不同,这也就是我们所说的透过现象看本质本质问题才是我们需要解决的问题。

不要看到问题就立即对后台进行一顿操作,这是竞价员普遍存在的问题,盲目操作有时只会越调越糟糕

制定方案

根据上述问题分析,我们开始制定具体的优化方案:

干货 | 顶级广告优化师必备的数据分析思维

在制定优化方案的时候,我们要明确知道优化方案的目的性,并且需要将目标量化,设定KPI(关键绩效指标),有助于我们后期复盘检验效果。

执行方案

之后我们按照方案进行操作,在这里就不过多地赘述了。但要注意的是,在执行之前,我们要定一个检验效果的时间周期。

在这个周期内,如果效果甚微,就执行下一个方案,在整个方案执行完之后,我们就开始进行复盘。

操作记录

我们在操作后台的时候,要做操作前的记录,清楚自己操作了什么。

这样能避免操作错误,并且在出现问题时可以找到原因,还能清晰地看出做了哪些操作,操作完有没有效果。

这是一个严谨的广告优化师需要做的,也能避免很多不必要的麻烦。

复盘

回顾目标:方案的KPI是什么?

效果对比:实现了这个KPI吗?

分析原因:为什么没有实现?

总结优化:之后需要怎么调整?

干货 | 顶级广告优化师必备的数据分析思维

回顾我们做了什么?从中明白问题的本质。

复盘是自我剖析的一个过程,我们需要对关键事件进行回顾,深入分析重点环节出现的问题。比如:为什么没有达到预想中的效果?是不是操作有问题?是不是方向错误了?需要怎么解决?

复盘的时候需要不断地反问自己,从回顾中找出答案,明白问题所在。复盘可以有效地避免以后犯同样的错误,把经验变成自身的能力,并且提高工作效率。

这是一个合格的优化师必备的技能,也是一种不断提升自我的方式。

总结

贯穿整个数据分析思维的宗旨是:深入理解行动的本质目的性

千万不要为了优化而优化,而是为了提升广告效果而进行数据分析和优化广告!

 

作者:增长超人

来源:增长超人

]]>
10000字全流程讲解完整数据分析 //www.f-o-p.com/331365.html Tue, 21 Nov 2023 03:32:57 +0000 //www.f-o-p.com/?p=331365

 

笔者支付产品经理,本篇文章内容基于自己从事支付领域从0到1搭建支付业务数据分析实战经验。

从一个小白接触支付业务,毫无章法胡乱看数据,到开始有点门道看表层数据,再到此篇文章输出的成体系的数据分析系列篇章,前后经历了2年多时间。此篇文章内容皆为当前阶段认知,并不全面,后续肯定会持续做迭代更新。

一、为什么需要数据分析

数据分析的重要性不言而喻,没有数据,就是感性呀。

你说你做完这个功能可以获得什么价值回报,没有数据支撑,太过苍白无力,没人信服你。但是只要你说,你做完这个项目,可以提升订单转化率多少个点,并且信誓旦旦讲,那没有人不会不理你。毕竟,这是赤裸裸的钱,谁不爱钱呢。

数据不会被观点打败,数据只能被数据打败。人家拿数据得出的结论,跟你的直觉再对不上,你心里再不服气,想反驳,也必须拿数据说话。

我们现在妥妥地已经进入了数据时代。

互联网公司,无一例外地强调自己的数据驱动决策;传统企业,现在最重要的战略就是数字化转型。

相信今天你能感觉得到,数据在我们的工作和生活中,已经成了空气和水一样的存在。

数据思维或者数据分析能力已经成为这个时代的必须,不是可选。

那么数据分析为何如此重要呢,我从以下4点来阐述。这些场景也是日常发生在我实际工作中的,我们用数据每天来做各种分析、洞察或者决策。

1. 量化IT投资成效,以数据驱动决策

无论哪家公司开发资源永远不够,每个产品经理都想争取开发资源做自己的项目,说自己项目更有价值。如何评估优先级,数据来说话。

站在公司或者决策者角度,数据最本质的作用,是作为资源调配的裁判,帮我们用最客观的方式将资源投到最有价值的事情上。

目前我所在公司运转方式为:年初制定年度KPI,如转化率或者用户满意度,那么接下来一年内所有产品经理运行的项目将按照这个指标来。

产品经理A和产品经理B同时启动了自己的项目,那么IT资源投到谁的项目上,A和B需要去做项目 ROI 的论述。谁的ROI更高,业务总负责人就同意将资源调配到哪个项目上,这样A和B都没什么话说,IT资源也将被用在刀刃上,减少资源浪费。

产品经理在论述项目价值时,采用自下而上的论证方式。比如说这个项目要完成哪些功能,功能1、功能2、功能3……每个功能带可以带来多大的价值,如转化率可以提升多少,这些都来自数据。

有时候我们以为的很大项目价值经这种层层灵魂拷问,最后验证预估价值不大,在早期就能减少资源浪费,而不是真的要等到功能上线才发现对业务价值帮助不大,那时候开发资源已被浪费。

如果你一直抱着项目上线后看真实数据反馈,除非你家开金矿的,可以容忍不断做尝试创新类实验。运气好成功了,大家都开心;运气不好,大家失败了,不怕,反正家里开金矿,大不了重头再来。但是,我想这应该是个伪命题。

今日头条系产品为何能快速发展?它们的产品方法论是什么?

今日头条是一家流量运作公司,对流量ROI的运用纯熟度与效率非常高。依赖强大的数据和算法系统,通过AB test 同时运行几千条功能测试,用最短的时间去找出最有价值的业务方向,得到结论后,快速推出市场,抢占先机。

中国互联网已经进入到一个获取流量成本很高的时代,企业并没有那么多容错机会给到大家不断尝试试错。要提高决策准确性,主要依赖数据论证。

2. 通过数据分析验证产品成效

你在面试时,你说你牛逼。如何叫人信服你?你说你牛逼,你就真牛逼?

相信大家已经习惯了小套路,说自己曾经做的某个项目转化率提高了多少个点之类的。

实际上,在我们做的每个项目或者功能中,都应该用数据来验证产品成效。

电商网站的收银台大家耳熟能详,比如以下:

数据分析 | 为什么需要数据分析(一)

参照国内竞品调研和产品交互设计师自以为的产品目标:给用户传递安全感——通过增加底部“确认支付”按钮来实现。

数据分析 | 为什么需要数据分析(一)

实际上线效果却不尽如意,新版本比老版本跌了3个点左右。

事后我们反思了整个过程,得到一些启发:

支付需要用户冲动型消费,不需要用户那么理性思考。按钮操作,让用户有种仪式感,反而增加了用户犹豫心理。

比如淘宝换成了指纹支付,或者刷脸支付,转化率会提高。我作为用户,使用了淘宝指纹支付后,下单支付快了很多。我也有同事,一不小心刷脸支付后,就懒得再发起退款了~

支付产品的核心是:安全和快捷。如果品牌背书,用户已经觉得安全,那么接下来就是快 !去掉按钮才是让用户有快速支付的感觉。

于是,我们又花了一些时间,去掉底部“确认支付”按钮,用户选择支付方式就可以进到支付环节,转化率竟然又提升了!

数据分析 | 为什么需要数据分析(一)

去掉了底部“确认支付”按钮

整个团队从这个案例中都得到较大感触,充分体现了我们自以为更好的方案对用户或者从业务角度并不是最好的。如果没有数据来验证,我们还会一直停留在自己觉得设计很好的功能中自嗨!

用AB test 测功能,用数据来验证功能成效是最有说服力的手段

3. 通过数据分析洞察用户

用户研究是产品经理必须要去做的一件事,懂用户,挖痛点,给方案。

用户研究常用的方法除了用户访谈、调查问卷等定性研究外。从已存数据中发现用户的行为偏好,建立数据与用户画像之间的关联,针对不同人群需求或者痛点给出合理的产品解决方案也是数据驱动决策的手段。

比如从历史订单数据中,挖掘新老用户购买商品的偏好,可以针对新老用户群体做个性化的商品推荐,这也是大家能够感知到的电商产品推荐。你去逛淘宝首页,是不是会觉得淘宝比自己还懂自己?给自己推荐的大部分商品是自己喜欢的。

通常对用户历史行为数据收集越详细,越是能够了解用户,为用户做出合理的产品设计。

为什么人们总说作为电商平台和支付平台的阿里有最完整的行为数据乃至最完整的人群画像,那是因为根据生活消费的商品和服务,几乎能够推断一个人全部的特征,而越是习惯网上购物的用户,衣食住行都用同一个支付手段的用户,就越能够被电商和支付平台完整描述。

产品在做产品功能设计时,并不只是单纯为用户提供功能和服务就可以,理所当然以为用户会来使用。定要对用户需求或者痛点挖掘地足够深,才能精准提供服务。从过去已存数据中挖掘用户行为偏好或者痛点,是产品设计的第一步。

这里借用《产品思维》一书中提到的例子。

我们是一个创业小团队,正在做一个P2P(个人对个人)金融产品。平台上已经有了一定量的用户,他们购买了我们的理财产品。我们正在考虑要不要增加VIP(贵宾)套餐服务,定位高价值用户,定向提供理财顾问服务。

我们会请许多专家,提供很多额外的分析工具,让这些用户享受高端服务,赢利方式就是VIP年费。单拿这个服务来看,肯定是没有什么问题的。

“许多类似的产品都有这样的服务。”也许老板就会这么跟你说。但这不能成为我们就一定要提供VIP套餐服务的理由,我们还是要看看我们的用户是什么样的。

可以先统计下当前用户购买理财产品的行为数据,看看大部分买的额度有多大。其实,额度背后代表的是这些用户的收入水平和对理财的态度。

比如粗暴一点假设,我们看用户的行为,过去99%的用户都是奔着投资5万元,锁定期6个月,年化收益率5%的产品去的。

这些行为代表什么呢?从生活经验判断,对年化收益率要求不高,对流动性也要求不高,对安全性要求比较高的人,应该都是普通的上班族。这些人在理财方面非常保守,而且还比较年轻,理财额度并不高。

具体的验证可以通过访谈和调研来完成。假如结果显示,这些用户群体基本都是毕业三年内的职场新人,理财行为非常保守,而且还比较年轻,理财额度并不高。

这时回过头来看,这个VIP套餐服务的吸引力就特别有限了。仅从用户特征来看,几乎就可以给这个创意判死刑了。

从已存数据中分析用户需求或者痛点,找到用户行为偏好,精细化用户群体,了解用户,才能判断业务模式的可行性。而不是理所当然觉得用户会使用这个功能。

4. 通过数据分析找到机会点

在刚做支付业务时,首先就对Top10、各端做了支付成功率分析,很快就发现某些国家的转化率是低于其他国家的,自此这些国家被列为重点和困难国家。我们的机会点也是优先提高这些国家的支付转化率。

再比如做商城购物流程优化项目时,首先拉取了商详页-购物车-结算页-收银台-支付成功 发现商详页和结算页转化率两个环节在整个路径中转化率最低,因此马上定出了事项优先级,优先解决这两个页面的转化问题。

职场中如何价值最大化?可不就是发现最严重的问题,找到最大的机会点,把资源用在刀刃上。

5. 结语

管理大师德鲁克说:“不能衡量,就无法管理。”

产品经理完拍脑袋、凭感觉、凭经验做决策的时代已经过去了。如果你还没有数据思维或者数据分析相关的能力,被时代淘汰真的是,早晚的事!

产品经理不需要成为数据分析方面的专家,但什么时候分析数据、分析哪些数据、如何分析数据、如何用数据辅助决策、如何用数据驱动业务,这些问题是产品经理必须要回答的。

二、数据分析的框架

我以支付业务为例来讲解。

用户来到支付收银台后,在页面上有很多点击行为,比如选择各种支付方式,微信支付、ApplePay 支付等最后完成支付,也有可能点击左上角返回键或者右上角订单中心离开当前页面。

数据分析 | 数据分析整体框架(二)

这个过程会产生很多数据,从数据大类上分成:用户数据、行为数据和业务数据

谁(用户数据)做了什么(行为数据)结果如何(业务数据)?

数据分析 | 数据分析整体框架(二)

用户数据指用户本身的特性,如用户画像,使用你产品的用户男性多还是女性多,年龄多大等。

行为数据指用户使用产品在页面上的各种点击行为,在页面上停留时长等。

业务数据指用户行为之后,实际产生的结果,业务数据会落库业务数据表。分析业务数据的意义,可以衡量商业价值,是业务最终呈现结果,用以推动公司业务的发展。

用户数据和行为数据通常可以从第三方数据工具,如友盟、Google Analytics 直接获取,业务数据一般要内部建设。

数据分析 | 数据分析整体框架(二)

今天重点讲业务数据搭建完整过程,以阿里云的Quick BI为例。

在整个数据分析的框架中,分为五大层次,依次是:数据生成、获取数据、数据建模、数据分析和数据应用。

数据分析 | 数据分析整体框架(二)

1. 数据生成

还是以支付业务为例,用户选择支付方式完成支付后,落库核心的两张业务表:订单表和交易表。一个订单会对应多笔交易(每选择一种支付方式生成一笔交易,一笔订单可以使用多个支付方式尝试支付)其实还会产生其他表,比如收货地址表等。

数据分析 | 数据分析整体框架(二)

2. 获取数据

通常使用第三方工具如ETL将业务系统的数据经过抽取(Extract)、清洗转换(Transform)之后加载(Load)到数据仓库的过程,数据呈现在BI的数据源。

数据分析 | 数据分析整体框架(二)

3. 数据建模

所有数据进到数仓以后,需要根据实际想要看的业务数据进行数据建模,建模后的数据呈现在数据集。数据集作为数据源和可视化展示的中间环节,承接数据源的输入,并为可视化展示输出数据表。

数据分析 | 数据分析整体框架(二)

4. 构建数据模型

数据建模是什么含义呢?

底层的业务数据表其实很多,几十张上百张都有,但到了业务数据分析阶段,当需要分析的数据存储在不同的表,可以通过数据关联,把多个表连接起来,形成模型进行数据分析。

比如上述的业务底层订单表到了数据分析阶段衍生的订单表字段发生变化,name 和 city 是从业务地址表取来的数据。

总的来说,数据模型是完全面向数据分析的业务场景形成的新表。以支付业务为例,我构建的数据模型有:用户表、订单表和交易表。

数据分析 | 数据分析整体框架(二)

5. 设计维度和度量指标

对数据字段可以进行下一步分类:

  • 维度(Dimensions)
  • 度量(Measures)

在统计学中,单一数据字段可以被分为离散和连续。离散通常是维度,比如城市名称、用户名字,特征是有限数量的值;连续通常是度量,比如销量、利润或成功率,特征是不可罗列,可能为任一数值。维度和度量中有许多灰色区域,比如金额,可以做维度,也可以做度量。

在上述订单表中,device、city 等是维度,对order_id 计数的总订单数、对status = success 计数的成功订单数是度量。

数据分析 | 数据分析整体框架(二)

度量可以再分原子度量和派生度量。

原子度量指从维度里直接获取到,上表中的总订单数和成功订单数。

派生度量并不能直接从数据表中获取,而需要基于已有数据进行加工处理得到,上表中的订单成功率是成功订单数/总订单数得到。

6. 数据分析

有了维度和度量的概念后,接着引入聚合概念。对于数据分析来说,往往关心的并不是最底层一行一行的的明细数据,更注重分析数据的角度,关心的是数据的总体特征。

聚合,简单讲就是数据源里的多行数据按照一定的标准计算成一个数据,不管数据集里有1行还是多行,视图里的数据都是聚合后的结果,一行数据也是要聚合的,当然一行数据聚合的结果是一样的。实际上,维度为数据聚合提供依据,而度量是依据维度聚合得到的结果。

配置了聚合计算的计算字段,将根据配置的维度自动进行聚合运算。

如:

  • 求和:SUM([字段])
  • 计数:COUNT([字段])
  • 计数去重:COUNT(DISTINCT [字段])
  • 求平均值:AVG([字段])

数据分析 | 数据分析整体框架(二)

数据分析 | 数据分析整体框架(二)

表述的业务含义为时间周围为2021.3.1 ~ 2021.3.15 范围内pc端的订单成功率为0.5。

计算过程:根据created_at=2021.3.1 ~ 2021.3.15 和device =pc ,SUM([总订单数])= 2,SUM([成功订单数])=1,SUM([成功订单数])/SUM([总订单数])=1/2=0.5。

Quick BI 提供电子表格和仪表盘两种可视化工具做以上分析。

电子表格:

数据分析 | 数据分析整体框架(二)

仪表盘:

数据分析 | 数据分析整体框架(二)

通过可视化的图标去分析数据,找出机会点或者异常。

7. 数据应用

通过可视化的图表去分析数据,找出机会点或者异常。可以说,前面1、2、3、4 所有的工作都在为了第5部分数据应用上。

数据从用户中来,通过一系列的数据沉淀、处理和分析找出机会点做决策再回到用户中去,提升用户体验,带动业务增长,此即数据驱动业务。

8. 结语

本篇文章介绍了分析数据的数据框架拆解、数据处理加工过程

但是海量数据怎么看,看哪些?度量指标应该怎么设计,度量指标中什么是业务的北极星指标等此文还没提到,在第三部分数据指标体系设计中讲解。

三、数据分析 | 数据指标体系设计

接着来讲数据分析的第三篇文章数据指标体系设计,是整个数据分析篇章中最核心的内容。

在第二篇文章中讲到,我把数据分为:用户数据、行为数据和业务数据,再往下又分了维度和度量两个概念。

尽管如此,维度也好,度量也罢,都会产生很多散落的数据,你并不知道数据与数据之间的关联性,也不知道众多数据中什么是最核心的,什么最能表示业务最终呈现效果或者哪个数据指标表示目标达到。

数据与数据之间的关联性或者相关逻辑性称作数据指标体系。指标体系指将零散单点的具有相互联系的指标,系统化的组织起来,通过单点看全局,通过全局解决单点的问题。

说白了就是找个框架把所有的数据以一定的逻辑性组装起来,框架也即数据模型。此篇文章针对用户数据、行为数据和业务数据分别给出代表性模型,用以各自领域的数据分析。

1. 用户数据之AARRR模型

提到用户本身,马上会想到经典的AARRR 模型,即获取用户(Acquisition)、提高活跃(Activation)、提高留存率(Retention)、获取营收(Revenue)和自传播(Referral)

每个环节都有这个环节应该关注的指标,这些环节并不一定遵循严格的先后顺序。

  • 获取(Acquisition):用户如何发现(并来到)你的产品?
  • 激活(Activation):用户的第一次使用体验如何?
  • 留存(Retention):用户是否还会回到产品(重复使用)?
  • 收入(Revenue):产品怎样(通过用户)赚钱?
  • 传播(Refer):用户是否愿意告诉其他用户?

AARRR模型是非常经典的用户分析模型,且需要结合具体业务展开来讲,这里不做过多描述。

2. 行为数据之UJM+OSM模型

UJM即User-Journey-Map,用户旅程地图模型;OSM分别指目标、策略和衡量,Objective-Strategy- Measurement。

UJM+OSM,通过拆分用户使用产品的阶段性行为,从中挖掘用户的需求,在每个阶段确定能够提升的指标,将用户旅程和业务目标结合起来。

目标( Objective)指业务目标。业务或者产品,存在的目的是什么、能够解决用户什么问题、满足用户什么需求?如上述业务目标为购买转化率,购买转化率越高,说明用户体验越佳,商业价值越高。

策略(Strategy)指为了达到业务目标,应当采取什么策略。如上述为了提升用户首页-商详转化,策略1可以为视觉提升、策略3可以为交互流程改善等。策略1的视觉提升可以进一步拆解为页面整体颜色、卡片样式等。

衡量(Measurement):用来衡量策略的有效性,反映策略执行是否能达成业务目标的度量指标。如上述首页转化率可以为进到首页用户数转化到商品详情页的用户数,转化率越高,说明用户对首页青睐度越高,首页的产品呈现内容越有效。

基于用户的行为路径来拆解目标,对于每个子目标找到最终可落地的方案,启动项目需求,通过用户功能满足达到最终的业务目标。

如购买转化率目标为提升15%,那么估算首页改版项目提升的目标为8%,商详改版项目提升的目标为5%,下单结算改版项目提升的目标为3%,收银支付改版项目提升的目标为2%。

按照价值从高到低依次投入开发资源去实现目标,项目上线后再复核业务目标是否达成,若未达成,进行差距分析。

3. 业务数据之指标分层

谈到业务数据时开始涉及角色的问题,业务和产品的角色分工,不同的角色在不同的场景下关注的指标并不相同。

基于此,一开始就把指标进行分层级,分为业务、产品和流程三个层级,业务关注业务的,产品关注产品的。不同层级的指标有不同的思考维度和分析方法。

以支付业务为例,先明确指标层级后,根据指标设计原则,去做关键指标的拆解,一级指标可以拆解到二级指标,二级指标还可以继续拆解到三级指标等等。

业务层级的指标用来衡量商业层面的客户发展、增长与获利、竞争力与盈利能力等。

业务从用户那里挣钱,需要通过产品作为载体或媒介,互联网产品的使命是利用技术赋能业务,帮助企业降本增效。所以谈到产品,需要去思考产品定位、产品能提供的核心价值、产品带给用户的产品使用体验、产品如何实现业务目标。

进一步细化,一个产品往往有着很多功能,承载着不同的用户交互步骤或操作流程。梳理并整理出整个转化流程中各个关键节点,去实现产品的核心指标。

从业务模式,到根据产品的价值与体验,再分解到具体流程的步骤效率。这提供了一种纵向的,自上而下、由粗到细的分析模型,在每一个层级上,又会有不同关注点和类别的指标。以数据为基础,主导产品布局,拆解流程步骤,赋能业务增长。

4. 结语

本篇文章从用户数据、行为数据和业务数据三方面介绍了3个数据指标体系模型。特别说明的是,文中提到的AARRR模型、UJM+OSM模型、指标分层3个数据模型仅举例说明,实际还有更多模型,如PLC、HEART、GSM、PTECH模型等等,需在不同场景下评估综合使用。

但不管什么数据模型,核心都在于找到数据与数据之间的关联性,从海量数据中找出最核心的数据指标用以衡量目标是否达到,以系统和结构化视角思维来看数据分析。

四、数据呈现之数据分析方法

今天来讲数据分析的第四篇文章数据呈现之数据分析方法,是整个数据分析篇章中最后一部分内容。

在前面第二部分、第三部分文章中,我们讲了数据生成-获取数据-数据建模-数据指标搭建这样漫长的数据加工处理过程,到最后一步便是数据呈现和从数据中挖掘出来的问题或者机会点的数据应用。

有句话调侃讲,辛苦干活儿一年还比不过一个做PPT的,同样适用数据分析。如果前面做了大量数据加工处理工作,但是最后不会做数据分析和数据呈现,挖掘不到问题和机会点,那么前面的工作将白费。

(或者说前面的工作皆属于打地基,最后一步也就是本篇文章讲述的内容是收获果实。)

通过数据呈现,把分析的结果完整呈现出来,为决策者提供科学、严谨的决策依据,供决策者参考以做出决策。

好的数据呈现,需要有一个好的方式展现数据间的关系和规律,让人一目了然,这是接下来要说的数据分析方法。常见的漏斗分析、多维拆解、趋势分析、对比分析、帕累托分析和交叉分析等。

上篇讲的数据指标体系设计是从宏观层面指导如何进行数据分析,本章讲的数据分析方法主要从微观角度指导如何进行数据分析。从宏观到微观是不断细化的过程。

1. 漏斗分析

漏斗分析能够科学反映用户行为状态,以及从起点到终点各业务流程的用户转化率情况,是一种重要的流程式数据分析方法。

比如:对于电商产品来说,最终目的是让用户购买商品,但整个流程的转化率由每一步的转化率综合而定。这时,我们就可以通过漏斗分析模型进行监测。

如下图所示,我们可以观察用户在每一个环节上的转化率,寻找转化路径的薄弱点,优化产品,提升用户体验,最终提升整体的转化率。

所有互联网产品、数据分析都离不开漏斗,无论是注册转化漏斗,还是电商下单漏斗。需要关注两点,第一是关注哪一步流失最多;第二是关注流失的人都有哪些行为。转化率最低的环节,往往是ROI 价值最大的地方。

2. 多维拆解

我自己本身是做支付业务的,日常呈现数据最多的形式便是多维拆解。(多维的意思是从多个维度拆解度量指标,如果对维度和度量不太了解的可以去看第三部分的内容。

  • 首先呈现整体支付成功率,其次按照商户维度分别去看各商户支付成功率;
  • 每个商户下有很多个国家,再按照国家维度去看支付成功率;
  • 每个国家有很多个支付端,再按照各个端维度去看支付成功率;
  • 每个端上有很多个支付方式,再按照各支付方式维度去看支付成功率。

至此,拆到最小颗粒度。

在分析数据时,若整体支付成功率发生异常,按照此路径拆解到最小颗粒度的支付方式,基本可以锁定发生问题的原因。

3. 趋势分析

建立趋势图表可以迅速了解市场、用户或者产品特征的基本表现,便于进行迅速迭代。趋势分析通常按时间维度的小时天周月看度量指标的变化情况(像我每天早上来第一件事是看昨天的支付成功率有无异常)。

趋势分析有两大作用:趋势预测和数据监测。比如我现在正在做的项目业务数据监控,就是基于支付成功率在过去一段时间内的数据表现来预判当前支付成功率是否异常。如下图中的7月和8月明显低于其他月份,可判定这两个月数据发生了异常,需要去寻找原因。

4. 对比分析

同一维度还常常做度量指标的对比分析,主要用于对比同维度间的差异性。比如我做支付业务,会去对比Top 国家的支付成功率,看哪个国家是我重点要关注的国家。

同漏斗分析类似,对比分析也可以快速找出最需要关注的维度指标,把资源用在刀刃上。

(比如我印象很深,我的leader第一次做数据分析报告时,按Top国家做了国家维度的对比分析,大家很快知道哪些国家需要花资源重点解决,从此改变大家对支付业务的认知。以前大家可能以为支付需要持续接入新支付服务商,但是大家现在知道可以分重点国家差异性改善,不仅仅是无脑接入新支付服务商)

另外,在对比应用中,现在流行A/B test,A/B test的关键就是保证两组中只有一个单一变量,其他条件保持一致,实验组和对照组也是对比分析。

除了跟别人比,也可以自己跟自己比,统计学中的环比和同比便是自己跟自己比的经典应用。(比如到年底,我会做支付业务的复盘,会把连续几年的订单量和支付成功率做对比,看今年的整体情况)

5. 帕累托分析

帕累托分析,平常也称之为二八定律。在任何一组东西中,最重要的只占其中一小部分,其余尽管是多数,却是次要的。

帕累托模型即是以二八定律为基础原理构建出的商品分析模型,这个模型最大的好处是可以对商品或者产品进行分类,按照投入产出比的优先次序原则,将自己的资源尽量投入到头部产品当中,以期产生最大的效益。

其核心思想就是少数项目贡献了大部分价值。以款式和销售量为例:男士服饰、运动服装及用品、儿童服装、女士皮鞋占总体销售额的70%以上。

6. 交叉分析

交叉分析法就是将对比分析从多个维度进行交叉展现,进行多角度的结合分析,从中发现最为相关的维度来探索数据变化的原因。

如下图,从APPPC 端的维度结合漏斗做对比分析,可以发现APP在每一步转化率更好。

以上掌握了基本的数据分析方法,如何撰写一份分析报告增加它的可读性呢?

逻辑清晰。数据是怎么来的;发现了什么问题;总结问题发生的原因;如何解决这种问题;给出结论和解决方案。这样一个简单明了强逻辑关系的分析报告就能让绝大多数人接受;

报告图表化。用图表代替大量堆砌的数字会有助于人们更形象更直观地看清楚问题和结论,更容易做到有理有据;

规范化。整篇文档的图表风格统一、名词统一。数据有来源,口径有说明。(特别是第一次引入数据统计口径时,要额外说明)

至此,数据分析文章系列全文完。

五、结语

在最后,我想说的点是:数据分析重在思路,更多在实践中训练自己数据思维,要有数据意识。

尽管写了此篇文章10000多字,也只是数据分析的一点点方法论,是工具层面的皮毛。到目前为止,我仍然有业务上的数据问题无法解开,可见,就算是成体系的所谓方法论也无法解决所有的实践问题。

想加以强调的是,无论是看了我的文章还是别处学习了其他知识&技能,都需要在自己实际业务场景下去应用,否则信息就只是信息,永远无法内化为自己的知识。

就我自身而言,从20年写第一篇数据分析的文章,到现在21年写四篇数据分析的文章。我相信在未来我还会持续迭代甚至推翻当前这套也是有可能,任何东西都不会学到即停止,它会被一直迭代和更新。

 

来源:花开不败

来源公众号:涵小仙女

]]>
B端产品数据分析方法论 //www.f-o-p.com/330543.html Sun, 12 Nov 2023 00:05:38 +0000 //www.f-o-p.com/?p=330543

 

 

 

通过分析数据,产品能够洞察企业的经营方式、经营状态;

通过分析数据,产品能够找到业务发展的机会,推动业务实现经营目标。

因此,数据分析能力是B端产品必备的核心能力。

你可能会说:商业思维、数据分析是管理层的工作,B端产品老老实实满足业务需求不就行了吗?

但现实是:高管往往没有时间去分析一个具体的功能数据。

业务部门则可能受制于职责和眼界,看不到,或者无法获取到有价值的数据。

反之,产品不但方便获取数据,还可以把数据分析融入到产品设计,让业务产生数据,再通过数据驱动业务。

这将是B端产品巨大的机会。

01 数据分析的三个阶段

B端产品的数据分析,一共包含三个阶段。

分别是数据衡量业务、数据洞察业务,以及数据指导业务。

1、数据衡量业务

通过管理报表,我们可以快速衡量业务发展的状态。

也就是所谓的管理信息化——数据分析最基础的功能。

不过,在很多企业,这一项基本功能也存在很大问题。

比如,数据准确性、实时性存在问题,以至于报表辅助决策的能力大大被削弱。

要做到准确、实时的衡量业务,产品经理首先要理解数据的业务逻辑。

比如,对于CRM系统来说:

线索数*转化率*客单价=成交额

对于财务管理系统来说:

收入-直接成本=毛利

在梳理清楚业务逻辑后,产品经理最重要的工作就是确保系统按逻辑运行,并正确产生数据。

这里有很多细节问题。

比如,在计算毛利时,是否要含税?赠品是否计入直接成本?

它们往往是左右数据准确性、实时性的关键。

有时候,要解决这些问题,产品经理还需要协同业务部门,对业务流程和系统功能进行调整。

曾经,我咨询的一家企业,董事长坚持投入了数百万建设CRM系统,然而COO根本就不用系统生成的报表。

原因在于, CRM系统的管理报表与门店的手工报表始终存在差异。

在用三个月集中处理掉这些问题后,COO终于可以放心使用CRM系统报表。

结果,公司经营会议的召开频率大大提高,从“一月一开”提升到“一周一开”。

同时,由于不再需要人工统计数据,各个门店、总部都减少了行政岗位,为公司节省了一大笔开支。

2、用数据洞察业务

通过数据分析,可以找到业务发展的机会。

这里的关键在于,我们不仅要有准确的结果数据,还要有必要的过程数据。

比如,分析CRM数据,最简单的方法就是分析各个渠道的线索转化率和ROI,对于ROI较高的渠道,可以加大投入。

但是,这样的分析还远远不够。

因为,各个渠道的ROI并不是固定不变的。

比如,我们在某广告平台投放了广告帖子,用户如果对帖子名称等信息感兴趣,就会点击查看帖子详情。

如果服务符合客户的要求,他们就会主动联系我们,从而生成CRM系统的线索。

经过分析,我们发现“帖子点击量”与“有效线索数量”的比例是相对固定的关系。

这就意味着,只要我们想办法提高“帖子点击量”,就可以提高“有效线索数量”,从而提升成交数量和金额。

在这个实际案例中,通过优化帖子名称、定期刷新帖子等方式,该广告平台的成交金额提升了整整一倍。

在B端业务中,用数据洞察业务的难点,在于缺乏过程数据。

这时候就需要我们主动创造数据。

比如,在广告平台的案例中,我们是通过什么数据筛选出更有效的“帖子名称”呢?。

答案就是AB测试。

保持其他内容不变,仅仅修改一部分帖子的名称。

1个月后,将修改后的点击量与修改之前的点击量比较,以及与其他未做变更的帖子比较,从而筛查出点击数量明显上升的帖子名称。

在这个过程中,我们实际上通过AB测试创造了新的数据。

再比如,一个传统的线下经营企业,如何通过数据分析提升“转介绍成交金额”呢?

如果我们不创造新的数据,仅仅凭借碎片化、难收集的线下数据,是很难找到突破口的。

这个案例的破局点在于,我们开发了一套基于微信的转介绍小程序,再通过运营手段,让客户通过小程序进行转介绍操作。

这样,我们就可以收集到必要的过程数据。

比如,我们发现,转介绍的潜在客户只要进店体验,成交率就很高。

但是,很多潜在客户在收到老客户的优惠券后,并没有及时进店体验。

在这种情况下,我们就可以通过运营手段,促进转介绍渠道的潜在客户进店体验,并监控转化效果。

3、用数据指导业务

不管是用数据衡量业务,还是用数据洞察业务,其形式仍然是传统的报表工具。

数据分析的效果也主要体现为事后判断,并不能实时指导业务。

在数据分析的第三个阶段,我们要跳出“报表工具”的形式,把数据分析融入到业务流程和系统功能。

同时,通过“前置”数据分析,起到实时(real time)、适时(right time)指导业务的作用。

比如,通过数据分析,我们发现天气对便利店饮料的销量有很大影响。

太阳天的饮料销量,是雨天销量的2倍。

那么,当业务员在拜访便利店时,我们就可以结合天气预报等数据,提醒业务员加大饮料的推销的力度。

再比如,线下门店的案例中,当有潜在客户进店体验,在输入客户的手机号后,APP就可以提醒服务人员:

该客户来自张姐的转介绍,成交概率很大。

而且推荐张姐评价最高的X项目最有可能成交。

对于B端业务来说,这个阶段最难的一点,在于业务流程的在线化不足。

这就导致我们很难拿到全面、准确的过程数据,以达到“指导业务”的效果。

就是我们常说的:B端没有“大数据”,只有“小数据”。

不过,“数据指导业务”是数据分析的必然发展方向,B端业务也不例外。

我相信,B端产品在这个方向有着巨大机会。

02 如何培养数据分析能力

阿里巴巴前数据委员会会长车品觉老师,曾经提出过一个“混、通、晒”的能力框架,我觉得也非常适合B端产品经理提升数据分析能力。

  • 所谓“混”,就是和业务混在一起;
  • 所谓“通”,就是打通数据孤岛;
  • 所谓“晒”,就是展示数据分析成果。

1、混

和业务混在一起,一方面是混“业务知识”,另一方面则是混“人际关系”。

不懂业务玩法,不了解业务痛点,就不可能有的放矢的分析数据;

和业务部门关系不好,就很难充分协作,合力攻克难题。

很多时候,我们为什么缺乏商业敏感、数据敏感,就是和业务混得不够。

曾经,SaaS星球有一位甲方B端产品经理提问:

刚入职新公司,领导安排她去业务部门轮岗1个月,但是她觉得自己身为产品经理,天天做的工作却和产品设计没有关系。

她想知道自己应该怎么做,才能体现出一位产品经理应有的价值。

我提醒她:你做产品设计的机会很多,但是你到业务部门轮岗1个月的机会却不多。

抓住这个机会,切身感受业务的难点和痛点,同时和业务部门同事搞好关系,对今后的工作开展会有很大的好处。

这位员工其实很幸运,遇到一位懂行的领导。

我曾经见到一种情况,某领导安排一位产品经理牵头设计SaaS产品,并且同意他出差拜访客户。

但是,仅仅在拜访过一次客户后,领导就要求产出成果!

很显然,该领导低估了“混”所需要的时间和频次。

我在负责SaaS产品的时候,经常和客户成功部门负责人、销售部门负责人混在一起。

这不但让我了解到更多业务数据,也让我有机会与其他部门一起推动产品的发展。

比如,我曾经和客户成功部门负责人一起分析“活跃度”与“续约率”的关系。

我们发现:

非核心功能的活跃度,与续约率不存在相关关系;

核心功能的活跃度,与续约率存在强相关关系。

同时还发现:

只要在3个月内,新上线客户的核心功能实现了活跃,那么这个客户的存活几率就很大,而且续费率也很高。

反之,如果3个月未实现核心功能活跃,这个客户就很可能流失。

这些数据洞察,对我的产品设计工作,以及客户成功部门的服务工作都有很大的启发。

在负责甲方产品团队的时候,我也要求产品经理每个月必须有2天时间外出,和业务同事一起去拜访客户。

实际上,我并没有指望几次拜访能够产生了不起的突破。

但是,外出拜访可以让产品经理更多的与业务同事、与客户混在一期,这对于他们的工作和成长会有很大帮助。

2、通

在实际工作中,由于业务分工明确,也由于部门墙的存在,商业与数据之间、数据与数据之间存在很多阻断。

比如,市场部门购买了很多线索,认为自己功劳很大。

销售部门却觉得这些线索质量不高,不但很难成交,还无谓占用了自己的时间。

解决的关键是市场和销售的数据要打通,同时两个部门坐到一起来讨论:

哪些线索的转化率低?

为什么转换率低?

是市场部门的线索质量把关不严,还是销售部门的跟进存在问题?

曾经,某门店连锁企业把线下活动作为主要的获客方式。

这种拓客方式最大的问题,就是线索质量不高。

同时,由于活动拓客带来的客户进店很集中,这就大量挤压了服务人员服务老客户的时间。

即便服务人员和部分客户都怨声载道——受限于过去的成功经验——市场负责人一直坚持这种获客方式,以至于忽略了其他可能性。

于是,我让产品部门对所有获客、成交和复购数据拉通进行分析,计算各渠道线索的获客成本、转化率、客单价以及复购率。

结果发现线下活动是最低效的获客方式。

同时,产品部门还发现转介绍的效率是最高的。

但是市场部门却从来没有系统运营过转介绍活动。

最终,经过协商,市场部门同意拿出一个月时间来主打转介绍。

结果,运营活动取得巨大成功。

不久,市场部门开始常态化运营转介绍活动,仅仅第一年,就给公司带来了30%的收入增长。

在这个案例中,产品经理其实就起到了“通”的作用,不但将业务与数据打通,实现通过数据驱动业务,还打通了部门墙,促进了部门之间的协作。

提升“通”的能力,需要产品经理有系统化的思考。

很多B端产品经理工作了十几年,经验积累了很多,但是只能解决一些单点问题,无法站在全局去梳理业务和发现问题。

这就是他们平时只是被动应付工作,很少主动去思考,从而形成系统化的思考框架。

比如,营销相关的产品经理,就应该熟悉客户的全生命周期阶段,包括:

潜客-新客-老客-沉默客-流失客

这些类型的客户如何定义?

有哪些衡量指标?

有哪些运营策略?

有哪些实践案例?

只有拉通理解了整个过程,在工作中去实际应用,才能提升“通”的能力。

3、晒

所谓“晒”,是通过展示数据分析的成果,让用户爱上数据工具,爱上数据分析。

比如,梳理出对业务最重要的核心数据,在APP首页进行展现,就可以显著提高用户使用数据的频率。

曾经,我咨询的一家公司所有数据报表都在PC端。

虽然报表功能强大,但是管理者的使用率并不高,更不要说门店员工了。

后来,我们梳理了报表的核心数据,把那些影响门店业绩、影响个人收入的指标提取出来,放在员工端APP首页,并确保数据的准确性和实时性。

结果,公司CEO告诉我:门店店长每天都要刷十几遍APP数据,晚上睡觉前还必须刷一次,如果业绩不好还会影响睡眠。

除了店长,下至一线员工,上至总部领导也都养成了刷APP的习惯。

“晒”数据的关键,是要把数据分析“产品化”,或者说,像设计产品一样设计数据分析。

这样才能让用户高频使用数据,甚至让用户爱上使用数据。

首先,“晒”数据要从痛点出发。

对用户没有价值的数据,哪怕你做得再精美、使用再方便,都不会用人查看。

第二,要确保数据工具的高可用、可解释

高可用,就是用户可以通过简单的操作进行数据分析;

可解释,则是当用户对某个数据产生疑问,系统能做好数据定义的解释工作,同时提供源头数据,方便用户追溯与核对。

第三,数据分析要嵌入业务流程,融入日常业务

“晒”的最终目标是脱离报表的形式,让数据分析融入到产品功能中,融入到日常业务中。

比如前面提到的“根据天气预报,提醒业务员加大饮料推销力度”的案例,就是通过数据解决了业务问题,但用户并不需要刻意使用数据工具。

产品经理平时要有“晒”的意识,时刻思考数据分析可以应用于哪些场景?如何设计数据分析功能,才能让用户爱上数据分析?

带着这样的思考去工作,就可以提升我们“晒”的能力。

03 数据分析无处不在

很多B端产品经理会抱怨没有数据,无法进行数据分析。

但有时候我们缺的不是数据,而是思路。

比如,给CEO汇报方案,如何预判CEO的态度?

我的经验是:

如果CEO微微点头,那说明方案得到了CEO的认可;

如果CEO开始翻阅iPad,那说明他认为这部分内容不是重点;

如果CEO开始记笔记,那说明他可能就会对这部分内容提问。

只要我们有心,到处都是有价值的数据,人人都是数据分析师。

 

作者:王戴明

来源公众号:To B老人家

]]>
数据分析4个好用的模板 //www.f-o-p.com/328870.html Tue, 24 Oct 2023 07:02:44 +0000 //www.f-o-p.com/?p=328870

 

所谓“秀才提笔忘了字”,经常有同学在领导要求“你去分析一下XXX”的时候,脑子嗡的一声,没了思路。今天分享4个简单好用的思路,可以应对大部分的问题,大家准备好小本本哦,马上开始。

思路1:陈述式分析

适用问题:“你去分析一下销售/运营/商品/会员/物流情况”

适用场景:领导/业务没有明确需求,第一次看业务数据

此时的重点是:讲清楚情况,清晰是第一位的要求。因此不要心急,不要一次性倾倒太多的数据出来,大家看不明白就会责怪你:“分析的不清晰”。此时可以按着:“现状→目标→整体进度→子部门进度”的方式展开。

比如“你去分析一下用户情况”,那么可以做如下介绍(如下图):

数据分析思路,我总结了四个好用的模板

如果整体进度没很大问题,各子部门进展顺利,那么大家不会发表太多意见,看完后会说“很好,继续监控”。如果整体进度有问题,那么大家的思路会被引导到:“为什么A部门执行好,B部门不行?”上边去,这样就能做进一步的分析。

要注意的是!不同人的“第一次”是不一样。最经典的场景是,你们自己部门内数据已经看了很多遍,但是现在要做一个向高层的回报,高层领导平时根本不了解你们的细节。此时千万不能太着急,堆砌一堆数据搞得大领导头昏脑涨,十有八九被批:“思路不清晰”。沉住气做个陈述式分析会更好。

思路2:探索式分析

适用问题:“最近销售/运营/商品/会员/物流指标没达标,为什么?”

适用场景:领导/业务有明确问题,但没有具体的怀疑对象

此时的重点是:引导大家的思路,落实到一个具体的、可改进的对象上去。这一点非常重要!很多同学在面对问题的时候,喜欢翻来覆去地描述现状。比如,问“为什么用户消费少了?”他就憨憨答一句:“因为客单价低了”。

这是废话,消费=用户数*消费率*客单价,客单价低了消费肯定少。问题是为啥客单价低了呢?是商品不行?是促销搞多了?这才是大家关心的,所以做探索式分析的时候,拆分问题应该具体到某个部门可负责的事情上,这样才能落地解决方案。

比如“最近用户消费没达标”,那么可以做如下探索(如下图):

数据分析思路,我总结了四个好用的模板

思路3:检验式分析

适用问题:“我们最近的会员消费下跌和优惠政策调整有没有关系?”

适用场景:领导/业务提了一个明确的分析要求,期待回应

此时的重点是:排除其他可能性,聚焦到核心问题。大家要注意,很多时候听上去只有一个假设,但实际上要排查的范围并不止于此。但你说出:“确认是政策调整影响”的时候,就意味着你选择了“不是执行问题,也不是外部问题”。如果没有排除掉明显的其他问题,十有八九会被批为:“分析不全面,我说一句你做一句吗”

此时需要主动收集:还有哪些业务假设。一些大家共识过的,不用考虑的因素,可以不纳入分析之中,聚焦几个核心问题。最常见的假设就是:是策略问题还是执行问题。

比如“会员消费下跌和优惠正常有没有关系?”拆分开就是:

假设1:因为调整了优惠,部分会员不满,导致不消费

假设2:优惠政策没问题,但是宣传力度不足,很多会员还不了解

数据分析思路,我总结了四个好用的模板

另一个常见的假设,是自己部门的问题or友邻部门的问题。

比如“会员消费下跌和优惠正常有没有关系?”拆分开就是:

假设1:因为调整了优惠,部分会员不满,导致不消费

假设2:优惠政策没问题,但是本季商品不行,再优惠也没用

到这一步,就很考验数据分析师的工作技巧了。因为很有可能你的领导,就是想甩锅给别人(或者要防着别人甩锅),因此收集证据,是非常重要的。两个假设哪个更成立,完全看收集到的正面/反面例子那个多,越高级的数据分析师,越有能力充分收集证据,证明自己的领导的想法是对的!!

思路4:测试式分析

适用问题:“如果我们调整政策/更换商品/改进版面,是否能解决问题”

适用场景:领导/业务提了一个尚未发生,计划要做的事

此时需弄清三个关键问题:到底要不要做测试,要做什么级别的测试,要测的到底是啥?

1、如果计划的事情,是历史上从未发生过的(比如上一个全新的产品),那必须测试,不然没法下结论;

2、如果计划的事情,历史上做过类似的(比如投优惠券,以前也投过),那可以拿历史数据做一定参考;

3、如果计划的事情,可以小范围测试(比如让部分业务员改话术,选部分用户投券),那么优先考虑做AB分组,通过ABtest对比差异

4、如果计划的事情,没法小范围测试(比如修改渠道政策,一旦公布开弓没有回头箭),那么就得先做调研,再通过数据测算,让大家有心里准备

总之,根据计划类型来提供实验建议。

另,在实验前,一定要记录清楚以下信息,列清楚了才好做分析:

1、本次对业务调整的点是XX

2、本次调整,期望的目标是改进XX指标

3、本次没有调整XXX影响因素

比如要优化投放效果,你最好记录清楚:到底这个版本改变的是推广主图、关键字、站内路径还是商品/优惠,这样才好在各版本间做对比,如果一次性大改太多,那就只能看整体效果了,没法具体到细节(如下图)。

数据分析思路,我总结了四个好用的模板

 

来源公众号:接地气的陈老师
]]>