摘要:本文作者叶玎玎,GrowingIO 的联合创始人,他也是连续创业者,是企业协作工具风车的联合创始人,十多年的工程开发经历和多年的项目管理经验,现在负责核心工程开发和技术实施。本文是他对于互联网创业公司数据采集和分析的一些思索和心得。
过去的六七年我一直在企业服务领域创业,使用过不少分析工具:GA、Mixpanel、Heap 等等,功能很强大,但是总感觉少了点什么。我们看到了PV/UV这样的概览性指标,但是它们没法指导我们做的更好。在通过这些粗糙的数据得到用户做了什么后,还要看到他们是怎么做的,明白他们为什么做。我们需要实时、全量的用户行为数据,通过对用户行为整体流程的分析,找到转化的关键节点以及用户流失的核心原因,以此帮助我们对症下药,找到可执行的指标,落实为优化行动。
今天,我想分享的就是我们在这方面的一些探索与解决方案。
一.用户行为分析的巨大需求纯从数据组成的角度来说,一个完善的闭环数据源主要是分成三大块:第一块是用户行为数据,第二块是服务端日志数据,第三块是交易 Transaction 数据。其中,除了交易数据会经常被存储在离线数据库中,通过 ETL 来获取分析以外,行为数据和日志数据很多时候都是近似的,完备的用户行为数据基本能覆盖绝大多数的服务端日志数据,同时里面包含着很多日志数据里面所缺乏的信息。
从技术发展角度来说,最近几年发展最快的可以说是前端,每个月都会有很多新的东西出现,整体趋势是往单页应用发展,追求用户体验。同时,还有移动端应用,也产生着大量的行为数据,这些都不会跟服务端有过多交互。
所以,从应用提供商来说,我们需要知道屏幕前的人是怎么使用我们的产品的,洞悉用户行为背后的价值。
GrowingIO 从去年 12 月 8 号发布到现在已经过去几个月了,目前有几百家客户在使用。我总结了一下客户经常问我们的分析需求,大致可以分成三个场景:
- 第一个场景是:我做了一次活动,我写了一篇文章,我想知道到底效果如何,有没有给我带来足够的流量,也就是市场营销效果衡量。我们有些客户,每年有上百万的市场预算在 SEM 上,但是却完全不知道这些钱花出去到底带来了多少回报。
- 第二个场景是用户激活流程是否合理,辛辛苦苦导入了流量,这些流量有没有转化为用户,注册流里面每一步转化了多少,流逝了多少,没有转化的去了哪里。再在这个基础上,我们应该怎么优化,优化后的效果是怎样的,这周的转化率比起上周是否有进步,差别是怎么引起的等等。
- 第三个场景是这些注册的用户,有没有留下来成为一个忠诚用户甚至付费用户。留下来的用户,是因为什么留下来的。是否存在一个魔法数字,可以去极大的提高用户留存,比如:
LinkedIn 发现在第一周增加 5 个社交关系的用户留存度很高;
Facebook 发现在第一周增加 10 个好友的用户留存度很高;
Twitter 发现在第一周有 30 个 followers 的用户留存度很高;
Dropbox 发现在第一周安装两个以上操作系统的用户留存度很高。
这些都是在留存分析中发现的魔法数字。
二.复杂而易错的传统分析方法归根结底,所有的分析最终都是为了商业服务,而商业是为人服务的。所以,用户行为分析就是我们需要建立一套基于用户的行为的分析体系,在了解用户“谁”做了“什么”,“怎么”做的之外,进而明白是“为什么”做,对症下药,转化成为优化行动。
分析是一个长时间优化的过程,需要我们持续监控数据的变化。而数据指标除了行为数据指标外还有一类,我们称之为虚荣指标,比如 PV、UV 之类流量概览性数据,这些指标看到了也就看到了,没法指导我们做的更好。用户行为数据指标则是另外一类,比如我们上面介绍的用户获取、用户激活、用户留存之类,了解这些行为后面都会对应到一个优化流程,所以也叫做 Actionable Metric,可执行指标,这也是用户行为数据的魅力。
那么接下来,我们要开始跟踪用户行为了,我们要怎么开始呢。一般可以分成以下七个步骤:
1.确定分析场景或目标
确定一个场景,或者一个目标。比如,我们发现很多用户访问了注册页面,但是最终完成注册的很少,那么我们的目标就是提高注册转化率,了解为什么用户没有完成注册,是哪一个步骤挡住用户了。
2.思考需要了解哪些数据
思考哪些数据我们需要了解,帮助我们实现这个目标。比如对于之前的目标,我们需要拆解从进入注册页面到完成注册的每一个步骤的数据,每一次输入的数据,同时,完成或者未成为这些步骤的人的特征数据。
3.确定谁来负责收集数据?
谁负责收集这些数据,一般是我们工程师出马。
4.什么时候评估和分析?
收集上来的数据如何分析,什么时候来评估采集到的数据。
5.如何给出优化解决方案?
发现问题后,怎么来出解决方案。比如,是否在设计上改进,或者是否是工程上的 bug。
6.谁负责实现解决方案。确定方案的实施责任人。
7.如何评估解决方案的效果?下一轮数据采集和分析,回到第一步继续迭代。
知易行难。这整个流程里,第 2 步到第 4 步是关键。目前传统的服务商比如 GA、Mixpanel、友盟所采用的方式我称之为 Capture 模式。通过在客户端埋下确定的点,采集相关数据到云端,最终在云端做呈现。比如图中这个示例,相信在座的各位应该都有写过类似的代码。
Capture 模式对于非探索式分析来说,是一个非常行之有效的方法。然而,同时对参与整个流程的人也提出了非常高的要求:
缺点1:依赖经验导向
Capture 模式非常依赖人的经验和直觉,不是说经验和直觉不好,而是有时我们自己也不知道到底什么是好的,经验反而会成为一个先入为主的负担,我们需要用数据来测试来证明。
缺点2:沟通成本高
另外,一个有效的分析结果,依赖于数据的完整性和完备性。跟不少企业沟通后,不少的吐槽都是“连日志格式都统一不了”,更别提后续分析了。这不是具体人的问题,更多是协作沟通的问题。参与人越多,产品经理、分析师、工程师、运营等等,每个人的专业领域又各不相同,出现误解太正常了。曾经跟我们的 CEO Simon 交流过,他在 LinkedIn 带领数据分析部门的时候,LinkedIn 专门组建了一个多达 27 人的埋点团队,每天开会,就是为了统一埋点的格式和位置,经常一开就是几个星期。
缺点3:大量时间数据清洗和数据分析代码侵入
另外,由于需求的多变性,埋点分成多次加入,缺乏统筹设计和统一管理,结果自然是无比肮脏。所以我们数据工程师还有个很大的工作是数据清洗,手动跑 ETL 出报表。根据统计,绝大多数分析工作,百分之七十到八十的时间是在做数据清洗和手动 ETL,只有百分之二十左右在做真正有业务价值的事情。另外一方面,作为一个有洁癖的工程师,最恨的就是大量的分析代码侵入了我的业务代码,删不敢删,改不敢改,日积月累,最终代码库整个就混乱了。
缺点4:数据漏采错踩
以上都还是好的,最最让人抓狂的是,上线了,发现数据采集错了或者漏了,修正后,又得重新跑一遍流程,一个星期两个星期有过去了。这也是为啥,数据分析工作是如此耗时一般以月计的原因,非常低效。
三.无需埋点的数据分析原理在经历了无数个痛苦的夜晚以后,我们决定要换个思路思考了,希望能最大限度的降低人为的错误,我们称之为 Record 模式。区别于 Capture 模式,Record 模式是用机器来替代人的经验,自动地采集用户在网站或者应用里的全量行为数据。因为自动化,我们从分析流程的源头开始就控制了数据的格式。
所有数据,从业务角度出发,划分为 5 种维度: Who,行为背后的人,具有哪些属性;When,什么时候触发的这个行为;Where,城市地区浏览器甚至 GPS 等;What,也就是内容;How,是怎样完成的。基于对信息的解构,保证了数据从源头就是干净的,再在此基础上面,我们完全可以把 ETL 自动化,需要什么数据可以随时回溯。
回到之前流程的第二步到第四步,我们已经把参与人从多方减少到基本就一方了,无论是产品经理、分析师还是运营人员,都可以使用可视化工具来查询和分析数据,真正做到所见即所得。不仅是 PC,还支持 iOS、Android 和 Hybrid,可以进行跨屏的用户分析。
作为一家用户行为分析工具提供商,GrowingIO要做的并不只是用于内部,还需要适应外部成千上万的网站和应用,所以在实现过程中我们做了很多探索:
- 自动用户行为采集
目前我们所接触的 GUI 程序,无论是 Web App、iOS App 还是 Android App,都是基于两个原则,树形结构和事件驱动模型。无论是 Web 上的 DOM 结点结构,还是 App 上的 UI 控件结构,都是构建好的一颗完整的树形结构渲染在页面或者屏幕上。所以通过对树结构的监控和检测,我们就可以非常方便地知道哪些结点发生了变化,何时发生了变化,发生了什么变化。同时,当用户做了某个操作,比如鼠标点击、屏幕触控,都会触发一个事件,绑定了该事件的回调函数就会被触发开始执行。基于此两点认识,在 SDK 里面如何实现无埋点就比较清楚了。只要能在结点变化或者事件发生的时候触发我们定义的函数,那么我就知道事件发生的多重信息。
- 数据可视化
如何把采集到的数据和业务目标匹配在一起。我们的解决方案就是我们的可视化工具。刚才已经提到任何一个原子数据,都被拆解成了 5 种不同分类的维度。所以,当我们在可视化工具里面做匹配时,也就是对于不同维度信息的匹配。比如一个链接的点击,会匹配到内容或者跳转地址也就是 What,点击行为也就是 How。还有其在页面的定位信息,比如在树形结构中的层次位置,是否带一些 id、class 或者 tag,都是用来做数据匹配的信息。我们开发了一套智能匹配系统,通过对用户真实行为的学习,建立了一套规则引擎,用于元素匹配。也正因为采集到的是全量数据,整个匹配系统有如基因进化一般,既有对过去历史的记忆,也有顺应新结构的演进变化。
- BI 商业分析
我们在系统设计过程中,整个 Data Pipeline 过程中,数据进过处理后,会根据优先级不同,首先通过 Spark Streaming 实时的处理已定义数据,然后每过一段时间对匹配到的数据做离线预聚合,多维分析非常灵活。
用户行为数据采集的目的是通过了解用户过去做的行为,用来预测未来发生的事情,无需埋点,随时回溯数据,让产品经理一个人就可以搞定用户行为分析的全部流程。GrowingIO 希望能提供一个简单、迅速和规模化的数据分析产品,能极大地简化分析流程,提交效率,直达业务。而这一切的基础,就是我们从第一天开始就一直在研发的无埋点智能全量数据采集,基于此优化产品体验,实现精细化运营,用数据驱动用户和营收的增长。
本文采用「CC BY-SA 4.0 CN」协议转载自互联网、仅供学习交流,内容版权归原作者所有,如涉作品、版权和其他问题请给「我们」留言处理。