前言


本文不会涉及具体细节的实现,主要是探讨实现思路。数据仓库并不只是一个理论性质的概念,而是包含了大量细节,所以从数据采集开始,到数据处理,至最终的数据展现,这整个过程中,都需要在原理和实现方式上进行思路分析,这有这样,才可以完整地实现最终数据仓库理论。


一、技术路线图



二、Web端日志采集的业务概述

目前,主要有三种方式可以实现Web端数据采集,分别是服务器日志、URL解析及JS回传,详情如下:


服务器日志指的是指Web服务器软件,例如Httpd、Nginx、Tomcat等自带的日志,例如Nginx的access.log日志等。

URL解析,是指在对服务器进行访问时,将URL信息及携带的参数进行解析后,上传服务器,例如访问百度首页:https://www.baidu.com/s?ie=utf-8&wd=你好,我们可以获得本次访问的word为“你好”。

JS回传,指的是Web页面上添加的各类统计插件,通过在页面嵌入自定义的Javascript代码来获取用户的访问行为(比如鼠标悬停的位置,点击的页面组件等),然后通过Ajax请求到后台记录日志。

浏览器的日志采集种类可以分为两大类:


页面浏览日志 :别名为“展现日志”;指的是当一个页面被浏览器加载时所采集到的日志,这是浏览器最基础的互联网日志,也是PV及UV统计的基础。

页面交互日志 :别名为“点击日志”;指当页面加载和渲染完成后,记录用户在网页上进行的各种行为,这样可以方便量化感知用户的兴趣点。

除了上述这些日志之外,还有一些日志可以对特定场合进行统计,例如页面曝光时长日志、用户在线操作监控等,但这些日志都是在上面两类日志的原理上生成的。


Web端重要指标主要包括三个部分:


页面浏览 :PV、UV、IP、跳出率、平均访问时长、转化次数等。

页面交互 :搜索词、控件点击、页面跳转等。

其他 :转化路径分析、设备分析、访客分析、系统环境、地域分布等。

三、Web端日志采集流程

当前,最经典的网页访问过程还是以浏览器请求、服务器响应并返回所请求的内容为主,主要用以传输HTML文档,浏览器和服务器之间的通信一般都会遵守HTTP协议,然后慢慢过渡到最新的HTTP2.0版本。一般来说,一次典型的访问过程可以分为下面几部分:


用户点击浏览器网页上的链接。

浏览器在执行用户操作时,会解析用户操作所请求的内容,并根据HTTP协议中设定好的样式将操作转化为一个HTTP请求发送出去。

服务器按照设定好的逻辑处理这一请求,并且根据HTTP协议规定的样式,将响应结果返回浏览器。

浏览器收到服务器的内容后将它依照规定好的文档样式展现给用户。

在这一系列操作的处理过程中,用户浏览日志的采集主要在第四步实现,也就是在浏览器解析文档时才能进行。因此我们可以得出一个结论,HTML文档中适当位置增加一个日志采集节点,当浏览器解析到这个节点时,便会发出一个特定的HTTP请求到日志采集服务器,日志采集服务器接收到请求时,便可以确定浏览器已经成功接收和打开了页面。目前业界常见的日志采集方案在原理上都是相同的,只是在实现的具体细节上会有差异。


但想要满足业务需求,仅仅只统计页面的操作不够的,还需要采集用户在各种场合下的具体行为,这是因为我们在采集时常常会在特定的位置添加一个JS空间,当用户在页面上执行某个行为时,便会触发一个异步请求,按照约定的格式向日志服务器发送点击、等待、报错等交互行为。


四、Web端日志的清洗和预处理

在大部分场合下,收到的日志并不能直接提供给下游使用,而是只能作为ODS基础日志进行保存,为了适应大数据平台的半结构化特征要求,他们还需要进行一些调整,转化为DWD基础日志才可以使用,具体原因有如下几种:


反作弊、反爬虫、反攻击要求 :Web端日志作为当前互联网行业大数据分析的基础数据源,在很多实际业务场景下,常常会含有不少的恶意攻击行为,例如流量作弊、爬虫抓取、流量攻击等,这些恶意行为会导致日志的相关统计指标产生偏差。因此,为了让日志根据参考价值,需要对日志进行合法性校验,还需要由专业的人员来处理相关的攻击性行为,这将是一个费时费力的过程。

数据项修正 :为了使得后续日志应用的统计接口相互统一,常常需要对日志中一些公开且重要的数据值做归一、标准化处理或反向补正。例如用户登录后,需要对登录前的日志做身份信息回补、例如当金额信息因为部分原因出现负值时,需要人工进行补正操作,等等。

无效数据剔除 :在日常工作中,由于业务变更或者别的原因,常常会使得很多采集到的数据变得没有意义,而这些数据常常会干扰到后续的数据分析。为了让这种干扰的影响降低,就需要定时对处理代码进行更新,以及对不需要的统计日志进行处理。

日志隔离分发 :如果团队发展顺利,团队规模常常会逐渐变大,而一旦团队规模变得庞大时,一些数据就不可能完全对外公开了,此时就需要采用特殊的采集流程,用以保障数据的安全和隐私。

五、漏斗模型简介


Web端的分析经常用到的模型为:漏斗模型。这里介绍漏斗模型,对于理解一些常见的统计方式有比较好的帮助,例如淘宝SPM体系,当你熟悉和了解之后,会发现它真的很好用。


漏斗模型全称为“ 搜索营销效果转化漏斗 ”,对应了企业搜索营销的各个环节,反映了从展现、点击、访问、咨询,直到生成订单过程中的客户数量及流失。从最大的展现量到最小的订单量,这个一层层缩小的过程表示不断有客户因为各种原因离开,对企业失去兴趣或放弃购买。可以说,互联网商业价值的体现,与漏斗模型有着直接的关联关系,因此也是一系列技术实现及数据分析的重点。


漏斗模型是一个线性流程,从开始到结束,用户在每一个环节,都会产生流失,就像漏斗一样。以电商为例,最常见漏斗模型就是:浏览/搜索-加购-下单-支付-复购,因此对于统计数据而言,找出用户购买一个商品的搜索过程,来反思用户的行为,就显得十分有必要。数据人要做的工作,就是整理出路径中各个环节的数据,考虑用户流失的因素,进行对应的优化,或者通过缩短用户路径来优化产品体验。其实不论在电商平台、招聘平台、广告平台等常见的互联网业务模式中,漏斗模型始终是数据分析工作的重点。这里通过一个图来理解漏斗模型的商业价值:



但说实话,目前,大部分公司不太可能会为了进行数据统计而来搭建一个功能如此完整的平台,也有很多公司想从不同的地方来看一看自己的数据是否准确,这 时 大家都会选择百度统计来进行统计或者是对比数据。 公司的统计往往是两条线,一条是自有线的统计,另一条便是发给百度统计等第三方平台来进行对比分析。 因此在统计平台的功能设置上,经常要与百度统计对标,因此数据仓库不仅是一个过程的搭建,还有很多固有的业务逻辑在其中。


六、淘宝SPM码

漏斗模型比较优秀的应用案例为 淘宝SPM码 。查看淘宝网页的源代码会经常看到

http://detail.tmall.com/item.htm?id=XXX&& spm=2014.123456789.1.2 这样的例子,这是淘宝提供的SPM是淘宝社区电商业务(xTao)为外部合作伙伴(外站)提供的一套跟踪引导成交效果数据的解决方案。简单说来, SPM编码 是一种 用来跟踪页面模块位置的编码,标准spm编码由4段组成,采用a. b.c.d的格式(建议全部使用数字),其中:


a代表站点类型 ,对于xTao合作伙伴(外站),a为固定值,a=2014。

b代表外站ID (即外站所使用的TOP appkey),比如您的站点使用的TOP appkey=123456789,则b=123456789。

c代表b站点上的频道ID ,比如是外站某个团购频道,某个逛街频道,某个试用频道等。

d代表c频道上的页面ID ,比如是某个团购详情页,某个宝贝详情页,某个试用详情页等。

完整的SPM四位编码能标识出某网站中某一个频道的某一个具体页面。比如xTao合作伙伴(a=2014)中某个外站appkey为123456789(b=123456789),频道ID为1(c=1),页面ID为2(d=2),那么spm=2014.123456789.1.2,就唯一标识外站123456789的频道1上的页面2,从这个页面点击出去的链接,后面都应该携带spm=2014.123456789.1.2的参数串。这样,通过这个编码,我们就能唯一的定位到一个url是由外站中哪个具体页面点击生成的。


因为spm编码本身是有层次的,因此,我们可以:


单独统计spm的a部分 ,我们可以知道某一类站点的访问和点击情况,以及后续引导和成交情况。

单独统计spm的a.b部分 ,我们可以用来评估某一个站点的访问和点击效果,以及后续引导和成交情况。

单独统计spm的a.b.c部分 ,我们可以用来评估某一个站点上某一频道的访问和点击效果,以及后续引导和成交情况。

单独统计spm的a.b.c.d部分 ,我们可以用来评估某一个频道上某一具体页面的点击效果,以及后续引导和成交情况。

基于SPM可以得到的效果统计指标:


PV :通过指定spm编码引导到宝贝详情页面的PV。

UV :通过指定spm编码引导到宝贝详情页面的UV。

支付宝成交人数 :通过指定spm编码引导到宝贝详情页面的用户当天对同店商品的支付宝成交人数。

转化率 =支付宝成交人数/UV,代表通过指定spm编码引导的用户最终转化为购买用户的比率。

七、客户端日志采集


与网页日志对应的,是手机应用为基础的客户端日志,由于早期手机网络通讯能力较差,因而SDK往往采用 延迟发送 日志的方式,也就是将日志统计在本地,然后选择在Wifi环境下上传,因而往往会出现统计数据延迟的情况。现如今网络环境好了很多,4G、5G流量充足,尤其是视频类APP基本上都是一直联网,因而很多统计能够做到实时统计。


客户端的日志统计主要通过SDK来完成,根据不同的用户行为分成不同的事件,“事件”是客户端日志行为的最小单位,根据类型的不同,可以分为 页面事件 (类比页面浏览)和 控件点击事件 (类比页面交互)。


页面事件的统计主要统计如下三类信息:


设备及用户的基本信息 ,例如IMEI、用户账号等。

被访问页面的信息 ,例如商品ID、浏览店铺等。

访问的路径信息 ,例如上一个页面来源等。

与Web日志采集类似的是,交互日志的采集同样无法规定统一的采集内容,除了记录基本的设备信息和用户信息外,很多统计的方式是可以由业务方自定义统计的,也就是根据业务需求的不同,产品在配置平台上自定义一个统计项,下次SDK更新时便可以加入统计项,自主看到统计内容,便于自动化的管理运维。但在每个事件上,会提供一些额外的统计信息,例如事件名称、事件时长、事件属性、事件页面等。


八、客户端日志的聚合

由于事件的统计涉及到很多参数,基本上是一个行为能够产生一条日志,不仅客户端会产生大量的记录数据,对于服务端的接收通常会产生很大的流量负担。因此统计SDK往往会有聚合和压缩的功能,对于一些展现场景,可以适当的合并日志,以减少数据量。例如在淘宝等APP中,一次商品页的浏览会产生上百条日志,从下游分析的角度来看,只需要知道哪些内容被曝光了即可,因此完全可以在一条日志中记录曝光的ID,而无需每个都统计一遍。


还有一种场景,因为APP存在回退的情况,因此在访问路径的分析中,往往会产生干扰统计,因此在统计时需要添加一些特殊的标识,来鉴别该行为是否属于回退行为。


九、统计SDK

市面上最常见的,如 友盟 、Talkingdata、百度统计、腾讯云分析、GA等第三方统计服务提供商,也诞生了很多在某些分析方面更加专一、深入的统计服务商,比如诸葛io、growingio、神策等,看自己需求进行配置。


十、唯一设备标识符

在客户端的相关统计中,如何鉴定一个用户是非常难的,因为网页有统一的Cookie来进行识别,但客户端并没有。历史上, IMEI、IMSI、MAC地址 、苹果禁用之前的UDID,都可以用,但由于用户对于自我保护意识的提高及系统的升级,现在已经很难获得一些基本的设备信息了,不止是苹果,Android同样也通过技术手段限制了设备信息获取。对于只有一个App的公司来说,获取唯一用户并不难,但对于拥有许多App的公司来说,这一点就显得十分重要,同时,这也成为了业界难题。


十一、H5与Native的统一

App有两种类型,一种是纯 Native 的App,另一种是既有Native,也有 H5 页面嵌入的App,目前大部分的App都是两者兼有的状况。Native页面的数据统计主要通过SDK进行,但H5页面的数据统计还是基于浏览器的页面日志来进行,由于采集方式的不同,很多情况下两个页面互相跳转时,便无法还原用户访问路径,对于数据的统计分析产生很严重的影响。解决的思路有两种,一种是Native日志归拢到H5日志中,另一种是H5日志归拢到Native日志中,但综合考虑,归拢到Native日志更为合理,因为SDK能够采集更为全面的日子信息。具体实现方式上,可以在H5页面中嵌入JS代码,通过调用WebView框架中的JSBridge接口,来实现参数的传入,并由统计SDK进行日志的封装。当然方法不是万能的,有其他的好方式也可以尝试。


十二、大促保障

大促保障指的是 在类似双十一这样的大促销环境下,保障短时间内巨大流量的情况,这需要在一开始就对系统进行一定的改造。在高并发场景下,从数据的埋点采集,到日志服务器的收集,再到数据传输,再到数据的分析和统计,如果上面任何一个环节出现问题,大促保障就是失效的。由于日志处理的链路非常长,因此可以通过限制流量、消息队列削弱峰值、异步处理、内存缓冲、扩展服务等方式进行,在日志采集环节中,可以通过延迟非核心日志上传的方式,优先处理核心日志,以保障统计效果。在天猫双十一中,可以经常看到暂停部分服务的通知,便是这种方式的实现。

点赞(0)
立即
投稿
发表
评论
返回
顶部
{__SCRIPT__}