请选择 进入手机版 | 继续访问电脑版
查看: 315|回复: 4

[综合] 初创公司大数据平台的选型和进化心得

[复制链接]
最佳答案
0 
magicwindow 发表于 2016-5-30 14:36:19 | 显示全部楼层 |阅读模式

作者简介:张申竣,魔窗联合创始人兼首席技术官,互联网技术联盟ITA1024讲师团成员。毕业于上海同济大学计算机系,超过10年的软件和互联网行业研发经验。曾在HP、SuccessFactors、EMC等500强企业从事企业级SaaS平台的研发和性能调优,拥有深厚的企业级SaaS服务和移动互联网的背景。


魔窗简介:魔窗(MagicWindow)提供的企业级的Deeplink深度链接解决方案-mLink技术,能够在一天内把App改造成一个本地开放平台,支持把App内任意页面、功能或商品以类似web url的方式进行分发、传播和回流,并提供App内的动态位置管理及App间的一链直达功能,半小时即可完成SDK接入,一天内完成服务化改造。魔窗希望能为创业者解决App运营效率和流量以及用户增长问题。

正文如下:

一、充分了解业务需求和产品所处阶段

架构师的职责永远是根据现有的资源不断做trade off,挑选出最适合公司当前状况的技术方案。所以在我们谈大数据平台选型之前,先看一下创业面临的一些挑战和优势:

1.    资源不足

2.    时间压力大

3.    没有技术上的历史包袱,选型相对自由


前两点是搭建大数据平台的挑战,最后一点是优势。对于大部分创业公司而言,这三点挑战和优势始终存在,但是业务特点随着公司的发展会有相应的变化,一般而言我们可以把创业公司的发展分成下面几个不同的阶段:

  • 产品验证阶段:
  • 产品成熟阶段:
  • 业务增长阶段:

下面就结合魔窗的发展经历谈一下围绕这三个不同阶段,魔窗的大数据平台的发展历程。

首先说明一下我们大数据平台的业务需求:

计算由我们的移动端SDK采集过来的包括,日活,应用打开次数,流失用户,回流用户等移动端监测的常用指标。

因为我们是提供基于Deep Link的一系列应用唤醒服务,所以我们还需要监测,从投放在各个渠道的基于DeepLink生成的短链的曝光,安装转化率。

我们还提供各种营销活动的制作和投放,所以还需要监测营销活动的曝光率。


二、产品验证阶段

先看一下这一阶段的业务特点:

1.      数据量很小,用户最多只有几十个种子用户,整个监测采集到的数据规模根本不能称作大数据。

2.      我们所计算的统计指标也无法确定对用户是否有真正的帮助,很可能整个功能会根据市场反馈最后被砍掉。


这种情况下,我们首先考虑的是要尽量缩小产品验证的成本,所以技术选型的原则很简单,端到端跑通功能,设计和实现上越简单粗暴越好,不需要存在技术积累,被砍了也不可惜。所以这个时候架构的总的原则是保证能够最快速迭代,推倒重来也没关系。

我们的整个计算平台的架构是这样的:



事实上这个都根本不能称作是大数据计算平台,只是一个包含了数据采集,数据计算脚本和数据展示的Java应用,拿目前流行的micro service化来说,这个就是一个micro service 的反例,一个monolithic的应用。

但是非常合适验证产品,利用一些一站式开发框架,修改业务非常简单,MySQL的结构化特点使得计算脚本非常容易。这个架构大约支撑了我们3个月的时间。


三、产品成熟阶段

大约3个月后,我们的产品逐渐成熟稳定了,种子用户也越来越多,此时我们的业务特点发生了变化:

1.      计算指标相对稳定,及时加指标也是基于原有的采集点的计算。

2.      有一些流量大一点的种子用户进来了,数量也越来越多。

3.      计算上分为了实时计算和离线计算这两种需求。

撇开MySQL计算性能的问题不谈,这个时候光是采集数据就会经常造成MySQL连接失效,于是我们在不断优化MySQL服务器端和客户端连接参数的同时,开始了真正的大数据平台的架构。

这个时候的架构有一个总的原则就是可持续迭代,因为产品一旦稳定成熟,技术上就承受不了推到重来的代价了,在这个前提之下我们的架构基于以下原则:

1.      采集端保证大吞吐量。

2.      在存储和计算节点出问题的情况下,保证在一段时间内采集到的数据不会丢失。

3.      性能可以通过Scale Out解决,并且易于做Scale Out。

4.      DevOps简单,能够方便的监测和预警。

下面是基于以上原则我们最后的架构:



数据采集

采用Nginx没有什么太大的争议,异步非阻塞,保证大吞吐量


数据暂存区

这里和一些传统的监测架构有所区别,我们并买有采用把Nginx的日志当数据暂存区的办法,而是直接用了Kafka,好处在于:

1.      比起磁盘IO, Kafka的吞吐量更大,并且提供了异步写入的方法,保证Nginx采集到的数据能够最及时的进入数据暂存区。

2.      消息队列本身就具有分布式的一些特性,比如支持Failover保证高可用,数据可以存放多份,Partition机制使数据的写入和加载更高效。

3.      消息队列天生能解决不同种类监测数据区分的业务问题(比如Topic)。

4.      比起日志,利用Kafka的API能够方便的处理一些数据续传的问题,比如如果存储节点崩溃了,仅仅利用日志是很难知道下次应该从那条记录开始续传的,Kafka就可以利用客户端保存的Offset(实际上我们每个Kafka客户端的Offset是保存在Zookeeper中的)做到。


数据传输

当时在两种方案里摇摆,一个是Flume 还有一个是Spring XD,最终选择Flume的原因在于:

1.      轻量级,使用简单,有大量的source和sink可以用。

2.      能被CDH托管(Spring XD不能被CDH托管,但是可以用yarn做资源调度)。

但是这个选择最终造成了后期的一些困扰,之后会提到。


数据存储计算离线计算

Spark+ HDFS的模式相信已经被大家所熟悉,下面之谈一下我们对于Spark的优化心得

1.      了解应用中的RDD的partition,执行中的stage情况,避免过多小任务。

2.      尽可能程序中复用RDD,如果多次使用,考虑做cache,根据实际情况选择合适的持久化策略。

3.      必要时候使用broadcast 和 accumulator。

4.      根据自己的作业具体情况结合系统资源监控调整主要资源类参数,例如  num-executors,executor-memory,executor-cores和spark.default.parallelism等。

5.      如果允许,建议尝试官方推荐的Kryo。

6.      对于jvm,, 通过打印GC信息了解内存使用情况,调整相应参数。


实时计算

我们又把实时计算拆分成了流式计算和针对特定时间范围内的全体数据集合的实时计算。因为对于像用户留存这样的指标,根据回溯历史数据去做计算是相当困难的,采用流式计算的话会简单很多,我们根据我们的业务特点也并没有引入Storm或者Spark Stream这样的流失框架,而仅仅是在Flume传输数据的过程中,简单地利用HBase做了流式计算。

下面我们将解释一下我们是如何利用HBase来做用户留存率这一指标的计算的。

   

留存([url=]https://en.wikipedia.org/wiki/Churn_rate[/url])计算,如果使用传统基于历史数据集的查询非常复杂,我们转换思路,采用了流式的复杂写,简单读的方式。

基本思路如下:

记录设备的首次和上次访问时间


为各租户定义需要计算的留存区间,例如5日留存,7日留存,2周留存,1月留存等,例如某租户tenant1 ,选择配置为计算首日,5日,7日和3月留存。

那么该租户所属的某个app(source App)发送的一条类似如以下的event,tenant1|deviceId1|timeStamp1|action1 ,应用会做以下操作:

1.      如果是新deviceId,则上表中新增访问记录。

2.      如果不是,例如本例中的deviceId1, 计算距离上次访问时间间隔(以天计),(timeStamp1-pt1)=2day,更新上表中的previous access time。

3.    通过CAS incr. 更新以下留存记录, 如果跨天了,表示这个设备的用户就是留存用户。如果跨1天,表示1天留存,跨3天,表示3天留存,依次类推。这是天的留存,周的留存根据Previous access time判断是否跨周,道理相同。

其他如流失和回流用户基本计算方法比较接近,细节处理各异。


对于特定时间范围内的全体数据集的实时计算,我们选用了Elasticsearch作为实时计算的集群,原因如下:

1.      数据结构基于Json,因此是半结构化的数据,易于计算。

2.      基于我们的测试,查询的response time基本能够随着节点的增长线性降低。

3.      非常容易做Scale Out,非常容易通过参数设置调整数据备份和Partition的策略。

4.      支持查询的模板化,使查询和客户端代码解耦。

5.      包括查询,管理在内的所有功能API化,易于运维。

6.      插件丰富支持从其他数据源双向导入数据。

为什么选择CDH

我们曾经接触过的几个Hadoop 发行版 CDH,IDH(Intel),HAWQ(Pivotal),Hortonworks。

之前已经谈到,在选型里面我们比较关心的是DevOps,因为到目前为止我们还没有专职的运维,所以需要最大限度的利用已有工具提升运维的效率,在这一方面CDH是最强的,它的管理工具提供了安装,维护,监测,预警等一系列帮助运维的功能,节省了我们维护的很多时间。

IDH的特点是在HBase提供了LOB的类型,对二进制存储有帮助,使用特殊的存储类型避免发生频繁的Compacting。同时还优化了Hive计算的性能使相关数据尽量在同一region里。这几点和我们的需求毫无关系,而且Intel已经战略投资Cloudera,之后会把IDH的功能逐步移入CDH。

HAWQ,最为PivotalHD的基础,HAWQ最大的特点是在于它实际上是一个MPP架构的数据库,提供了基于HDFS之上的SQL支持。3个Data Node的情况下,上亿级别的包含group by聚合以及SQL子查询的复杂查询响应在10秒左右。所以HAWQ非常适合异步的近实时查询,但是我们也没有这个场景。不过用HAWQ可以把开发计算任务的成本几乎降到0是非常具有吸引力的。

Hortonworks,各方面和CDH很像,但是管理工具不如CDH强大。


四、业务增长阶段

随着BD的铺开,接入的客户越来越多,随着数据量的增长,我们发现了在产品成熟阶段设计上的许多问题,但是因为之前的架构原则是可持续迭代,所以问题都发生在局部的某些点上。

1.      没有用到任何序列化技术,数据存储是简单粗暴的文本格式,这样会导致两个问题:

a)      当数据种类增加时,计算任务会产生大量join,既增加计算的复杂度,又影响性能。

b)     计算脚本和数据格式严重耦合,脚本任务取字段依赖于该字段在文本文件中的位置,增减字段需要评估所有job的影响。


3.      Flume再往HDFS写入时,无法保证一个partition一个文件,往往会被打散成许多小文件,Spark的计算性能和Namenode的性能对小文件的数量严重敏感。

4.      采用Spark Standalone,一个节点只能起一个executor,job 只能顺序一个个执行。

5.      被CDH 托管的Flume 一台机器只能使用一个Flume 节点。

针对这些个问题,我们又逐步进行了一些优化:

1.      录入HDFS的文件采用Arvo的格式,保证采集到的一条完整数据可以存储在同一个文件中,不用拆分,摒弃了join。另外基于Schema的数据,使得计算Job的语义更容易理解,可维护性更好。

2.      在离线计算任务之前,我们先回跑一个脚本将同一个partition下产生Flume产生的文件给合并,大大提升计算性能。

3.      从Spark standalone 切换到Spark Yarn。这样做的好处在于:

a)      统一了我们的资源调度平台;

b)     Yarn会自动优化数据的存储和计算发生在同一地域的问题(同一台服务器,同一台机柜);

c)      我们而言比起spark standalone 最大的好处在与每个节点起的executor的数目可配,不同的job可以并行执行。

4.      Yarn本身作为一个资源调度平台的特性先不谈,对我们而言比起sparkstandalone 最大的好处在与每个节点起的executor的数目可配,不同的job可以并行执行。


五、大数据平台的DevOps

团队的特点:只有一个兼职的运维。生产环境的运维由这个兼职的运维,我们的架构师和我本人负责。所以不可能花太多人力在运维上,因此我们必须保证监控,调试,重新发布的自动化程度,这也是我们选择CDH的一个很重要的原因。

另外我们还单独开发一个监测和重启Spark任务的管理工具,而这个工具又是基于我们自主开发的离线任务框架来进行监测的。

这个工具包括一个web console, webconsole会通过JMX去控制job的基本操作,同时提供对已执行过的job的信息访问,这些数据存储在mysql中,通过Job Repository服务访问。


六、总结和心得

从我们的平台发展经历来看,在初创公司做大数据平台的选型,最重要的有两点:

1.      产品目标导向,不同的阶段利用有限的资源采集不同的架构策略。

2.      无论何种架构策略, DevOps始终是架构选型的一个重要考量,因为它直接影响到你如何评估和调整架构。

(本篇文章整理自张申竣5月26日在『ITA1024大数据技术精英群』里的分享实录:初创公司大数据平台的选型和进化心得 。)


最佳答案
0 
177651098 发表于 2016-6-1 15:14:05 | 显示全部楼层
多多发帖。分享经验哦。跟着学习交流
最佳答案
0 
miaon 发表于 2016-6-3 16:08:45 | 显示全部楼层
非常棒,赞一个。
最佳答案
0 
天地无空 发表于 2016-6-3 18:43:29 | 显示全部楼层
我就是来看看而已。我就是来看看而已。我就是来看看而已。我就是来看看而已。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

推荐阅读 More>

© 2001-2015 9秒社团

合作伙伴

公司简介 | 联系方式
COPYRIGHT©2015 ZHONGQINGLONGTU NETWORK CO.LTD ALL RIGHTS RESERVED.ICP备11023195号-4
北京中清龙图网络技术有限公司
返回顶部 返回列表