ASO优化APP如何利用大数据分析
第一,用数据来测控产品,能让你了解到用户的使用情况。除非你喜欢与世隔绝的,不然还是应该多掌握一些信息。诚然,信息量太大,你若是没有判断和筛选能力,往往会事与愿违,但别因为这点就觉得数据指标洪水猛兽。
第二,如果产品的改进让用户觉得很有意义,数据指标自然就会上升。但如果使用产品的体验没有什么改变,就不能说你的改进很成功。相反,如果你做了一些调整,但使用的人数因此减少,那么不管你做了什么,只能说明一个问题——你搞砸了。
数据目标很有价值的第三个原因:它能把整个团队团结起来,大家围绕着一些清晰和有形的指标,各司其责。单纯从逻辑上讲,让50个员工在一起,为了所谓「创造超绝佳的用户体验」这样一个目标奋斗,是极其困难的。当你发表完激情洋溢的激励演说,他们倒是会持续鼓掌,然后说道「好的,加油!为了绝佳的用户体验奋斗!这就是我们追求的所有!」但当新一周开始,A团队兴高采烈的说:「看!这就是我们创造的绝佳用户体验!」而B团队则说:「不是吧,这个看上去一般般。」出现这种情况到底是因为什么?谁的观点才是正确的?我们如何能够持续有效地定义到底什么是「绝佳的用户体验」?
这就好比,你吃太多甜甜圈而导致肚子疼,然后就觉得碳水化合物不是什么好东西。同样,数据目标也会导致一些评判欠妥当。这类事件究其原因有二:一、并不是所有能够被测控的东西都值得被设定目标,而且也不见得能产生什么影响。二、只是单纯的看数据,也不能统揽事情的全局。通常,想要看的更宏观,你需要一系列的统计数据。
如果你恰巧找错了测控的方向,却还继续推进,那么事实上你可能正在损害用户体验。
大数据的处理
1. 大数据处理之一:采集
大数据的采集是指利用多个数据库来接收发自客户端(Web、App或者传感器形式等)的 数据,并且用户可以通过这些数据库来进行简单的查询和处理工作。比如,电商会使用传统的关系型数据库MySQL和Oracle等来存储每一笔事务数据,除 此之外,Redis和MongoDB这样的NoSQL数据库也常用于数据的采集。
在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户 来进行访问和操作,比如火车票售票网站和淘宝,它们并发的访问量在峰值时达到上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间 进行负载均衡和分片的确是需要深入的思考和设计。
2. 大数据处理之二:导入/预处理
虽然采集端本身会有很多数据库,但是如果要对这些海量数据进行有效的分析,还是应该将这 些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简单的清洗和预处理工作。也有一些用户会在导入时使 用来自Twitter的Storm来对数据进行流式计算,来满足部分业务的实时计算需求。
导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量经常会达到百兆,甚至千兆级别。
3. 大数据处理之三:统计/分析
统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行普通 的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到EMC的GreenPlum、Oracle的Exadata,以及基于 MySQL的列式存储Infobright等,而一些批处理,或者基于半结构化数据的需求可以使用Hadoop。
统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特别是I/O会有极大的占用。
4. 大数据处理之四:挖掘
与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数 据上面进行基于各种算法的计算,从而起到预测(Predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的Kmeans、用于 统计学习的SVM和用于分类的NaiveBayes,主要使用的工具有Hadoop的Mahout等。该过程的特点和挑战主要是用于挖掘的算法很复杂,并 且计算涉及的数据量和计算量都很大,常用数据挖掘算法都以单线程为主。
想了解更多的优化方案点击这里"北ASO优化"