您现在的位置:首页 --> 查看专题: 流式数据
传统的 MapReduce 如 Hadoop, 是以任务的形式进行的 — 获取一批数据, 提交给系统, 然后获取结果. 但是, 有一些统计的需求是即时的, 统计任务需要持续的运行, 一旦数据生成, 便立即发给统计任务处理, 生成的结果”推”给接收者. 以一个网站用户在线时长统计的需求为例子, 那么系统就有这几个部分: 数据接收接收 Web Server(如 Apache/Nginx) 的 log, 例如使用 syslog. Mapper(格式转换) 依次输入以行为单位的原始的 Apache log, 输出一条或者多条结构化的数据. 这个输出将出 Reducer 进行下一步处理. Reducer(统计器) 不同的精度用不同的统计器, 因为统计结果必须在要求的精度时间内进行输出. 例如当精度要求是小时, 用户连续在线1个小时, 并且横跨在2个自然小时上,......
[ 共1篇文章 ][ 第1页/共1页 ][ 1 ]
近3天十大热文
-
[69] Java开发岗位面试题归类汇总
-
[66] Go Reflect 性能
-
[62] IOS安全–浅谈关于IOS加固的几种方法
-
[61] 【社会化设计】自我(self)部分――欢迎区
-
[61] 如何拿下简短的域名
-
[61] android 开发入门
-
[59] Oracle MTS模式下 进程地址与会话信
-
[49] WEB系统需要关注的一些点
-
[49] 图书馆的世界纪录
-
[45] Twitter/微博客的学习摘要
赞助商广告