即时流式数据 MapReduce
传统的 MapReduce 如 Hadoop, 是以任务的形式进行的 — 获取一批数据, 提交给系统, 然后获取结果. 但是, 有一些统计的需求是即时的, 统计任务需要持续的运行, 一旦数据生成, 便立即发给统计任务处理, 生成的结果”推”给接收者.
以一个网站用户在线时长统计的需求为例子, 那么系统就有这几个部分:
数据接收
接收 Web Server(如 Apache/Nginx) 的 log, 例如使用 syslog.
Mapper(格式转换)
依次输入以行为单位的原始的 Apache log, 输出一条或者多条结构化的数据. 这个输出将出 Reducer 进行下一步处理.
Reducer(统计器)
不同的精度用不同的统计器, 因为统计结果必须在要求的精度时间内进行输出. 例如当精度要求是小时, 用户连续在线1个小时, 并且横跨在2个自然小时上, 那么, 统计结果应该是2条. 如果精度要求是天, 那么类似, 跨越自然天的数据应该被分割.
当 Reducer 的精度时间到达之后(如一个小时过完), Reducer 应该复位.
传统 Reducer 的输入是来自 Mapper, 但 Reducer 的输入来源应该包括其它的 Reducer. 例如, 按小时统计的 Reducer 的输出可以作为按天统计的 Reducer 的输入.
结果分发器
结果会以不同的形式发送出去, 如写成文件, 发邮件, 推送到其它系统…
结果的结构
有一种简单的数据库存储结构(先不考虑分表分库), 表的结构为:
time, timespan, key, val UNIQUE(time, key)
用户在线时长的数据这样存:
2012-05-25 09:12:20, 小时, ip1, 100s // ip1在线了100s, 从09:12:20开始 2012-05-25 12:24:10, 小时, ip1, 200s // ip1在线了100s, 从09:12:20开始 2012-05-25 09:12:20, 小时, ip1, 300s // ip1 2012-05-25 在线了300s, 但不是连续在线时间
系统
根据上面的思想, 可以设计出一个即时流式数据的 MapReduce 系统, 也可以做一个代码框架. 但系统和框架的区别是, 系统包含了运行环境.
上面不同部分之间的通信会形成一种广义上的”队列”, 所以需要进行队列管理.
建议继续学习:
- 使用 Perl 中的 Gearman来实现 MapReduce (阅读:3063)
- 通过eclipse调试MapReduce任务 (阅读:2959)
- 《big data glossary》之MapReduce (阅读:2608)
扫一扫订阅我的微信号:IT技术博客大学习
- 作者:ideawu 来源: idea's blog
- 标签: MapReduce 流式数据
- 发布时间:2012-05-28 13:19:14
- [56] IOS安全–浅谈关于IOS加固的几种方法
- [55] Oracle MTS模式下 进程地址与会话信
- [54] android 开发入门
- [54] 图书馆的世界纪录
- [52] 如何拿下简短的域名
- [51] Go Reflect 性能
- [50] 【社会化设计】自我(self)部分――欢迎区
- [47] 读书笔记-壹百度:百度十年千倍的29条法则
- [39] 程序员技术练级攻略
- [34] 视觉调整-设计师 vs. 逻辑