Clojure实战(5):Storm实时计算框架

Clojure实战(5):Storm实时计算框架 | Ji ZHANG's Blog
http://shzhangji.com/blog/2013/04/22/cia-storm/

Storm简介
上一章介绍的Hadoop工具能够对海量数据进行批量处理,采用分布式的并行计算架构,只需使用其提供的MapReduce API编写脚本即可。但随着人们对数据实时性的要求越来越高,如实时日志分析、实时推荐系统等,Hadoop就无能为力了。
这时,Storm诞生了。它的设计初衷就是提供一套分布式的实时计算框架,实现低延迟、高并发的海量数据处理,被誉为“Realtime Hadoop”。它提供了简单易用的API接口用于编写实时处理脚本;能够和现有各类消息系统整合;提供了HA、容错、事务、RPC等高级特性。
Storm的官网是:storm-project.net,它的Wiki上有非常详尽的说明文档。
Storm与Clojure
Storm的主要贡献者Nathan Marz徐明明都是活跃的Clojure开发者,因此在Storm框架中也提供了原生的Clojure DSL。本文就将介绍如何使用这套DSL来编写Storm处理脚本。
Storm集群的安装配置这里不会讲述,具体请参考这篇文档。下文的脚本都运行在“本地模式”之下,因此即使不搭建集群也可以运行和调试。
Storm脚本的组件


Storm脚本的英文名称叫做“Storm Topology”,直译过来是“拓扑结构”。这个脚本由两大类组建构成,Spout
和Bolt
,分别可以有任意多个。他们之间以“数据流”的方式连接起来,因此整体看来就像一张拓扑网络,因此得名Topology

Spout
数据源节点,是整个脚本的入口。Storm会不断调用该节点的nextTuple()
方法来获取数据,分发给下游Bolt
节点。nextTuple()
方法中可以用各种方式从外部获取数据,如逐行读取一个文件、从消息队列(ZeroMQ、Kafka)中获取消息等。一个Storm脚本可以包含多个Spout
节点,从而将多个数据流汇聚到一起进行处理。
Bolt
数据处理节点,它是脚本的核心逻辑。它含有一个execute()
方法,当接收到消息时,Storm会调用这个函数,并将消息传递给它。我们可以在execute()
中对消息进行过滤(只接收符合条件的数据),或者进行聚合(统计某个条件的数据出现的次数)等。处理完毕后,这个节点可以选择将处理后的消息继续传递下去,或是持久化到数据库中。
Bolt
同样是可以有多个的,且能够前后组合。Bolt C
可以同时收取Bolt A
和Bolt B
的数据,并将处理结果继续传递给Bolt D

此外, 一个Bolt可以产生多个实例 ,如某个Bolt
包含复杂耗时的计算,那在运行时可以调高其并发数量(实例的个数),从而达到并行处理的目的。
Tuple
Tuple
是消息传输的基本单元,一条消息即一个Tuple
。可以将其看做是一个HashMap
对象,它能够包含任何可序列化的数据内容。对于简单的数据类型,如整型、字符串、Map等,Storm提供了内置的序列化支持。而用户自定义的数据类型,可以通过指定序列化/反序列化函数来处理。
Stream Grouping
想象一个Spout
连接了两个Bolt
(或一个Bolt
的两个实例),那数据应该如何分发呢?你可以选择轮询(ShuffleGrouping
),或是广播(GlobalGrouping
)、亦或是按照某一个字段进行哈希分组(FieldGrouping
),这些都称作为Stream Grouping

示例:WordCount
下面我们就来实现一个实时版的WordCount脚本,它由以下几个组件构成:
sentence-spout:从已知的一段文字中随机选取一句话发送出来;
split-bolt:将这句话按空格分割成单词;
count-bolt:统计每个单词出现的次数,每五秒钟打印一次,并清零。

依赖项和配置文件
首先使用lein new
新建一个项目,并修改project.clj
文件:
1
2
3
4
5
6
7

(defproject cia-storm "0.1.0-SNAPSHOT"
...
:dependencies [[org.clojure/clojure "1.4.0"]
[org.clojure/tools.logging "0.2.6"]]
:profiles {:dev {:dependencies [[storm "0.8.2"]]}}
:plugins [[lein2-eclipse "2.0.0"]]
:aot [cia-storm.wordcount])

其中:profiles
表示定义不同的用户配置文件。Leiningen有类似于Maven的配置文件体系(profile),每个配置文件中可以定义project.clj
所支持的各种属性,执行时会进行合并。lein
命令默认调用:dev
、:user
等配置文件,可以使用lein with-profiles prod run
来指定配置文件。具体可以参考这份文档
这里将[storm "0.8.2"]
依赖项定义在了:dev
配置下,如果直接定义在外层的:dependencies
下,那在使用lein uberjar
进行打包时,会将storm.jar
包含在最终的Jar包中,提交到Storm集群运行时就会报冲突。而lein uberjar
默认会跳过:dev
配置,所以才这样定义。
:aot
表示Ahead Of Time
,即预编译。我们在Clojure实战(3)中提过:gen-class
这个标识表示为当前.clj
文件生成一个.class
文件,从而能够作为main
函数使用,因此也需要在project.clj
中添加:main
标识,指向这个.clj
文件的命名空间。如果想为其它的命名空间也生成对应的.class
文件,就需要用到:aot
了。它的另一个用处是加速Clojure程序的启动速度。
sentence-spout
1
2
3
4
5
6
7
8
9
10
11
12
13
14

(ns cia-storm.wordcount
...
(:use [backtype.storm clojure config]))

(defspout sentence-spout ["sentence"]
[conf context collector]
(let [sentences ["a little brown dog"
"the man petted the dog"
"four score and seven years ago"
"an apple a day keeps the doctor away"]]
(spout
(nextTuple []
(Thread/sleep 1000)
(emit-spout! collector [(rand-nth sentences)])))))

defspout
是定义在backtype.storm.clojure
命名空间下的宏,可以点此查看源码。以下是各个部分的说明:
sentence-spout
是该组件的名称。
["sentence"]
表示该组件输出一个字段,名称为“sentence”。
[conf context collector]
用于接收Storm框架传入的参数,如配置对象、上下文对象、下游消息收集器等。
spout
表示开始定义数据源组件需要用到的各类方法。它实质上是生成一个实现了ISpout接口的对象,从而能够被Storm框架调用。
nextTuple
是ISpout接口必须实现的方法之一,Storm会不断调用这个方法,获取数据。这里使用Thread#sleep
函数来控制调用的频率。
emit-spout!
是一个函数,用于向下游发送消息。

ISpout还有open、ack、fail等函数,分别表示初始化、消息处理成功的回调、消息处理失败的回调。这里我们暂不深入讨论。
split-bolt
1
2
3
4
5
6
7
8

(defbolt split-bolt ["word"] {:prepare true}
[conf context collector]
(bolt
(execute [tuple]
(let [words (.split (.getString tuple 0) " ")]
(doseq [w words]
(emit-bolt! collector [w])))
(ack! collector tuple))))

defbolt
用于定义一个Bolt组件。整段代码的结构和defspout
是比较相似的。bolt
宏会实现为一个IBolt对象,execute
是该接口的方法之一,其它还有prepare
和cleanup
。execute
方法接收一个参数tuple
,用于接收上游消息。
ack!
是execute
中必须调用的一个方法。Storm会对每一个组件发送出来的消息进行追踪,上游组件发出的消息需要得到下游组件的“确认”(ACKnowlege),否则会一直堆积在内存中。对于Spout而言,如果消息得到确认,会触发ISpout#ack
函数,否则会触发ISpout#fail
函数,这时Spout可以选择重发或报错。
代码中比较怪异的是{:prepare true}
。defspout
和defbolt
有两种定义方式,即prepare和非prepare。两者的区别在于:
参数不同,prepare方式下接收的参数是[conf context collector]
,非prepare方式下,defspout
接收的是[collector]
,defbolt
是[tuple collector]`。
prepare方式下需要调用spout
和bolt
宏来编写组件代码,而非prepare方式则不需要——defspout
会默认生成nextTuple()
函数,defbolt
默认生成execute(tuple)

只有prepare方式下才能指定ISpout#open
、IBolt#prepare
等函数,非prepare不能。
defspout
默认使用prepare方式,defbolt
默认使用非prepare方式。

因此,split-bolt
可以按如下方式重写:
1
2
3
4
5
6

(defbolt split-bolt ["word"]
[tuple collector]
(let [words (.split (.getString tuple 0) " ")]
(doseq [w words]
(emit-bolt! collector [w]))
(ack! collector tuple)))

prepare方式可以用于在组件中保存状态,具体请看下面的计数Bolt。
count-bolt
1
2
3
4
5
6
7
8

(defbolt count-bolt [] {:prepare true}
[conf context collector]
(let [counts (atom {})]
(bolt
(execute [tuple]
(let [word (.getString tuple 0)]
(swap! counts (partial merge-with +) {word 1}))
(ack! collector tuple)))))

原子(Atom)
atom
是我们遇到的第一个可变量(Mutable Variable),其它的有Ref、Agent等。Atom是“原子”的意思,我们很容易想到原子性操作,即同一时刻只有一个线程能够修改Atom的值,因此它是处理并发的一种方式。这里我们使用Atom来保存每个单词出现的数量。以下是Atom的常用操作:
1
2
3
4
5
6
7
8
9
10
11

user=> (def cnt (atom 0))
user=> (println @cnt) ; 使用@符号获取Atom中的值。
0
user=> (swap! cnt inc) ; 将cnt中的值置换为(inc @cnt),并返回该新的值
1
user=> (println @cnt)
1
user=> (swap! cnt + 10) ; 新值为(+ @cnt 10)
11
user=> (reset! cnt 0) ; 归零
0

需要注意的是,(swap! atom f arg ...)
中的f
函数可能会被执行多次,因此要确保它没有副作用(side-effect,即不会产生其它状态的变化)。
再来解释一下(partial merge-with +)
。merge-with
函数是对map类型的一种操作,表示将一个或多个map合并起来。和merge
不同的是,merge-with
多接收一个f
函数(merge-with [f & maps]
),当键名重复时,会用f
函数去合并它们的值,而不是直接替代。
partial
可以简单理解为给函数设定默认值,如:
1
2
3
4
5
6

user=> (defn add [a b] (+ a b))
user=> (add 5 10)
15
user=> (def add-5 (partial add 5))
user=> (add-5 10)
15

这样一来,(swap! counts (partial merge-with +) {word 1})
就可理解为:将counts
这个Atom中的值(一个map类型)和{word 1}
这个map进行合并,如果单词已存在,则递增1。
线程(Thread)
为了输出统计值,我们为count-bolt增加prepare方法:
1
2
3
4
5
6
7
8
9
10
11
12

...
(bolt
(prepare [conf context collector]
(.start (Thread. (fn []
(while (not (Thread/interrupted))
(logging/info
(clojure.string/join ", "
(for [[word count] @counts]
(str word ": " count))))
(reset! counts {})
(Thread/sleep 5000)))))))
...

这段代码的功能是:在Bolt开始处理消息之前启动一个线程,每隔5秒钟将(atom counts)
中的单词出现次数打印出来,并对其进行清零操作。
这里我们直接使用了Java的Thread类型。读者可能会觉得好奇,Thread类型的构造函数只接收实现Runnable接口的对象,Clojure的匿名函数直接支持吗?我们做一个简单测试:
1
2
3
4
5

user=> (defn greet [name] (println "Hi" name))
user=> (instance? Runnable greet)
true
user=> (instance? Runnable #(+ 1 %))
true

logging
命名空间对应的依赖是[org.clojure/tools.logging "0.2.6"]
,需要将其添加到project.clj
中,它是对log4j组件的包装。这里之所以没有使用println
输出到标准输出,是为了将该脚本上传到Storm集群中运行时也能查看到日志输出。
定义和执行Topology
各个组件已经定义完毕,下面让我们用它们组成一个Topology:
1
2
3
4
5
6
7
8
9

(defn mk-topology []
(topology
{"sentence" (spout-spec sentence-spout)}
{"split" (bolt-spec {"sentence" :shuffle}
split-bolt
:p 3)
"count" (bolt-spec {"split" ["word"]}
count-bolt
:p 2)}))

topology
同样是Clojure DSL定义的宏,它接收两个map作为参数,一个用于定义使用到的Spout,一个则是Bolt。该map的键是组件的名称,该名称用于确定各组件之间的关系。
spout-spec
和bolt-spec
则定义了组件在Topology中更具体的参数。如”split”使用的是split-bolt
这个组件,它的上游是”sentence”,使用shuffleGrouping来对消息进行分配,:p 3
表示会启动3个split-bolt
实例。
“count”使用count-bolt
组件,上游是”split”,但聚合方式采用了fieldGrouping,因此列出了执行哈希运算时使用的消息字段(word)。为何要使用fieldGrouping?因为我们会开启两个count-bolt
,如果采用shuffleGrouping,那单词“a”第一次出现的消息会发送给一个count-bolt
,第二次出现会发送给另一个count-bolt
,这样统计结果就会错乱。如果指定了:p 1
,即只开启一个count-bolt
实例,就不会有这样的问题。
本地模式和Cluster模式
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

(ns cia-storm.wordcount
(:import [backtype.storm StormSubmitter LocalCluster])
...
(:gen-class))

(defn run-local! []
(let [cluster (LocalCluster.)]
(.submitTopology cluster
"wordcount" {} (mk-topology))
(Thread/sleep 30000)
(.shutdown cluster)))

(defn submit-topology! [name]
(StormSubmitter/submitTopology
name {TOPOLOGY-WORKERS 3} (mk-topology)))

(defn -main
([]
(run-local!))
([name]
(submit-topology! name)))

我们为WordCount生成一个类,它的main
函数在没有命令行参数时会以本地模式执行Topology,若传递了参数(即指定了脚本在Cluster运行时的名称),则提交至Cluster。
这里直接使用了Storm的Java类,对参数有疑惑的可以参考Javadoc。TOPOLOGY-WORKERS
是在backtype.storm.config
命名空间中定义的,我们在前面的代码中:use
过了。Storm这个项目是用Java和Clojure混写的,所以查阅代码时还需仔细一些。
运行结果
首先我们直接用lein
以本地模式运行该Topology:
1
2
3
4
5

$ lein run -m cia-storm.wordcount
6996 [Thread-18] INFO cia-storm.wordcount - doctor: 17, the: 31, a: 29, an: 17, ago: 13, seven: 13, and: 13
6998 [Thread-21] INFO cia-storm.wordcount - four: 13, keeps: 17, away: 17, score: 13, petted: 7, brown: 12, little: 12, years: 13, man: 7, apple: 17, dog: 19, day: 17
11997 [Thread-18] INFO cia-storm.wordcount - ago: 6, seven: 6, and: 6, doctor: 7, an: 7, the: 39, a: 28
11998 [Thread-21] INFO cia-storm.wordcount - four: 6, keeps: 7, away: 7, score: 6, petted: 16, brown: 21, little: 21, years: 6, man: 16, apple: 7, dog: 37, day: 7

Cluster模式需要搭建本地集群,可以参考这篇文档。下文使用的storm
命令则需要配置~/.storm/storm.yaml
文件,具体请参考这篇文章
1
2
3
4
5
6
7
8
9

$ lein do clean, compile, uberjar
$ storm jar target/cia-storm-0.1.0-SNAPSHOT-standalone.jar cia_storm.wordcount wordcount
$ cd /path/to/storm/logs
$ tail worker-6700.log
2013-05-11 21:26:15 wordcount [INFO] four: 9, keeps: 15, away: 15, score: 9, petted: 16, brown: 9, little: 9, years: 9, man: 16, apple: 15, dog: 25, day: 15
2013-05-11 21:26:20 wordcount [INFO] four: 10, keeps: 9, away: 9, score: 10, petted: 18, brown: 13, little: 13, years: 10, man: 18, apple: 9, dog: 31, day: 9
$ tail worker-6701.log
2013-05-11 21:27:10 wordcount [INFO] ago: 12, seven: 12, and: 12, doctor: 11, a: 31, an: 11, the: 25
2013-05-11 21:27:15 wordcount [INFO] ago: 14, seven: 14, and: 14, doctor: 11, the: 43, a: 19, an: 11

小结
这一章我们简单介绍了Storm的设计初衷,它是如何通过分布式并行运算解决实时数据分析问题的。Storm目前已经十分稳定,且仍处于活跃的开发状态。它的一些高级特性如DRPC、Trident等,还请感兴趣的读者自行研究。
本文使用的WordCount示例代码:https://github.com/jizhang/cia-storm

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,117评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,963评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 107,897评论 0 240
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,805评论 0 203
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,208评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,535评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,797评论 2 311
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,493评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,215评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,477评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,988评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,325评论 2 252
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,971评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,055评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,807评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,544评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,455评论 2 266

推荐阅读更多精彩内容