<!DOCTYPE html>
<html lang="zh-cn">
<head>
  
    <link type="text/css" rel="stylesheet" href="/bundles/blog-common.css?v=KOZafwuaDasEedEenI5aTy8aXH0epbm6VUJ0v3vsT_Q1"/>
<link id="MainCss" type="text/css" rel="stylesheet" href="/skins/ThinkInside/bundle-ThinkInside.css?v=RRjf6pEarGnbXZ86qxNycPfQivwSKWRa4heYLB15rVE1"/>
<link type="text/css" rel="stylesheet" href="/blog/customcss/428549.css?v=%2fam3bBTkW5NBWhBE%2fD0lcyJv5UM%3d"/>

</head>
<body>
<a name="top"></a>

<div id="page_begin_html"></div><script>load_page_begin_html();</script>

<div id="topics">
	<div class = "post">
		<h1 class = "postTitle">
			<a id="cb_post_title_url" class="postTitle2" href="https://www.cnblogs.com/frankdeng/p/9067126.html">Storm（一）Storm的简介与相关概念</a>
		</h1>
		<div class="clear"></div>
		<div class="postBody">
			<div id="cnblogs_post_body" class="blogpost-body"><h2><span class="s1">一.Storm的简介</span></h2>
<p><span class="s1">官网地址：<a href="http://storm.apache.org/" target="_blank">http://storm.apache.org/</a></span></p>
<p>&nbsp; &nbsp; Storm是一个免费开源、分布式、高容错的实时计算系统。Storm令持续不断的流计算变得容易，弥补了Hadoop批处理所不能满足的实时要求。Storm经常用于在实时分析、在线机器学习、持续计算、分布式远程调用和ETL等领域。Storm的部署管理非常简单，而且，在同类的流式计算工具，Storm的性能也是非常出众的。</p>
<h3>1.Storm的优点</h3>
<ol>
<li>编程简单：开发人员只需要关注应用逻辑，而且跟Hadoop类似，Storm提供的编程原语也很简单</li>
<li>高性能，低延迟：可以应用于广告搜索引擎这种要求对广告主的操作进行实时响应的场景。</li>
<li>分布式：可以轻松应对数据量大，单机搞不定的场景</li>
<li>可扩展： 随着业务发展，数据量和计算量越来越大，系统可水平扩展</li>
<li>容错：单个节点挂了不影响应用</li>
<li>消息不丢失：保证消息处理</li>
</ol>
<h3>2.Storm的历史发展</h3>
<p>2013年，Storm进入Apache社区进行孵化， 2014年9月，晋级成为Apache顶级项目。</p>
<p>数据传输方面，<a href="http://www.zeromq.org/">ZeroMQ</a>&nbsp;提供了可扩展环境下的传输层高效消息通信，一开始Storm的内部通信使用的是ZeroMQ，后来作者想把Storm移交给Apache开源基金会来管理，而ZeroMQ的许可证书跟Apache基金会的政策有冲突。在Storm中，Netty比ZeroMQ<a href="http://yahooeng.tumblr.com/post/64758709722/making-storm-fly-with-netty">更加高效</a>，而且提供了worker间通信时的验证机制，所以在<a href="http://storm.apache.org/2013/12/08/storm090-released.html">Storm0.9中</a>，就改用了<a href="http://netty.io/">Netty</a>。</p>
<h3>3. 流<span class="s1">式</span>计算一般架构图</h3>
<p><img src="https://images2018.cnblogs.com/blog/1385722/201809/1385722-20180902135352707-331716458.png" alt="" /></p>
<p>其中flume用来获取数据，Kafka用来临时保存数据，Strom用来计算数据，Redis是个内存数据库，用来保存数据。</p>
<h2><span class="s1">二.Storm的架构</span></h2>
<p>&nbsp; &nbsp; &nbsp; 与Hadoop主从架构一样,Storm也采用Master/Slave体系结构,分布式计算由Nimbus和Supervisor两类服务进程实现,Nimbus进程运行在集群的主节点,负责任务的指派和分发,Supervisor运行在集群的从节点,负责执行任务的具体部分。</p>
<p><img src="https://images2018.cnblogs.com/blog/1385722/201809/1385722-20180902184554436-2070800609.png" alt="" /></p>
<p>如图所示：</p>
<ul>
<li style="list-style-type: none;">
<ul>
<li>Nimbus:负责资源分配和任务调度。</li>
<li>Supervisor:负责接受nimbus分配的任务,启动和停止属于自己管理的worker进程。</li>
<li>Worker:运行具体处理组件逻辑的进程。</li>
<li>Task:worker中每一个spout/bolt的线程称为一个task｡同一个spout/bolt的task可能会共享一个物理线程,该线程称为executor。</li>
</ul>
</li>
</ul>
<p>Storm 架构设计与Hadoop架构对比</p>
<p><img src="https://images2018.cnblogs.com/blog/1385722/201809/1385722-20180902184810096-327785593.png" alt="" /></p>
<h2>三.Storm相关概念</h2>
<h3 id="拓扑topologies">1.拓扑(Topologies)</h3>
<p>一个Storm拓扑打包了一个实时处理程序的逻辑。一个Storm拓扑跟一个MapReduce的任务(job)是类似的。主要区别是MapReduce任务最终会结束，而拓扑会一直运行（当然直到你杀死它)。一个拓扑是一个通过流分组(stream grouping)把Spout和Bolt连接到一起的拓扑结构。图的每条边代表一个Bolt订阅了其他Spout或者Bolt的输出流。一个拓扑就是一个复杂的多阶段的流计算。</p>
<p id="资源">资源</p>
<ul>
<li><a href="https://storm.apache.org/javadoc/apidocs/backtype/storm/topology/TopologyBuilder.html">TopologyBuilder</a>: 使用这个类来在Java中创建拓扑</li>
<li><a href="https://storm.apache.org/documentation/Running-topologies-on-a-production-cluster.html">在生产集群中运行拓扑</a></li>
<li><a href="https://storm.apache.org/documentation/Local-mode.html">本地模式</a>: 通过阅读这篇可以学习到如何在本地模式下进行拓扑的开发和测试</li>
</ul>
<h3>2.数据流（Streams）</h3>
<p>从Spout中源源不断传递数据给Bolt、以及上一个Bolt传递数据给下一个Bolt，所形成的这些数据通道即叫做Stream Stream声明时需给其指定一个Id（默认为Default） 实际开发场景中，多使用单一数据流，此时不需要单独指定StreamId</p>
<p>资源：</p>
<ul>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/tuple/Tuple.html">元组</a><span>：流由元组组成</span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/OutputFieldsDeclarer.html">OutputFieldsDeclarer</a><span>：用于声明流及其模式</span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/Serialization.html">序列化</a><span>：有关Storm动态键入元组和声明自定义序列化的信息</span></li>
</ul>
<h3>3.数据源（Spouts）</h3>
<p>拓扑中数据流的来源。一般会从指定外部的数据源读取元组（Tuple）发送到拓扑（Topology）中 一个Spout可以发送多个数据流（Stream） 可先通过OutputFieldsDeclarer中的declare方法声明定义的不同数据流，发送数据时通过SpoutOutputCollector中的emit方法指定数据流Id（streamId）参数将数据发送出去 Spout中最核心的方法是nextTuple，该方法会被Storm线程不断调用、主动从数据源拉取数据，再通过emit方法将数据生成元组（Tuple）发送给之后的Bolt计算</p>
<p>资源：</p>
<ul>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/IRichSpout.html">IRichSpout</a><span><span>：这是</span><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/IRichSpout.html"><span>spouts</span></a><span>必须实现的接口。</span></span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/Guaranteeing-message-processing.html">保证消息处理</a></li>
</ul>
<h3 id="拓扑topologies">4.数据流处理组件（Bolt）</h3>
<p>拓扑中数据处理均有Bolt完成。对于简单的任务或者数据流转换，单个Bolt可以简单实现；更加复杂场景往往需要多个Bolt分多个步骤完成 一个Bolt可以发送多个数据流（Stream） 可先通过OutputFieldsDeclarer中的declare方法声明定义的不同数据流，发送数据时通过SpoutOutputCollector中的emit方法指定数据流Id（streamId）参数将数据发送出去 Bolt中最核心的方法是execute方法，该方法负责接收到一个元组（Tuple）数据、真正实现核心的业务逻辑</p>
<p>资源：</p>
<ul>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/IRichBolt.html">IRichBolt</a><span>：这是螺栓的通用接口。</span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/IBasicBolt.html">IBasicBolt</a><span>：这是一个方便的界面，用于定义执行过滤或简单功能的螺栓。</span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/task/OutputCollector.html">OutputCollector</a><span><span>：</span><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/task/OutputCollector.html"><span>bolt</span></a><span>使用此类的实例将元组发送到其输出流</span></span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/Guaranteeing-message-processing.html">保证消息处理</a></li>
</ul>
<h3>5.流分组(Stream groupings)</h3>
<p>数据分发策略，Storm中有八个内置流分组，您可以通过实现<a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/grouping/CustomStreamGrouping.html">CustomStreamGrouping</a>接口来实现自定义流分组：</p>
<ol>
<li>随机分组<span>：元组随机分布在螺栓的任务中，使得每个螺栓都能保证获得相同数量的元组。</span></li>
<li>字段分组<span><span>：流按分组中指定的字段进行分区。</span><span>例如，如果流按&ldquo;user-id&rdquo;字段分组，则具有相同&ldquo;user-id&rdquo;的元组将始终执行相同的任务，但具有不同&ldquo;user-id&rdquo;的元组可能会执行不同的任务。</span></span></li>
<li>部分密钥分组<span>：流按分组中指定的字段进行分区，如字段分组，但在两个下游螺栓之间进行负载平衡，这可在传入数据偏斜时提供更好的资源利用率。</span><a href="https://melmeric.files.wordpress.com/2014/11/the-power-of-both-choices-practical-load-balancing-for-distributed-stream-processing-engines.pdf">本文</a><span>对其工作原理及其提供的优势进行了很好的解释。</span></li>
<li>所有分组<span><span>：流被复制到所有bolt任务中。</span><span>小心使用此分组。</span></span></li>
<li>全局分组<span><span>：整个流转到了一个bolt的任务。</span><span>具体来说，它转到id最低的任务。</span></span></li>
<li>无分组<span><span>：此分组指定您不关心流的分组方式。</span><span>目前，没有任何分组相当于随机分组。</span><span>最终，Storm会按下没有分组的螺栓，在与他们订购的螺栓或喷口相同的螺纹中执行（如果可能的话）。</span></span></li>
<li>直接分组<span><span>：这是一种特殊的分组。</span><span>以这种方式分组的流意味着</span><span>元组</span><span>的</span></span>生产者<span><span>决定消费者的哪个任务将接收该元组。</span><span>直接分组只能在已声明为直接流的流上声明。</span><span>发送到直接流的元组必须使用[emitDirect]之一（javadocs / org / apache / storm / task / OutputCollector.html＃emitDirect（int，int，java.util.List）方法发出。一个bolt可以得到通过使用提供的</span></span><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/task/TopologyContext.html">TopologyContext</a><span><span>或跟踪</span><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/task/OutputCollector.html"><span>OutputCollector</span></a><span>中的</span></span><code>emit</code><span><span>方法</span><span>输出</span><span>（返回元组发送到的</span><span>任务ID）来消费者</span><span>的任务ID。</span></span></li>
<li>本地或随机分组<span><span>：如果目标螺栓在同一工作进程中有一个或多个任务，则元组将被洗牌到只有那些进程内任务。</span><span>否则，这就像一个普通的shuffle分组。</span></span></li>
</ol>
<p>资源：</p>
<ul>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/TopologyBuilder.html">TopologyBuilder</a><span>：使用此类来定义拓扑</span></li>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/InputDeclarer.html">InputDeclarer</a><span>：</span><code>setBolt</code><span><span>调用on&nbsp;</span><span>时返回此对象</span></span><code>TopologyBuilder</code><span>，用于声明bolt的输入流以及如何对这些流进行分组</span></li>
</ul>
<h3>6.可靠性（Reliability）</h3>
<p><span><span>Storm保证每个spout元组都将由拓扑完全处理。</span><span>它通过跟踪每个spout元组触发的元组树并确定元组树何时成功完成来实现。</span><span>每个拓扑都有一个与其关联的&ldquo;消息超时&rdquo;。</span><span>如果Storm未能检测到在该超时内已完成一个spout元组，则它会使元组失败并在以后重播。</span></span></p>
<p><span><span>要利用Storm的可靠性功能，必须在创建元组树中的新边时告诉Storm，并在完成处理单个元组时告诉Storm。</span><span>这些是使用</span></span><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/task/OutputCollector.html">OutputCollector</a><span><span>对象</span><span>完成的，该</span><span>对象用于发出元组。</span><span>锚定在</span></span><code>emit</code><span><span>方法中</span><span>完成</span><span>，并声明您已使用该</span></span><code>ack</code><span><span>方法</span><span>完成元组</span><span>。</span></span></p>
<p><span>在</span><a href="http://storm.apache.org/releases/1.2.2/Guaranteeing-message-processing.html">保证消息处理中</a><span><span>更详细地解释了这一点</span><span>。</span></span></p>
<h3>7.任务（Tasks）</h3>
<p><span><span>每个喷口或螺栓在整个集群中执行任意数量的任务。</span><span>每个任务对应一个执行线程，流分组定义如何将元组从一组任务发送到另一组任务。</span><span>您可以在</span><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/topology/TopologyBuilder.html"><span>TopologyBuilder</span></a><span>的</span></span><code>setSpout</code><span><span>and和</span></span><code>setBolt</code><span><span>方法中</span><span>为每个喷口或螺栓设置并行</span><span>度</span><span>。</span></span>&nbsp;</p>
<h3>8.工作节点（worker）</h3>
<p><span><span>拓扑在一个或多个工作进程中执行。</span><span>每个工作进程都是物理JVM，并执行拓扑的所有任务的子集。</span><span>例如，如果拓扑的组合并行度为300且分配了50个工作线程，则每个工作线程将执行6个任务（作为工作线程中的线程）。</span><span>Storm试图在所有工作人员之间平均分配任务。</span></span></p>
<p>资源：</p>
<ul>
<li><a href="http://storm.apache.org/releases/1.2.2/javadocs/org/apache/storm/Config.html#TOPOLOGY_WORKERS">Config.TOPOLOGY_WORKERS</a><span>：此配置设置为执行拓扑而分配的工作器数</span></li>
</ul>
<h3><span>9.</span>元组（Tuple）</h3>
<p>Stream中最小数据组成单元</p>
<h2><span class="s1">四.Storm的编程模型</span></h2>
<p>Storm实现了一个数据流(data flow)的模型，在这个模型中数据持续不断地流经一个由很多转换实体构成的网络。一个数据流的抽象叫做流(stream)，流是无限的元组(Tuple)序列。元组就像一个可以表示标准数据类型（例如int，float和byte数组）和用户自定义类型（需要额外序列化代码的）的数据结构。每个流由一个唯一的ID来标示的，这个ID可以用来构建拓扑中各个组件的数据源。</p>
<p>如下图所示，其中的水龙头代表了数据流的来源，一旦水龙头打开，数据就会源源不断地流经Bolt而被处理。图中有三个流，用不同的颜色来表示，每个数据流中流动的是元组(Tuple)，它承载了具体的数据。元组通过流经不同的转换实体而被处理。</p>
<p>Storm对数据输入的来源和输出数据的去向没有做任何限制。像Hadoop，是需要把数据放到自己的文件系统HDFS里的。在Storm里，可以使用任意来源的数据输入和任意的数据输出，只要你实现对应的代码来获取/写入这些数据就可以。典型场景下，输入/输出数据来是基于类似Kafka或者ActiveMQ这样的消息队列，但是数据库，文件系统或者web服务也都是可以的。</p>
<p><img src="https://img2018.cnblogs.com/blog/1385722/201809/1385722-20180924143651535-1138036680.png" alt="" /></p></div>

</body>
</html>
