<!DOCTYPE html>
<html>

<head>
	<meta charset="utf-8">
	<meta name="viewport" content="width=device-width, initial-scale=1, maximum-scale=1">
	<meta name="theme-color" content="#33474d">
	<title>【Hadoop】HDFS的运行原理 | 失落的乐章</title>
	<link rel="stylesheet" href="/css/style.css" />
	
      <link rel="alternate" href="/atom.xml" title="失落的乐章" type="application/atom+xml">
    
</head>

<body>

	<header class="header">
		<nav class="header__nav">
			
				<a href="/archives" class="header__link">Archive</a>
			
				<a href="/tags" class="header__link">Tags</a>
			
				<a href="/atom.xml" class="header__link">RSS</a>
			
		</nav>
		<h1 class="header__title"><a href="/">失落的乐章</a></h1>
		<h2 class="header__subtitle">技术面前，永远都是学生。</h2>
	</header>

	<main>
		<article>
	
		<h1>【Hadoop】HDFS的运行原理</h1>
	
	<div class="article__infos">
		<span class="article__date">2017-10-12</span><br />
		
		
			<span class="article__tags">
			  	<a class="article__tag-link" href="/tags/Hadoop/">Hadoop</a>
			</span>
		
	</div>

	

	
		<h2 id="简介"><a href="#简介" class="headerlink" title="简介"></a>简介</h2><p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>HDFS</strong>（Hadoop Distributed File System ）Hadoop分布式文件系统。是根据google发表的论文翻版的。论文为GFS（Google File System）Google 文件系统（中文，英文）。</p>
<h3 id="HDFS有很多特点："><a href="#HDFS有很多特点：" class="headerlink" title="HDFS有很多特点："></a>HDFS有很多特点：</h3><ol>
<li>保存多个副本，且提供容错机制，副本丢失或宕机自动恢复。默认存3份。</li>
<li>运行在廉价的机器上。</li>
<li>适合大数据的处理。多大？多小？HDFS默认会将文件分割成block，64M为1个block。然后将block按键值对存储在HDFS上，并将键值对的映射存到内存中。如果小文件太多，那内存的负担会很重。</li>
</ol>
<p><figure class="figure"><img src="https://github.com/hcldirgit/image/blob/master/HDFS%E7%9A%84%E8%BF%90%E8%A1%8C%E5%8E%9F%E7%90%86/01.jpeg?raw=true" alt=""></figure></p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;如上图所示，HDFS也是按照Master和Slave的结构。分NameNode、SecondaryNameNode、DataNode这几个角色。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>NameNode</strong>：是Master节点，是大领导。管理数据块映射；处理客户端的读写请求；配置副本策略；管理HDFS的名称空间；</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>SecondaryNameNode</strong>：是一个小弟，分担大哥namenode的工作量；是NameNode的冷备份；合并fsimage和fsedits然后再发给namenode。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>DataNode</strong>：Slave节点，奴隶，干活的。负责存储client发来的数据块block；执行数据块的读写操作。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>热备份</strong>：b是a的热备份，如果a坏掉。那么b马上运行代替a的工作。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>冷备份</strong>：b是a的冷备份，如果a坏掉。那么b不能马上代替a工作。但是b上存储a的一些信息，减少a坏掉之后的损失。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>fsimage</strong>:元数据镜像文件（文件系统的目录树。）</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>edits</strong>：元数据的操作日志（针对文件系统做的修改操作记录）</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>namenode内存中存储的是=fsimage+edits</strong></p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;SecondaryNameNode负责定时默认1小时，从namenode上，获取fsimage和edits来进行合并，然后再发送给namenode。减少namenode的工作量。</p>
<h2 id="工作原理"><a href="#工作原理" class="headerlink" title="工作原理"></a>工作原理</h2><h3 id="写操作："><a href="#写操作：" class="headerlink" title="写操作："></a>写操作：</h3><p><figure class="figure"><img src="https://github.com/hcldirgit/image/blob/master/HDFS%E7%9A%84%E8%BF%90%E8%A1%8C%E5%8E%9F%E7%90%86/02.jpeg?raw=true" alt=""></figure></p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;有一个文件FileA，100M大小。Client将FileA写入到HDFS上。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;HDFS按默认配置。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;HDFS分布在三个机架上Rack1，Rack2，Rack3。</p>
<ol>
<li><p>Client将FileA按64M分块。分成两块，block1和Block2;</p>
</li>
<li><p>Client向nameNode发送写数据请求，如图<code>蓝色虚线</code>①——&gt;。</p>
</li>
<li><p>NameNode节点，记录block信息。并返回可用的DataNode，如<code>粉色虚线</code>②———&gt;。</p>
</li>
</ol>
<p>Block1: host2,host1,host3<br>Block2: host7,host8,host4</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;原理：</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;NameNode具有RackAware机架感知功能，这个可以配置。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;若client为DataNode节点，那存储block时，规则为：副本1，同client的节点上；副本2，不同机架节点上；副本3，同第二个副本机架的另一个节点上；其他副本随机挑选。</p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;若client不为DataNode节点，那存储block时，规则为：副本1，随机选择一个节点上；副本2，不同副本1，机架上；副本3，同副本2相同的另一个节点上；其他副本随机挑选。</p>
<ol>
<li>client向DataNode发送block1；发送过程是以流式写入。</li>
</ol>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;流式写入过程，</p>
<ul>
<li>1.将64M的block1按64k的package划分;</li>
<li>2.然后将第一个package发送给host2;</li>
<li>3.host2接收完后，将第一个package发送给host1，同时client想host2发送第二个package；</li>
<li>4.host1接收完第一个package后，发送给host3，同时接收host2发来的第二个package。</li>
<li>5.以此类推，如图红线实线所示，直到将block1发送完毕。</li>
<li>6.host2,host1,host3向NameNode，host2向Client发送通知，说“消息发送完了”。如图粉红颜色实线所示。</li>
<li>7.client收到host2发来的消息后，向namenode发送消息，说我写完了。这样就真完成了。如图黄色粗实线</li>
<li>8.发送完block1后，再向host7，host8，host4发送block2，如图蓝色实线所示。</li>
<li>9.发送完block2后，host7,host8,host4向NameNode，host7向Client发送通知，如图浅绿色实线所示。</li>
<li>10.client向NameNode发送消息，说我写完了，如图黄色粗实线。。。这样就完毕了。</li>
</ul>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>分析</strong>，通过写过程，我们可以了解到：</p>
<ul>
<li>写1T文件，我们需要3T的存储，3T的网络流量贷款。</li>
<li>在执行读或写的过程中，NameNode和DataNode通过HeartBeat进行保存通信，确定DataNode活着。如果发现DataNode死掉了，就将死掉的DataNode上的数据，放到其他节点去。读取时，要读其他节点去。</li>
<li>挂掉一个节点，没关系，还有其他节点可以备份；甚至，挂掉某一个机架，也没关系；其他机架上，也有备份。</li>
</ul>
<h2 id="读操作："><a href="#读操作：" class="headerlink" title="读操作："></a>读操作：</h2><p><figure class="figure"><img src="https://github.com/hcldirgit/image/blob/master/HDFS%E7%9A%84%E8%BF%90%E8%A1%8C%E5%8E%9F%E7%90%86/03.jpeg?raw=true" alt=""></figure></p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;读操作就简单一些了，如图所示，client要从datanode上，读取FileA。而FileA由block1和block2组成。 </p>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;那么，读操作流程为：</p>
<ol>
<li><p>client向namenode发送读请求。</p>
</li>
<li><p>namenode查看Metadata信息，返回fileA的block的位置。<br>block1:host2,host1,host3<br>block2:host7,host8,host4    </p>
</li>
<li><p>block的位置是有先后顺序的，先读block1，再读block2。而且block1去host2上读取；然后block2，去host7上读取；</p>
</li>
</ol>
<p>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;上面例子中，client位于机架外，那么如果client位于机架内某个DataNode上，例如,client是host6。那么读取的时候，遵循的规律是：<br>&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;<strong>优选读取本机架上的数据</strong>。</p>
<h2 id="HDFS中常用到的命令"><a href="#HDFS中常用到的命令" class="headerlink" title="HDFS中常用到的命令"></a>HDFS中常用到的命令</h2><h3 id="1、hadoop-fs"><a href="#1、hadoop-fs" class="headerlink" title="1、hadoop fs"></a>1、hadoop fs</h3><figure class="highlight bash"><table><tr><td class="gutter"><pre><div class="line">1</div><div class="line">2</div><div class="line">3</div><div class="line">4</div><div class="line">5</div><div class="line">6</div><div class="line">7</div><div class="line">8</div><div class="line">9</div><div class="line">10</div><div class="line">11</div><div class="line">12</div><div class="line">13</div></pre></td><td class="code"><pre><div class="line">hadoop fs -ls /  </div><div class="line">hadoop fs -lsr  </div><div class="line">hadoop fs -mkdir /user/hadoop  </div><div class="line">hadoop fs -put a.txt /user/hadoop/  </div><div class="line">hadoop fs -get /user/hadoop/a.txt /  </div><div class="line">hadoop fs -cp src dst  </div><div class="line">hadoop fs -mv src dst  </div><div class="line">hadoop fs -cat /user/hadoop/a.txt  </div><div class="line">hadoop fs -rm /user/hadoop/a.txt  </div><div class="line">hadoop fs -rmr /user/hadoop/a.txt  </div><div class="line">hadoop fs -text /user/hadoop/a.txt  </div><div class="line">hadoop fs -copyFromLocal localsrc dst <span class="comment">#与hadoop fs -put功能类似。  </span></div><div class="line">hadoop fs -moveFromLocal localsrc dst <span class="comment">#将本地文件上传到hdfs，同时删除本地文件。</span></div></pre></td></tr></table></figure>
<h3 id="2、hadoop-fsadmin"><a href="#2、hadoop-fsadmin" class="headerlink" title="2、hadoop fsadmin"></a>2、hadoop fsadmin</h3><figure class="highlight bash"><table><tr><td class="gutter"><pre><div class="line">1</div><div class="line">2</div><div class="line">3</div></pre></td><td class="code"><pre><div class="line">hadoop dfsadmin -report  </div><div class="line">hadoop dfsadmin -safemode enter | leave | get | <span class="built_in">wait</span>  </div><div class="line">hadoop dfsadmin -setBalancerBandwidth 1000</div></pre></td></tr></table></figure>
<h3 id="3、hadoop-fsck"><a href="#3、hadoop-fsck" class="headerlink" title="3、hadoop fsck"></a>3、hadoop fsck</h3><h3 id="4、start-balancer-sh"><a href="#4、start-balancer-sh" class="headerlink" title="4、start-balancer.sh"></a>4、start-balancer.sh</h3>
	

	
		<span class="different-posts"><a href="/2017/10/12/Hadoop/7. 【Hadoop】HDFS的运行原理/" onclick="window.history.go(-1); return false;">⬅️ Go back </a></span>

	

</article>

	</main>

	<footer class="footer">
	<div class="footer-content">
		
	      <div class="footer__element">
	<p>Hi there, <br />welcome to my Blog glad you found it. Have a look around, will you?</p>
</div>

	    
	      <div class="footer__element">
	<h5>Check out</h5>
	<ul class="footer-links">
		<li class="footer-links__link"><a href="/archives">Archive</a></li>
		
		  <li class="footer-links__link"><a href="/atom.xml">RSS</a></li>
	    
		<li class="footer-links__link"><a href="/about">about page</a></li>
		<li class="footer-links__link"><a href="/tags">Tags</a></li>
		<li class="footer-links__link"><a href="/categories">Categories</a></li>
	</ul>
</div>

	    

		<div class="footer-credit">
			<span>© 2017 失落的乐章 | Powered by <a href="https://hexo.io/">Hexo</a> | Theme <a href="https://github.com/HoverBaum/meilidu-hexo">MeiliDu</a></span>
		</div>

	</div>


</footer>



</body>

</html>
