欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

浅谈HDFS(二)之NameNode与SecondaryNameNode

程序员文章站 2023-11-13 22:04:16
NN与2NN工作机制 思考:NameNode中的元数据是存储在哪里的? 假设存储在NameNode节点的硬盘中,因为经常需要随机访问和响应客户请求,必然效率太低,所以是存储在内存中的 但是,如果存储在内存中,一旦断电,元数据丢失,整个集群便无法工作,因此会在硬盘中产生备份元数据的Fsimage 但是 ......

nn与2nn工作机制

思考:namenode中的元数据是存储在哪里的?

  • 假设存储在namenode节点的硬盘中,因为经常需要随机访问和响应客户请求,必然效率太低,所以是存储在内存中的
  • 但是,如果存储在内存中,一旦断电,元数据丢失,整个集群便无法工作,因此会在硬盘中产生备份元数据的fsimage
  • 但是这样又会有新的问题出现,当内存中的元数据更新时,需要同时更新fsimage,否则会发生一致性的问题;
  • 但要更新的话,又会导致效率过低
  • 因此,又引入了edits文件,用来记录客户端更新元数据的每一步操作(只进行追加操作,效率很高),每当元数据有更新时,就把更新的操作记录到edits中,edits也存放在硬盘中
  • 这样,一旦namenode节点断电,可以通过fsimage和edits合并,生成最新的元数据
  • 如果长时间一直添加操作数据到edits,会导致文件数据过大,效率降低,而一旦断电会造成恢复时间过长,因此需要对fsimage与edits定期合并
  • 而如果这些操作都交给namenode节点完成,则又会造成效率降低
  • 因此引入了一个辅助namenode的新的节点secondarynamenode,专门用于fsimage和edits的合并

nn与2nn工作机制

浅谈HDFS(二)之NameNode与SecondaryNameNode

  1. 第一阶段:namenode启动
    • 第一次启动namenode格式化之后,创建fsimage,edits文件实在启动namenode时生成的;如果不是第一次创建,会直接加载edits和fsimage到内存,在hdfs启动时会有一次edits和fsimage的合并操作,此时namenode内存就持有最新的元数据信息
    • 客户端对元数据发送增删改(不记录查询操作,因为查询不改变元数据)的请求
    • namenode会首先记录操作日志,,更新滚动日志
    • namenode在内存中对元数据进行增删改操作
  2. 第二阶段:secondarynamenode工作
    • secondarynamenode定期询问namenode是否需要checkpoint,直接带回namenode是否检查的结果
    • 当checkpoint定时时间到了或者edits中的数据满了,secondarynamenode请求执行checkpoint
    • namenode滚动正在写的edits,并生成新的空的edits.inprogress_002,滚动的目的是给edits打个标记,以后所有更新操作都写入edits.inprogress_002中
    • 原来的fsimage和edits文件会拷贝到secondarynamenode节点,secondarynamenode会将它们加载到内存合并,生成新的镜像文件fsimage.chkpoint
    • 然后将新的镜像文件fsimage.chkpoint拷贝给namenode,重命名为fsimage,替换原来的镜像文件
    • 因此,最后当namenode启动时,只需要加载之前未合并的edits和fsimage即可更新到最新的元数据信息

fsimage与edits解析

  1. namenode在格式化之后,将在/opt/module/hadoop-2.7.2/data/tmp/dfs/name/current/目录下产生如下文件:
-rw-rw-r--. 1 kocdaniel kocdaniel     945 9月  25 20:27 fsimage_0000000000000000000
-rw-rw-r--. 1 kocdaniel kocdaniel      62 9月  25 20:27 fsimage_0000000000000000000.md5
-rw-rw-r--. 1 kocdaniel kocdaniel       4 9月  25 20:27 seen_txid
-rw-rw-r--. 1 kocdaniel kocdaniel     205 9月  25 10:25 version
  • fsimage:hdfs文件系统元数据的一个永久性的检查点,其中包含hdfs文件系统的所有目录和文件inode的序列化信息
  • edits(启动namenode时生成):存放hdfs文件系统所有更新操作,文件系统客户端执行的写操作首先会被记录到edits文件中
  • seen_txis:保存的时一个数字,是最新的edits_后的数字
  • 每次namenode启动的时候都会将fsimage文件读入内存,加载edits文件里的更新操作,保证内存中元数据的内容是最新的,同步的
  1. oiv查看fsimage文件
  • 基本语法:hdfs oiv -p 文件类型 -i 镜像文件 -o 转换后文件输出路径
  1. oev查看edits文件
  • 基本语法:hdfs oev -p 文件类型 -i 编辑日志 -o 转换后文件输出路径

checkpoint时间设置

默认情况下,secondarynamenode每隔一个小时或者当操作次数超过100万次时执行一次,但是操作次数的统计secondarynamenode自己做不到,需要借助namenode,所以还有一个参数设置是namenode每隔一分钟检查一次操作次数,当操作次数达到100万时secondarynamenode开始执行checkpoint,三个参数的设置都在hdfs_site.xml配置文件中,配置如下:

# secondarynamenode每隔一个小时执行一次
<property>
  <name>dfs.namenode.checkpoint.period</name>
  <value>3600</value>
</property>

# secondarynamenode当操作次数超过100万次时执行一次
<property>
  <name>dfs.namenode.checkpoint.txns</name>
  <value>1000000</value>
<description>操作动作次数</description>
</property>

# namenode一分钟检查一次操作次数
<property>
  <name>dfs.namenode.checkpoint.check.period</name>
  <value>60</value>
<description> 1分钟检查一次操作次数</description>
</property >

namenode故障处理

namenode故障后有两种处理方式:

namenode故障处理方式一:直接将secondarynamenode目录下的数据直接拷贝到namenode目录下,然后重新启动namenode

namenode故障处理方式二:使用-importcheckpoint选项启动namenode守护进程,从而将secondarynamenode目录下的数据直接拷贝到namenode目录下

  • 首先需要在hdfs_site.xml文件中添加如下配置
# secondarynamenode每隔两分钟执行一次
<property>
  <name>dfs.namenode.checkpoint.period</name>
  <value>120</value>
</property>

# 指定namenode生成的文件目录
<property>
  <name>dfs.namenode.name.dir</name>
  <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value>
</property>
  • 然后,如果secondarynamenode和namenode不在一个主机节点上,需要将secondarynamenode存储数据的目录拷贝到namenode存储数据的平级目录,并删除in_use.lock文件
  • 最后导入检查点数据(等待一会儿ctrl + c结束掉)
[kocdaniel@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importcheckpoint
  • 注意:执行完该命令后,观察namenode已经启动(临时启动),而且每2分钟检查一次,如果确定已经恢复了数据,我们ctrl+c停止,然后自己手动起namenode

  • ctrl+c之后,重启namenode即可恢复数据,但是并不能完全恢复,可能会将最新的edits文件中的操作丢失

集群安全模式

什么是安全模式

  1. namenode启动时,首先将fsimage载入内存,再执行edits中的各项操作,一旦在内存中成功建立文件系统元数据的映像,则创建一个新的fsimage文件和一个空的编辑日志,然后开始监听datanode请求,在这个过程期间,namenode一直运行在安全模式下,也就是namenode对于客户端是只读的
  2. datanode启动时,系统中的数据块的位置并不是由namenode维护的,而是由块列表的形式存储在datanode中,在系统的正常操作期间,namenode会在内存中保留所有块的映射信息。在安全模式下,各个datanode会向namenode发送最新的块列表信息,namenode了解足够多的块列表信息后,即可高效运行文件系统
  3. 安全模式退出判断:如果满足最小副本条件,namenode会在30秒之后退出安全模式。最小副本条件是指在整个文件系统中99.9%的块满足最小副本级别(默认为1),即99.9%的块至少有一个副本存在。
  4. 在启动一个刚刚格式化的hdfs集群时,由于系统中还没有任何块,所以namenode不会进入安全模式

基本语法

  • 集群处于安全模式时,不能执行任何重要操作(写操作)。
  • 集群启动完成后,自动退出安全模式
(1)bin/hdfs dfsadmin -safemode get      (功能描述:查看安全模式状态)
(2)bin/hdfs dfsadmin -safemode enter    (功能描述:进入安全模式状态)
(3)bin/hdfs dfsadmin -safemode leave    (功能描述:离开安全模式状态)
# wait是指,如果在脚本中写入此命令,则脚本将等待安全模式退出后自动执行
(4)bin/hdfs dfsadmin -safemode wait     (功能描述:等待安全模式状态)

namenode多目录配置

  • namenode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性,提高高可用性
  • 具体需要在hdfs_site.xml中加入如下配置:
# 指定目录的路径
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///${hadoop.tmp.dir}/dfs/name1,file:///${hadoop.tmp.dir}/dfs/name2</value>
</property>
欢迎关注下方公众号,获取更多文章信息

浅谈HDFS(二)之NameNode与SecondaryNameNode