搜索
您的当前位置:首页Hadoop3.x 之 HDFS DataNode (月薪过万 第八章)

Hadoop3.x 之 HDFS DataNode (月薪过万 第八章)

来源:飒榕旅游知识分享网

一、DataNode 工作机制

1、DataNode工作机制

  • (1)一个数据块在 DataNode 上以文件形式存储在磁盘上,包括两个文件,一个是数据
    本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。
  • (2)DataNode 启动后向 NameNode 注册,通过后,周期性(6 小时)的向 NameNode 上
    报所有的块信息。
    DN 向 NN 汇报当前解读信息的时间间隔,默认 6 小时;
<property>
<name>dfs.blockreport.intervalMsec</name>
<value>21600000</value>
<description>Determines block reporting interval in 
milliseconds.</description>
</property>
  • DN 扫描自己节点块信息列表的时间,默认 6 小时
<property>
<name>dfs.datanode.directoryscan.interval</name>
<value>21600s</value>
<description>Interval in seconds for Datanode to scan data
directories and reconcile the difference between blocks in memory and on 
the disk.
Support multiple time unit suffix(case insensitive), as described
in dfs.heartbeat.interval.
</description>
</property>
  • (3)心跳是每 3 秒一次,心跳返回结果带有 NameNode 给该 DataNode 的命令如复制块
    数据到另一台机器,或删除某个数据块。如果超过 10 分钟没有收到某个 DataNode 的心跳,
    则认为该节点不可用。
  • (4)集群运行中可以安全加入和退出一些机器。

2、数据完整性

(1)当 DataNode 读取 Block 的时候,它会计算 CheckSum。
(2)如果计算后的 CheckSum,与 Block 创建时值不一样,说明 Block 已经损坏。
(3)Client 读取其他 DataNode 上的 Block。
(4)常见的校验算法 crc(32),md5(128),sha1(160)
(5)DataNode 在其文件创建后周期验证 CheckSum。

3、掉线时限参数设置

DataNode掉线时限参数设置

<property>
 <name>dfs.namenode.heartbeat.recheck-interval</name>
 <value>300000</value>
</property>
<property>
 <name>dfs.heartbeat.interval</name>
 <value>3</value>
</property>

因篇幅问题不能全部显示,请点此查看更多更全内容

Top