当前位置: 首页 > hbase, 云计算, 分布式 > 正文

hadoop decommission 时卡住

hadoop decommission一个节点Datanode,几万个block都同步过去了,但是唯独剩下2个block一直停留在哪,导致该节点几个小时也无法下线。hadoop UI中显示在Under Replicated Blocks里面有2个块始终无法消除。

Namenode日志里面一直有这样的滚动:

google了好久,貌似是一个hadoop的bug,https://issues.apache.org/jira/browse/HDFS-5579
NameNode发现block的Replicas不够(期待应该有3个,实际有两个),或许是namenode认为数据不完整,执着地不让这个DataNode下架。。。

最终尝试如下方式解决,把replications设置成2:

执行完后很快,该节点就下线了,神奇的replications。

本文固定链接: https://www.sudops.com/hdaoop-decommission-hung.html | 运维·速度

该日志由 Fisher 于2015年01月20日发表在 hbase, 云计算, 分布式 分类下, 你可以发表评论,并在保留原文地址及作者的情况下引用到你的网站或博客。
原创文章转载请注明: hadoop decommission 时卡住 | 运维·速度
关键字:

hadoop decommission 时卡住:等您坐沙发呢!

发表评论


Time limit is exhausted. Please reload the CAPTCHA.

快捷键:Ctrl+Enter