首页 > 代码库 > 第十一篇:Map/Reduce 工作机制分析 - 错误处理机制
第十一篇:Map/Reduce 工作机制分析 - 错误处理机制
前言
对于Hadoop集群来说,节点损坏是非常常见的现象。
而Hadoop一个很大的特点就是某个节点的损坏,不会影响到整个分布式任务的运行。
下面就来分析Hadoop平台是如何做到的。
硬件故障
硬件故障可以分为两种 - JobTracker节点损坏和TaskTracker节点损坏。
1. JobTracker节点损坏
这是Hadoop集群中最为严重的错误。
出现了这种错误,那就只能重新选择JobTracker节点,而在选择期,所有的任务都必须停掉,而且当前已经完成了的任务也必须通通重来。
2. TaskTracker节点损坏
这是Hadoop集群中最常见的错误。对于这类错误,Hadoop有完好的错误处理机制。
JobTracker和TaskTracker的心跳通信机制要求TaskTracker保证在1分钟之内向JobTracker汇报进展。
如果超过时间JobTracker没有收到汇报,就会将该TaskTracker从等待调度的集合中移除出去;
而如果收到任务失败的的报告,就把这个TaskTracker移动到等待调度队列尾部重新排队。但是若一个TaskTracker连续汇报了四次失败,那么也会被移出任务等待队列。
小结
关于故障的处理维护,一般会由专人来进行管理。
这部分内容就暂且不做深究了。
第十一篇:Map/Reduce 工作机制分析 - 错误处理机制
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。