首页 > 代码库 > mapreduce任务出错最大尝试次数
mapreduce任务出错最大尝试次数
一个任务出现失败时,tasktracker会将此任务的失败信息报告给jobtracker,jobtracker会分配新的节点执行此任务。这种情况下不会影响整个作业的完整执行。但是如果容易任务出现多次失败,且失败次数超出失败的最大指定次数,那么作业会在未完成的情况下被终止。
mapred-site.xml: hadoop1.x: mapred.max.map.attempts mapred.max.reduce.attempts hadoop2.x: <property> <name>mapreduce.reduce.maxattempts</name> <value>4</value> <description>Expert: The maximum number of attempts per reduce task. In other words, framework will try to execute a reduce task these many number of times before giving up on it. </description> </property> <property> <name>mapreduce.map.maxattempts</name> <value>4</value> <description>Expert: The maximum number of attempts per map task. In other words, framework will try to execute a map task these many number of times before giving up on it. </description> </property>
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。