首页 > 代码库 > Hbase负载均衡流程以及源码

Hbase负载均衡流程以及源码

hmater负责把region均匀到各个region server 。hmaster中有一个线程任务是专门处理负责均衡的,默认每隔5分钟执行一次。

 

每次负载均衡操作可以分为两步:

  • 生成负载均衡计划表
  • Assignment Manager 类执行计划表

 

负载均衡方法入口

 

以下代码的Hbase版本为0.96.2

在org.apache.hadoop.hbase.master.balancer.BalancerChore中

public BalancerChore(HMaster master) {    super(master.getServerName() + "-BalancerChore",        master.getConfiguration().getInt("hbase.balancer.period", 300000),        master);//hbase.balancer.period 为负载均衡方法执行的周期,毫秒为单位,hbaser-site.xml中可以设置    this.master = master;  }   @Override  protected void chore() {    try {      master.balance();//执行负载均衡方法    } catch (IOException e) {      LOG.error("Failed to balance.", e);    }  }//执行负载均衡的入口。  public void run() {    try {      boolean initialChoreComplete = false;      while (!this.stopper.isStopped()) {//stopper是Hmaster service,这里判断Hmaster是否是正常状态。        long startTime = System.currentTimeMillis();        try {          if (!initialChoreComplete) {            initialChoreComplete = initialChore();//在循环开始前,执行初始化方法,这里默认返回true;          } else {            chore();//执行负载均衡方法          }        } catch (Exception e) {          if (this.stopper.isStopped()) {            continue;          }        }        this.sleeper.sleep(startTime);      }  ...  }

 

负载均衡代码:

 

org.apache.hadoop.hbase.master.HMaster public boolean balance() throws IOException {    // 如果master没有被初始化,则不执行初始化操作    if (!this.initialized) {      LOG.debug("Master has not been initialized, don‘t run balancer.");      return false;    }   //只能同时跑一个负载均衡方法      if (!this.loadBalancerTracker.isBalancerOn()) return false;    // Do this call outside of synchronized block.    int maximumBalanceTime = getBalancerCutoffTime();    synchronized (this.balancer) {    //如果有region处于splitting状态,则不跑负载均衡方法。      if (this.assignmentManager.getRegionStates().isRegionsInTransition()) {        Map<String, RegionState> regionsInTransition =          this.assignmentManager.getRegionStates().getRegionsInTransition();    ...        return false;      }      if (this.serverManager.areDeadServersInProgress()) {//如果有挂掉的region server则不执行负载均衡。        LOG.debug("Not running balancer because processing dead regionserver(s): " +          this.serverManager.getDeadServers());        return false;      }...      Map<TableName, Map<ServerName, List<HRegionInfo>>> assignmentsByTable =        this.assignmentManager.getRegionStates().getAssignmentsByTable();//获取table下面的region server 和region。      List<RegionPlan> plans = new ArrayList<RegionPlan>();      //Give the balancer the current cluster state.      this.balancer.setClusterStatus(getClusterStatus());//设置当前集群的状态      for (Map<ServerName, List<HRegionInfo>> assignments : assignmentsByTable.values()) {//可以看到,负载均衡方法是以每个table作为负载均衡的依据的。        List<RegionPlan> partialPlans = this.balancer.balanceCluster(assignments);//获取负载均衡计划表        if (partialPlans != null) plans.addAll(partialPlans);      }...      if (plans != null && !plans.isEmpty()) {        for (RegionPlan plan: plans) {        ...          this.assignmentManager.balance(plan);//根据执行计划表的迁移内容。         ...        }    }    }    // If LoadBalancer did not generate any plans, it means the cluster is already balanced.    // Return true indicating a success.    return true;  }

 

 从代码可以看到负载均衡是根据每个table来的

 

在以下几种状态下,负载平衡方法不会执行:

  • 如果master没有被初始化 
  • 当前已经有负载均衡方法在跑了
  • 当前有region处于splitting状态
  • 当前集群中有挂掉的region server 

 

生成RegionPlan表:

 org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer

生成regionPlan表用的StochasticLoadBalancer. balanceCluster(Map<ServerName, List<HRegionInfo>> clusterState)这个方法,这个方法比较特别也比较有意思,首先,StochasticLoadBalancer 有一套计算某一table下cluster load(集群负载)评分的算法,得出的值越低表明负载越合理。这套算法是根据以下几个维度来计算得出的:

  • Region Load //每个regin server 的region 数目
  • Table Load 
  • Data Locality //数据本地性
  • Memstore Sizes //memstore大小
  • Storefile Sizes 

首先对单个region server 根据上面5个维度计算得出评分x(0<=x<=1),然后把同一table下所有region server评分加起来,就是当前table的cluster load评分。这个评分越低表明越合理。

 

然后它还有三种调节cluster load 的方法:

  • RandomRegionPicker 
  • LoadPicker
  • LocalityPicker 

RandomRegionPicker 随机交换策略。在虚拟cluster中(虚拟cluster只作为记录用,不会涉及实际的region 迁移操作。cluster包含某个table下所有的region server的相关信息,以及region server下的regions.)随机选出两个region server ,然后分别在region server 中在 随机获取一个region,然后这两个region server下的region交换一下,然后再计算评分,如果得出的评分较低的话,表明这两个region 交换是有利于集群的负载均衡的,保留这个改变。否则,还原到之前的状态,两个region再交换下region server 。其中拥有比较少regions的region server 可能随机出一个空,实际情况,就是变成了迁移region,不再是交换region。

 

LoadPicker ,region数目均衡策略。在虚拟cluster中,首先获取region数目最多和最少的两个region server ,这样能使两个region server 最终的region数目更加的平均。后面的流程和上面的一样。

 

LocalityPicker ,本地性最强的均衡策略。本地性的意思是,Hbase底层的数据其实是存放在HDFS上面的,如果某个region的数据文件存放在某个region server 的比例比其他的region server 都要高,那么称这个region server是该region的最高本地性region server 。在该策略中,首先随机出一个region server 以及其下面的region 。然后找到这个region本地性最高的region server 。本地性最高的region server再随机出一个region server。这两个region server 后面的流程和上面的一样。

 

具体流程如下:

 负载均衡流程图

0. 是否需要进行负载均衡,是根据当前region server拥有的region数目来判断的

  

protected boolean needsBalance(ClusterLoadState cs) {    ...    float average = cs.getLoadAverage(); // for logging 获取cluster中region server平均拥有的region数目    int floor = (int) Math.floor(average * (1 - slop));//slop默认是0.2,可接受范围的最低值    int ceiling = (int) Math.ceil(average * (1 + slop));//最高值    if (!(cs.getMaxLoad() > ceiling || cs.getMinLoad() < floor)) {//如果cluster的最多和最少region的region server不在范围内,返回false表明需要进行负载均衡算法。       ...      return false;    }    return true;}

 

 

1.计算当前cluster的分数。简单来说是这样的,在每一个维度中,计算region server 的cost值,最终根据 (权重*cost值) 加起来的就是总得分,这得分越小表示越均衡,每个region server之间的差异越小。这个cost值是由cluster的(最大差值/(当前差值-最小差值))得出的。

/* 计算cluster的总得分*/  protected double computeCost(Cluster cluster, double previousCost) {    double total = 0;for (CostFunction c:costFunctions) {//CostFunction 根据某个维度计算分数 ,costFunctions的实现见下面代码。      if (c.getMultiplier() <= 0) {//multiplier是权重。        continue;      }      total += c.getMultiplier() * c.cost(cluster);//权重*当前维度的评分      if (total > previousCost) {        return total;      }    }    return total;  }//costFunctions 初始化    regionLoadFunctions = new CostFromRegionLoadFunction[] {      new ReadRequestCostFunction(conf),//读请求维度评分      new WriteRequestCostFunction(conf),//写请求维度评分      new MemstoreSizeCostFunction(conf),//memstore 大小维度评分      new StoreFileCostFunction(conf)//StoreFile 维度评分    };    costFunctions = new CostFunction[]{      new RegionCountSkewCostFunction(conf),//region 数目 维度评分      new MoveCostFunction(conf),//迁移region 维度评分      localityCost,//本地相关 维度评分      new TableSkewCostFunction(conf), //表 维度评分      regionLoadFunctions[0],      regionLoadFunctions[1],      regionLoadFunctions[2],      regionLoadFunctions[3],    };

 

取其中RegionCountSkewCostFunction 作为例子:

public static class RegionCountSkewCostFunction extends CostFunction {    private static final String REGION_COUNT_SKEW_COST_KEY =        "hbase.master.balancer.stochastic.regionCountCost";    private static final float DEFAULT_REGION_COUNT_SKEW_COST = 500;//默认权重为500    private double[] stats = null;    RegionCountSkewCostFunction(Configuration conf) {      super(conf);      // Load multiplier should be the greatest as it is the most general way to balance data.      this.setMultiplier(conf.getFloat(REGION_COUNT_SKEW_COST_KEY, DEFAULT_REGION_COUNT_SKEW_COST));//设置权重    }
@Override
double cost(Cluster cluster) { if (stats == null || stats.length != cluster.numServers) { stats = new double[cluster.numServers]; } for (int i =0; i < cluster.numServers; i++) { stats[i] = cluster.regionsPerServer[i].length;//当前维度是根据每个region server 的region数目作为评分标准。 } return costFromArray(stats); } } protected double costFromArray(double[] stats) {//根据某一维度,每个region server计算出来的评分 double totalCost = 0; double total = getSum(stats);//计算总分 double mean = total/((double)stats.length);//获取每个region server的平均评分 double count = stats.length;//region server的总数 // Compute max as if all region servers had 0 and one had the sum of all costs. This must be // a zero sum cost for this to make sense. //这里假设最坏的情况为(count-1)的region server的评分为0,剩下的一个region server 占有了所有的分数,也就是负载非常不均衡,全部压力都压到同一台region server上面了。计算出最大的差值max。 double max = ((count - 1) * mean) + (total - mean); for (double n : stats) {//计算当前的差值 double diff = Math.abs(mean - n); totalCost += diff; } double scaled = scale(0, max, totalCost);//(最大差值/(当前差值-最小差值)) return scaled; }

 

2.设置循环的次数和cluster的region server 的总数和region总数有关。最大值mapSteps为1000000。

  long computedMaxSteps = Math.min(this.maxSteps, ((long)cluster.numRegions * (long)this.stepsPerRegion * (long)cluster.numServers)); 

 

3,4,5,6随机出一个策略,就是上面讲到的 RandomRegionPicker,LoadPicker,LocalityPicker 交换或迁移一次region再计算评分。如果评分比之前要低保留,否则还原。

 

7,8,9循环进行直到结束,产出List<RegionPlan>。交给assignment manager实际执行迁移region的操作。regionPlan的格式是这样子的:

RegionPlan rp = new RegionPlan(region, initialServer, newServer); //initialServer的region需要迁移到newServer

 

到此,负载均衡算法结束。在Hbase 0.94的版本里面,默认的负载均衡算法是使用SimpleLoadBalancer类,balanceCluster主要思路上,平均每个region server的region数目,维度相对来说比较单一,在StochasticLoadBalancer 中考虑的维度比较多,在0.96版本里面StochasticLoadBalancer作为了默认的负载均衡的算法的实现。https://issues.apache.org/jira/browse/HBASE-5959 这个patch的评论能看到StochasticLoadBalancer的提交的过程。

Hbase负载均衡流程以及源码