首页 > 代码库 > HAProxy(1)

HAProxy(1)

HAProxy

HAProxy提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案。HAProxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理。HAProxy运行在时下的硬件上,完全可以支持数以万计的并发连接。并且它的运行模式使得它可以很简单安全的整合进您当前的架构中, 同时可以保护你的web服务器不被暴露到网络上。

HAProxy实现了一种事件驱动(epoll)、单一进程模型,此模型支持非常大的并发连接数。多进程或多线程模型受内存限制 、系统调度器限制以及无处不在的锁限制,很少能处理数千并发连接。事件驱动模型因为在有更好的资源和时间管理的用户端(User-Space) 实现所有这些任务,所以没有这些问题。此模型的弊端是,在多核系统上,这些程序通常扩展性较差。这就是为什么他们必须进行优化以 使每个CPU时间片(Cycle)做更多的工作。

                                                           --转自百度百科

目前的代理服务器,大致分为两种

1、一种是基于Lvs的nat模式实现的负载均衡,Director节点本身具有代理服务器的特性。效果图如

image

2、基于HAProxy的实现的代理服务器,本身HAProxy可以工作在七层模型即应用层对http请求进行反向代理,效果图如下:

image

有些我们看到的服务器如缓存服务器varnish和squid分别都可以实现反代的效果,甚至有些提供web服务的如httpd和nginx也同样可以实现反向代理,还有Yahoo提供的ats的代理服务器。

在本文中,就分享一下,HAProxy的特点以及如何实现反向代理,甚至HAProxy是如何实现读写分离的。

1、HAProxy反向代理相比较其他反向代理的特点和功能

  1. 四层的lvs将web请求在内核模式就完成,虽然可以处理并发请求数巨大,但是无法对web请求做更深层次的限制。
  2. 而HAProxy则是工作在七层模型下的,它运行在应用层,因此在处理请求时需要实现进程间的上下文切换,同时它一方面需要监听在80端口等待前方Client的请求,同时在它的内部还要另外开启一个连接后方真正“节点”提供web服务的服务器的request,而这个HAProxy内部的request请求就是重新封装前方Client的请求!
  3. HAProxy相比较lvs的代理,它可以理解应用层用户请求的数据,而lvs无法做到。
  4. 但lvs也有自己的优点,尤其是lvs的DR模型,它只是拆封了以太网帧首部,就直接由内核调度转发了请求报文给后端的Real Server了,省去了中间很多环节,所以带来的好处就是不会基于进程注册套接字的方法来处理请求数,以至于发挥了lvs的最大并发请求数,据原lvs作者研究表明,vls所能承载的最大并发连接数大概是400W个。
  5. HAProxy虽然需要启动进程来向内核注册套接字的方法,虽然受65535的限制,但由于它能理解应用层发来的报文信息,所以它还能做到动静分离。
  6. 针对现在互联网服务器架构设计,比如一个客户端的简单的http请求,看起来访问的是主页,其实只是一个框架和对网页上其他资源的引用。
  7. HAProxy还有自己的监控功能,叫做HAProxy stats page,甚至还支持基于状态也来控制HAProxy后端节点的上下线!
  8. 其实HAProxy分为两段,一端客户端向HAProxy请求时,一般使用常联系,而HAProxy向后端的Real Server建立联系时,通常使用的是no keepalived,而HAProxy的第二端连接也会使用keepAlive,因为它要实现session bind
  9. HAProxy可以基于acl对用户的http请求做分类,从而发往后端不同的服务器组。
  • HAProxy的性能(它需要借助操作系统的技术来实现自身性能的最大化)
    • 1、单进程、epoll模型降低了频繁的上下文切换的内存占用。
    • 2、O(1)的事件检查器(event checker)可以让它在高并发连接中对任何的连接任何事件都能实现即时的探测。
    • 3、它的0复制转发,可以让它在单缓冲机制可以实现不去复制任何数据完成读写操作,但要借助splice(内核的功能)
    • 4、内存分配器,在固定大小的内存池中实现内存分配。
    • 树型存储,O(log)N 的低开销来保持计时器命令。

    下面我们来配置一个HAProxy,在配置HAProxy之前,我们需要准备两个以上节点的服务器,让HAProxy能够根据前端客户端请求时,进行调度到后端不同的节点之上。

    为了区分提供的web服务是不同的后端节点请求到的,我们这里有意将主页设置成不同的,便于区分。

    1、后端是两台web服务器

    image

  • 首先定义下HAProxy的配置文件,默认在/etc/haproxy/haproxy.cfg,在里面找个空白位置,添加如下几项:

  • frontend first *:80
       default_backend webservers

    backend webservers
          balance roundrobin
          server ws1 192.168.39.2:80
          server ws2 192.168.39.3:80

  • 或者合并定义为listen

  • listen first *:80
          balance roundrobin
          server ws1 192.168.39.2:80
          server ws2 192.168.39.3:80

  • 同样可以利用bind定义成这样

  • frontend first

    • bind :80,:8080

    • default_backend webservers
  • backend webservers
    balance roundrobin
    server ws1 192.168.39.2
    server ws2 192.168.39.3

  • 意思是我面向前方的frontendserver监听在80端口,随时等待前方客户端连接,default_backend 定义一个提供后方工作的服务器的名字叫webservers,再定义后方面向Real Server这,把想要提供真正的服务的服务器添加到webservers里面,并且定义调度格式为轮询。定义完后,启动HAProxy,确保本机的80端口之前没有被其他服务占用,如nginx或httpd占用,看到下方意味启动成功。

  • [root@libincla haproxy]# ss -tnlp | grep 80
    LISTEN     0      128                       *:80                       *:*      users:(("haproxy",2905,4))

  • 下面就是模拟最前端的客户端打开浏览器,访问vip:192.168.1.77

  • image 再次刷新显示image

  • 下一篇会介绍HAProxy的动静分离

  • HAProxy(1)