首页 > 代码库 > 基于RHCS的web双机热备集群搭建

基于RHCS的web双机热备集群搭建

基于RHCS的web双机热备集群搭建

RHCS集群执行原理及功能介绍

1、 分布式集群管理器(CMAN)
 Cluster Manager。简称CMAN。是一个分布式集群管理工具。它执行在集群的各个节点上,为RHCS提供集群管理任务。

CMAN用于管理集群成员、消息和通知。它通过监控每一个节点的执行状态来了解节点成员之间的关系。当集群中某个节点出现问题。节点成员关系将发生改变,CMAN及时将这样的改变通知底层,进而做出对应的调整。

2、锁管理(DLM)
 Distributed Lock Manager,简称DLM。表示一个分布式锁管理器,它是RHCS的一个底层基础构件。同一时候也为集群提供了一个公用的锁执行机制。在RHCS集群系统中,DLM执行在集群的每一个节点上,GFS通过锁管理器的锁机制来同步訪问文件系统元数据。

CLVM通过锁管理器来同步更新数据到LVM卷和卷组。 DLM不须要设定锁管理server,它採用对等的锁管理方式,大大的提高了处理性能。

同一时候。DLM避免了当单个节点失败须要总体恢复的性能瓶颈,另外,DLM的请求都是本地的。不须要网络请求。因而请求会马上生效。

最后,DLM通过分层机制,能够实现多个锁空间的并行锁模式。

3、配置文件管理(CCS)
 Cluster Configuration System,简称CCS,主要用于集群配置文件管理和配置文件在节点之间的同步。

CCS执行在集群的每一个节点上,监控每一个集群节点上的单一配置文件/etc/cluster/cluster.conf的状态,当这个文件发生不论什么变化时,都将此变化更新到集群中的每一个节点。时刻保持每一个节点的配置文件同步。

比如,管理员在节点A上更新了集群配置文件,CCS发现A节点的配置文件发生变化后。立即将此变化传播到其他节点上去。 RHCS的配置文件是cluster.conf,它是一个xml文件。详细包括集群名称、集群节点信息、集群资源和服务信息、fence设备等。


4、栅设备(FENCE)
 FENCE设备是RHCS集群中不可缺少的一个组成部分,通过FENCE设备能够避免因出现不可预知的情况而造成的“脑裂”现象,FENCE设备的出现,就是为了解决类似这些问题。Fence设备主要就是通过server或存储本身的硬件管理接口。或者外部电源管理设备。来对server或存储直接发出硬件管理指令。将server重新启动或关机,或者与网络断开连接。 FENCE的工作原理是:当意外原因导致主机异常或者宕机时,备机会首先调用FENCE设备,然后通过FENCE设备将异常主机重新启动或者从网络隔离,当FENCE操作成功执行后,返回信息给备机。备机在接到FENCE成功的信息后,開始接管主机的服务和资源。

这样通过FENCE设备,将异常节点占领的资源进行了释放,保证了资源和服务始终执行在一个节点上。

RHCS的FENCE设备能够分为两种:内部FENCE和外部FENCE,经常使用的内部FENCE有IBM RSAII卡。HP的iLO卡,还有IPMI的设备等,外部fence设备有UPS、SAN SWITCH、NETWORK SWITCH等

5、高可用服务管理器
 高可用性服务管理主要用来监督、启动和停止集群的应用、服务和资源。它提供了一种对集群服务的管理能力,当一个节点的服务失败时,高可用性集群服务管理进程能够将服务从这个失败节点转移到其他健康节点上来,并且这样的服务转移能力是自己主动、透明的。RHCS通过rgmanager来管理集群服务,rgmanager执行在每一个集群节点上。在server上相应的进程为clurgmgrd。在一个RHCS集群中,高可用性服务包括集群服务和集群资源两个方面。集群服务事实上就是应用服务。比如apache、mysql等,集群资源有非常多种,比如一个IP地址、一个执行脚本、ext3/GFS文件系统等。在RHCS集群中,高可用性服务是和一个失败转移域结合在一起的,所谓失败转移域是一个执行特定服务的集群节点的集合。在失败转移域中,能够给每一个节点设置相应的优先级,通过优先级的高低来决定节点失败时服务转移的先后顺序,假设没有给节点指定优先级,那么集群高可用服务将在随意节点间转移。因此,通过创建失败转移域不但能够设定服务在节点间转移的顺序,并且能够限制某个服务仅在失败转移域指定的节点内进行切换。

6、集群配置管理工具
 RHCS提供了多种集群配置和管理工具,经常使用的有基于GUI的system-config-cluster、Conga等,也提供了基于命令行的管理工具。
 system-config-cluster是一个用于创建集群和配置集群节点的图形化管理工具,它有集群节点配置和集群管理两个部分组成。分别用于创建集群节点配置文件和维护节点执行状态。一般用在RHCS早期的版本号中。Conga是一种新的基于网络的集群配置工具,与system-config-cluster不同的是,Conga是通过web方式来配置和管理集群节点的。Conga有两部分组成,各自是luci和ricci,luci安装在一台独立的计算机上。用于配置和管理集群,ricci安装在每一个集群节点上。Luci通过ricci和集群中的每一个节点进行通信。

RHCS也提供了一些功能强大的集群命令行管理工具。经常使用的有clustat、cman_tool、ccs_tool、fence_tool、clusvcadm等。这些命令的使用方法将在以下讲述。

7、 Redhat GFS
     GFS是RHCS为集群系统提供的一个存储解决方式。它同意集群多个节点在块级别上共享存储,每一个节点通过共享一个存储空间。保证了訪问数据的一致性,更切实的说,GFS是RHCS提供的一个集群文件系统,多个节点同一时候挂载一个文件系统分区,而文件系统数据不受破坏,这是单一的文件系统,比如EXT3、EXT2所不能做到的。


 为了实现多个节点对于一个文件系统同一时候读写操作。GFS使用锁管理器来管理I/O操作。当一个写进程操作一个文件时。这个文件就被锁定。此时不同意其他进程进行读写操作。直到这个写进程正常完毕才释放锁。仅仅有当锁被释放后,其他读写进程才干对这个文件进行操作,另外。当一个节点在GFS文件系统上改动数据后。这样的改动操作会通过RHCS底层通信机制马上在其他节点上可见。在搭建RHCS集群时,GFS一般作为共享存储,执行在每一个节点上。而且能够通过RHCS管理工具对GFS进行配置和管理。这些须要说明的是RHCS和GFS之间的关系。一般刚開始学习的人非常easy混淆这个概念:执行RHCS。GFS不是必须的,仅仅有在须要共享存储时,才须要GFS支持,而搭建GFS集群文件系统,必须要有RHCS的底层支持,所以安装GFS文件系统的节点,必须安装RHCS组件。

集群环境介绍

主节点。RealServer1: 192.168.10.121

备节点,RealServer2: 192.168.10.122

存储节点,Node1:       192.168.10.130

集群的浮动 IP:           192.168.10.254

配置主机之间的ssh互信

① 在每台主机上运行一下代码

/usr/bin/ssh-keygen -t rsa
/usr/bin/ssh-keygen -t dsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys


② 建立 RealServer1和RealServer2之间的ssh互信

在RealServer1上运行:

ssh server2 cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys 
ssh server2 cat /root/.ssh/id_dsa.pub >> /root/.ssh/authorized_keys

在RealServer2上运行:

ssh server1 cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys 
ssh server1 cat /root/.ssh/id_dsa.pub >> /root/.ssh/authorized_keys


配置target 存储

yum install iscsi-target-utils -y
service tgtd restart
chkconfig tgtd on
HOSTNAME="iqp.2014-08-25.edu.nuist.com:storage.disk"
tgtadm --lld iscsi --mode target --op  new --tid 1 --targetname $HOSTNAME
tgtadm --lld iscsi --op new --mode logicalunit --lun 1 --tid 1 -b /dev/sdb
tgtadm --lld iscsi --op bind --mode target --tid 1 -I ALL

#tgtadm --lld iscsi --op show --mode target |grep Target
tgt-admin -s

配置全部节点的initiator

yum install iscsi-initiator* -y
service iscsi start
service iscsid start
chkconfig iscsid

iscsiadm -m discovery -p 192.168.10.130:3260 -t sendtargets
iscsiadm -m node --targetname iqp.2014-08-25.edu.nuist.com:storage.disk -p 192.168.10.130:3260 --login


创建一个GFS2文件系统(仅仅在当中一个节点)(在192.168.10.121上创建)(创建一个lvm)

pvreate /dev/sdb
vgcreate webvg /dev/sdb 
lvcreate -L 2G -n webvg_lv1 webvg


在每一个节点上安装集群软件

yum -y install cman* 
yum -y install rgmanager*
yum -y install gfs2-utils
yum -y install system-config-cluster*
yum -y install lvm2-cluster


格式化文件系统(格式化一次就可以)

mkfs.gfs2 -p lock_dlm -t httpd_cluster:webvg_lv1 -j 2 /dev/webvg/webvg_lv1

使用 system-config-cluster 图形工具产生 cluster.conf配置文件

① 启动system-config-cluster,创建httpd_cluster

    技术分享

    技术分享

   

② 加入新节点

    技术分享

③ 加入fence

    技术分享

④ 将fence和节点绑定

    技术分享

⑤ 加入资源:加入 IP 资源

    技术分享

⑥ 加入资源:加入GFS资源

    技术分享

⑦ 加入资源:加入Script资源

    技术分享

⑧ 创建失效域

    技术分享

⑨ 创建集群服务

    技术分享

配置完毕后的文件内容例如以下

<?xml version="1.0" ?>
<cluster config_version="2" name="httpd_cluster">
	<fence_daemon post_fail_delay="0" post_join_delay="3"/>
	<clusternodes>
		<clusternode name="RealServer1" nodeid="1" votes="1">
			<fence>
				<method name="1">
					<device name="fence1" nodename="RealServer1"/>
				</method>
			</fence>
		</clusternode>
		<clusternode name="RealServer2" nodeid="2" votes="1">
			<fence>
				<method name="1">
					<device name="fence2" nodename="RealServer2"/>
				</method>
			</fence>
		</clusternode>
	</clusternodes>
	<cman expected_votes="1" two_node="1"/>
	<fencedevices>
		<fencedevice agent="fence_manual" name="fence1"/>
		<fencedevice agent="fence_manual" name="fence2"/>
	</fencedevices>
	<rm>
		<failoverdomains>
			<failoverdomain name="httpd_fail" ordered="0" restricted="1">
				<failoverdomainnode name="RealServer1" priority="1"/>
				<failoverdomainnode name="RealServer2" priority="1"/>
			</failoverdomain>
		</failoverdomains>
		<resources>
			<ip address="192.168.10.254" monitor_link="1"/>
			<script file="/etc/init.d/httpd" name="httpd"/>
			<clusterfs device="/dev/webvg/webvg_lv1" force_unmount="1" fsid="8669" fstype="gfs2" mountpoint="/var/www/html" name="docroot" options=""/>
		</resources>
		<service autostart="1" domain="httpd_fail" name="httpd_srv" recovery="relocate">
			<ip ref="192.168.10.254"/>
			<script ref="httpd"/>
			<clusterfs ref="docroot"/>
		</service>
	</rm>
</cluster>

将产生后的cluster.conf通过scp拷贝到其它节点上。

(第一次须要手动复制。集群服务启动后能够通过system-config-cluster向全部节点分发配置文件。)


在RealServer1 和RealServer2 上安装apache

yum install httpd

配置RealServer1(RealServer2类似)

NameVirtualHost 192.168.10.121:80

ServerName   www.example.com

<VirtualHost 192.168.10.121:80>
	DocumentRoot /var/www/html
	ServerName   www.example.com
</VirtualHost>

设置apache开机不启动

chkconfig httpd off


启动集群服务

service cman start
service rgmanager start
lvmconf --enable-cluster
service clvmd start

集群启动后,开启system-config-cluster后。例如以下图。能够对集群的配置文件进行改动,改动完毕后能够通过Send to  Cluster向全部节点分发配置文件。该工具内置版本号控制的功能,每次改动配置文件后,会自己主动产生一个新版本号。集群服务启动后,“Cluster Manager”才会出现,其内容如右图。分别显示集群中的节点,集群服务的状态,和集群中的主节点。

    技术分享技术分享

測试

至此集群搭建完成

查看集群状态: clustat

查看挂载状态: mount

手动切换主被节点:clusvcadm -r httpd_srv 备用主机名称

查看浮点ip附着在那台主机上: ip addr

通过浏览器訪问apache: http://192.168.10.254


參考

1. 51CTO朱伟宏老师的视频教程。地址:http://edu.51cto.com/course/course_id-2.html

2. 百度文库:红帽集群套件RHCS四部曲



??
??
??

基于RHCS的web双机热备集群搭建