Linux双机热备解决方案之Heartbeat

简介:

拓扑图:

085615163.jpg

环境描述:

操作系统:CentOS6.3_x64

主:eth0 192.168.10.10 心跳:eth1 192.168.1.10

备:eth0 192.168.10.20 心跳:eth1 192.168.1.20

VTP:192.168.128.5

heartbeatLinux-HA)的工作原理heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未受到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运 行在对方主机上的资源或者服务。

Heartbeat:(心跳检测)本身是整个集群的基础(cluster messaging layer),负责维护集群各节点的信息以及它们之前通信;只提供主从备份功能,并不能对各个节点进行监控,需要安装ldirectord

Resource-agent:(资源代理)就是各种的资源的ocf脚本,这些脚本将被LRM调用从而实现各种资源启动、停止、监控等等。

Cluster-glue:相当于一个中间层,可以将heartbeat和crm(pacemaker)联系起来,主要包含2个部分,LRM和STONITH;

Ldirectord:负责realserver的健康检查,可以自动将realserver中宕机的机器移除,不再分配求。

安装依赖包:

1
yum  install  -y gcc gcc-c++ autoconf libtool pkgconfig glib2-devel libxslt-devel libxml2-devel  bzip2 -devel libtool-ltdl-devel libuuid-devel docbook-style-xsl

安装资源接管服务依赖包:

1
yum  install  -y *Socket6* *libwww-perl* *URI* *MailTools* *HTML-Parser* perl-IO-Socket-*

配置host解析

vi /etc/hosts

192.168.10.10 master

192.168.10.20 slave

软件下载:http://www.linux-ha.org/wiki/Downloads

一、配置主从heartbeat服务器(配置相同)

创建需要的组和用户

1
2
groupadd haclient
useradd  -g haclient -s  /sbin/nologin  -M hacluster

1.安装资源接管服务(要先安装资源接管服务,否则安装心跳服务会报错)

1
2
3
4
5
tar  zxvf Reusable-Cluster-Components-glue--glue-1.0.9. tar .bz2
cd  Reusable-Cluster-Components-glue--glue-1.0.9
. /autogen .sh
. /configure
make  &&  make  install

2.安装心跳服务

1
2
3
4
tar  jxvf Heartbeat-3-0-7e3a82377fa8. tar .bz2
cd  Heartbeat-3-0-7e3a82377fa8
. /ConfigureMe  configure
make  &&  make  install

报错:./configure: error: Core development headers were not found

解决:./ConfigureMe configure ,如果还解决不了,就是你没有安装Heartbeat服务

报错:gmake[1]: --xinclude: Command not found ,gmake[1]: *** [heartbeat.8] Error 127

解决:yum install libxslt-devel

3.安装中间件服务

1
2
3
4
5
tar  jxvf ClusterLabs-resource-agents-v3.9.2-0-ge261943. tar .gz
cd  ClusterLabs-resource-agents-b735277
. /autogen .sh
. /configure
make  &&  make  install

报错:syntax error near unexpected token `DBUS,

解决:vi configure,注释这行PKG_CHECK_MODULES(DBUS, dbus-1, dbus-glib-1)

二、配置heartbeat

1
2
3
4
5
6
7
8
9
10
/etc/ha .d /ha .cf  #定义心跳信息层,用于实现心跳信息传输。
/etc/ha .d /haresources  #本地最重要的CRM,这个文件我们使用v1版本的配置文件,很简单。
/etc/ha .d /authkeys  #实现两个节点之间传递,对心跳信息进行签名,或者加密,避免篡改;authkeys的权限非常重要,通常是400或者600的,如果设置不对无法启动heartbeat服务。
rm  -rf  /usr/etc/ha .d
ln  -s  /etc/ha .d  /usr/etc
cp  /usr/share/doc/heartbeat/haresources  /etc/ha .d
cp  /usr/share/doc/heartbeat/authkeys  /etc/ha .d
cp  /usr/share/doc/heartbeat/ha .cf  /etc/ha .d
chmod  600  /etc/ha .d /authkeys
chkconfig heartbeat on

1.修改配置文件

1
2
3
4
5
vi  authkeys
auth 2
#1 crc
2 sha1 HI!
#3 md5 Hello!

1
2
3
4
5
6
7
8
9
10
11
12
13
vi  ha.cf
logfile  /var/log/ha-log
logfacility local0  #如果未定义上述日志,默认写入/var/log/message
keepalive 2  #心跳间隔
deadtime 30  #死亡阀值
warntime 10  #警告时间
initdead 120  #首次启动heartbeat,等待多久才启动主服务资源
udpport 694  #连接端口
ucast eth1 192.168.1.20  #采用网卡的eth1组织心跳,后跟接口IP
auto_failback on  #当主节点故障恢复后,自动获取资源并取代从节点
node master  #主节点主机名
node slave  #备份节点主机名
ping  192.168.1.1  #选择ping节点,ping的越好对HA集群越稳定,建议使用网关

1
2
3
4
vi  haresources
master IPaddr::192.168.128.5 ldirectord::ldirectord.cf httpd
#格式:[主机名] [资源名与虚拟ip] [资源名与脚本] [高可用服务]
#每个资源都是一个shell脚本,后面还可以写虚拟IP和资源,heartbeat会使用init脚本来管理系统服务,在范围内搜索脚本并启用
1
2
3
scp  -r  /etc/ha .d root@slave: /etc/ha .d  #配置好的复制到备份服务器上
rm  -rf  /usr/etc/ha .d
ln  -s  /etc/ha .d  /usr/etc

2.配置ldirectord 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
cp  ClusterLabs-resource-agents-b735277 /ldirectord/ldirectord .cf  /etc/ha .d/
vi  /etc/ha .d /ldirectord .cf
checktimeout=3
checkinterval=1
autoreload= yes
quiescent= yes
virtual=192.168.128.5:80
     real=192.168.1.10:80 gate
     real=192.168.1.20:80 gate
     fallback=127.0.0.1:80 gate
     service=http
     scheduler=rr
     protocol=tcp
     checkport=80

三、测试

1
2
3
4
5
6
service iptables stop  #关闭防火墙
setenforce 0  #临时关闭selinux
service heartbeat start
ifconfig  #会显示192.168.0.100绑定在主服务器eth0:0
echo  “192.168.10.10″ >  /var/www/html/index .html
echo  “192.168.10.20″ >  /var/www/html/index .html

hearbeat启动报错:

/etc/init.d/heartbeat: line 53: /etc/ha.d/shellfuncs: No such file or directory

解决:这是因为没有装ClusterLabs-resource-agents导致的,装了这个中间件会把shellfuncs自动复制过去,我们可以手动复制过去即可。

cp ClusterLabs-resource-agents-b735277/heartbeat/shellfuncs /etc/ha.d/


http://192.168.128.5 #正常访问到192.168.10.10

模拟down掉192.168.10.10的httpd服务,再刷新页面显示192.168.10.20,说明配置成功!

生产环境中,网站程序数据必须是一致的,可以采用rsync进行同步或使用共享存储(NFS、ISCSI),后台MySQL数据库可以采用双主热备,实现高可用性。

目录
相关文章
|
3天前
|
存储 监控 中间件
Linux双机热备解决方案之Heartbeat
Linux双机热备解决方案之Heartbeat
|
测试技术 Linux 应用服务中间件
|
监控 应用服务中间件 安全