利用ldirectord实现lvs后端realserver健康状态检查

ldirectord用来实现LVS负载均衡资源在主、备节点间的故障转移。在首次启动时,ldirectord可以自动创建IPVS表。此外,它还可以监控各RealServer的运行状态,一旦发现某RealServer运行异常时,还可以将其从IPVS表中移除。

ldirectord进程通过向RealServer的RIP发送资源访问请求并通过由RealServer返回的响应信息来确定RealServer的运行状态。在Director上,每一个VIP需要一个单独的ldirectord进程。如果RealServer不能正常响应Director上ldirectord的请求,ldirectord进程将通过ipvsadm命令将此RealServer从IPVS表中移除。而一旦RealServer再次上线,ldirectord会将其重新添加至IPVS表中。

例如,为了监控一组提供web服务的RealServer,ldirectord进程使用HTTP协议请求访问每台RealServer上的某个特定网页。ldirectord进程根据自己的配置文件中事先定义的RealServer正常响应结果来判断当前的返回结果是否正常。比如,在每台web服务器的网站目录中存放一个页面".ldirectord.html",其内容为"Nice",ldirectord进程每隔一段时间就访问一次此网页,并根据获取到的响应信息来判断RealServer的运行状态是否正常。如果其返回的信息不是"Nice",则表明服务不正常。

ldirectord 官方下载地址:现ldirectord可从heartbeat源码包里获得,或者从以下官方链接获得。

http://download.opensuse.org/repositories/network:/ha-clustering:/Stable/

ldirectordhttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/ldirectord-3.9.6-0rc1.1.1.x86_64.rpm

resource-agentshttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/resource-agents-3.9.6-0rc1.1.1.x86_64.rpm

cluster-glue-libshttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/cluster-glue-libs-1.0.12-1.16.1.x86_64.rpm

实现过程:在上一篇文章已经配置好VS/DR,进而直接进行ldirectord配置。

1、安装ldirectord及其依赖

# yum install ldirectord-3.9.6-0rc1.1.1.x86_64.rpm resource-agents-3.9.6-0rc1.1.1.x86_64.rpm cluster-glue-libs-1.0.12-1.16.1.x86_64.rpm

2、配置ldirectord

# rpm -ql ldirectord

# cp /usr/share/doc/ldirectord-3.9.6/ldirectord.cf /etc/ha.d/

# vim /etc/ha.d/ldirectord.cf

# Global Directives

checktimeout=20          # ldirectord等待RealServer健康检查完成的时间,单位为秒;

checkinterval=5             # 每次检查的时间间隔,即检查的频率;

autoreload=yes             # 此项用来定义ldirectord是否每隔一段时间检查此配置文件是否发生改变并自动重新加载;

logfile="/var/log/ldirectord.log"    # 定义日志文件存放位置;

quiescent=yes               # 当某台RealServer出现异常,此项可将其设置为静默状态(即其权重为"0")从而不再响应客户端的访问请求;

# Sample for an http virtual service

virtual=192.168.101.168:80         # 此项用来定义LVS服务及其使用的VIP和PORT

real=10.10.10.11:80 gate 100     # 定义RealServer,语法:real=RIP:port gate|masq|ipip [weight]

real=10.10.10.12:80 gate 300

fallback=127.0.0.1:80 gate         # 当IPVS表没有任何可用的RealServer时,此"地址:端口"作为最后响应的服务;

service=http                                # 定义基于什么服务来测试RealServer;

scheduler=wlc                            # 调度算法为wlc;

#persistent=600                         # 持久连接超时时间;

#netmask=255.255.255.255

protocol=tcp                              # 定义此虚拟服务用到的协议;

checktype=negotiate                # ldirectord进程用于监控RealServer的方法;{negotiate|connect|A number|off}

checkport=80                             # 指健康检查使用的端口;

request=".ldirectord.html"         # 检查RealServer用到的页面

receive="Nice"                            # 检查RealServer用到的页面内容

3、提供当后端RS全部宕掉后,返回的fallback页面,为本机httpd服务

# yum install httpd

# echo "404 Page." > /var/www/html/index.html

# service httpd start

4、启动ldirectord

/etc/rc.d/init.d/ldirectord start

# 至此,Director服务器配置完毕。

5、RS1、RS2提供".ldirectord.html"检测页面

# echo "Nice" > /var/www/html/.ldirectord.html

6、浏览器访问:http://192.168.101.168

7、模拟后端RS故障

RS1:service httpd stop

RS2:service httpd stop

8、Director查看ipvs信息,并使用浏览器访问http://192.168.101.168

# ipvsadm -L -n

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  192.168.101.168:80 wlc

-> 10.10.10.11:80               Route   0      0          12

-> 10.10.10.12:80               Route   0      0          101

-> 127.0.0.1:80                 Local   1      0          0

9、测试后端RS恢复

RS1:service httpd start

RS2:service httpd start

时间: 05-29

利用ldirectord实现lvs后端realserver健康状态检查的相关文章

使用ldirectord实现后端RS健康状态监测及LVS调度功能

Ldirectord功能描述: 如果在高可用服务中直接将ipvsadm定义为一种资源代理,使用ipvsadm来生成ipvs规则,这样生效的lvs不能实现对后端的RealServer实现健康监测的功能,而heartbeat中的ldirectord可以实现对后端RealServer健康状态监测的功能,同时能使用内核中的ipvs功能利用ipvsadm规则启动lvs服务,实现对后端RealServer的调度功能,即有请求至前端的Director时,可以将请求转发至各RealServer而定义的ipvsa

如何利用nginx_upstream_check_module-master对nginx的后端机器进行健康状态检查

用nginx做前端反向代理,如果后端服务器宕掉的话,nginx是不会把这台realserver踢出upstream的,还会把请求转发到后端的这台realserver上面.所以当某台机器出现问题时,我们会看到nginx的日志会有一段转发失败然后转发正常的日志.这次借助与淘宝技术团队开发的nginx模快nginx_upstream_check_module来检测后方realserver的健康状态,如果后端服务器不可用,则会将其踢出upstream,所有的请求不转发到这台服务器.当期恢复正常时,将其加

nginx下后端realserver健康检测模块ngx_http_upstream_check_module

想用Nginx或者Tengine替代LVS,即能做七层的负载均衡,又能做监控状态检测,一旦发现后面的realserver挂了就自动剔除,恢复后自动加入服务池里,可以用Tengine的ngx_http_upstream_check_module模块.本文主要介绍在工作中,搭建遇到问题及处理方法,便以后查询. 首先,我们大多数站点都是nginx+tomcat这个比较常见模式,其实nginx本身也有自己的健康检测模块,本人觉得不好用,故使用ngx_http_upstream_check_module.

LVS集群的基本原理、LVS/NAT模式的配置、LVS/DR模式的配置、编写自动脚本检查LVS上realserver健康性

Linux 虚拟服务器(LVS)由章文嵩在国防科技大学就读博士期间创建利用LVS可以实现高可用的.可伸缩的Web.Mail.Cache和Media等网络服务,已经被集成到linux内核里了. 1.什么是集群? 使用一组服务器提供相同的服务2.使用集群的目的? 增强可靠性   降低成本   提高可扩展性   提高性能3.集群分类? HPC 高性能计算集群    (气象   航天   航空)    LB    负载均衡集群 (平均地分摊处理)    * LVS    hproxy HA    高可用

LVS集群RS健康状态检查

生产中,我们需要检测RS状态,当RS服务异常时,应该将RS移出集群,而当RS恢复之后,再将RS加入到集群中.下面是脚本内容 #!/bin/bash VIP=192.168.10.3 ##集群服务端口号 CPORT=80 RS=(192.168.10.7 192.168.10.8) ###RS主机的状态,1表示状态正常 RSTATUS=(1 1) #权重 RW=(2 1) ###RS主机上实际的服务端口 RPORT=80 ###lVS的模式,这里以DR模式为例 TYPE=g ###add函数表示将

LVS集群DR、NAT模型配置, 及使用ldirectord完成LVS DR模型集群搭建

首先我们有三台主机:其中172.16.192.168作为前台主机:另外172.16.254.18和172.16.254.105作为后端主机,作为测试分别运行有web服务,并测试可用,如下图. 一.LVS NAT模型集群配置实验 1.首先在后端Real Server上设置默认网关,执行前端Virtual Server 2.在前端Virtual Server上开启路由转发功能 3.配置前端LVS集群 4.测试 总结:经过初步测试,我们可以看出已经可以实现rr轮询调度,修改相应的调度算法则可以实现不同

Nginx实战系列之功能篇----后端节点健康检查

公司前一段对业务线上的nginx做了整理,重点就是对nginx上负载均衡器的后端节点做健康检查.目前,nginx对后端节点健康检查的方式主要有3种,这里列出: 1.ngx_http_proxy_module 模块和ngx_http_upstream_module模块(自带)     官网地址:http://nginx.org/cn/docs/http/ngx_http_proxy_module.html#proxy_next_upstream 2.nginx_upstream_check_mod

nginx自动检测后台服务器健康状态

转自http://www.iyunv.com/thread-38535-1-1.html 公司业务线上对后端节点的健康检查是通过nginx_upstream_check_module模块做的,这里我将分别介绍这三种实现方式以及之间的差异性. 一.ngx_http_proxy_module 模块和ngx_http_upstream_module模块(自带)       严格来说,nginx自带是没有针对负载均衡后端节点的健康检查的,但是可以通过默认自带的ngx_http_proxy_module

【转】nginx 主动式后端服务器健康检查

原文链接  http://tengine.taobao.org/document_cn/http_upstream_check_cn.html ngx_http_upstream_check_module 该模块可以为Tengine提供主动式后端服务器健康检查的功能. 该模块在Tengine-1.4.0版本以前没有默认开启,它可以在配置编译选项的时候开启:./configure --with-http_upstream_check_module Examples http { upstream