实现Linux Web服务器高可用需负载均衡+故障自动转移:HAProxy作前端主LB,Nginx可作轻量LB;均需健康检查;必须用Keepalived+VIP实现LB节点自身HA;上线前须真实故障演练。

要实现 Linux Web 服务器的高可用(HA),核心是避免单点故障,让流量能自动切换到健康节点。Nginx 和 HAProxy 各有定位:HAProxy 更擅长四层(TCP)与七层(HTTP)负载均衡和健康检查,常作前置入口;Nginx 则更常用作反向代理、静态资源服务或应用层网关,也能做负载均衡。两者可组合使用,也可单独部署——关键不在工具堆砌,而在架构清晰、检测可靠、切换及时。
HAProxy 作为主负载均衡器(推荐方案)
HAProxy 稳定性高、连接处理能力强、健康检查机制成熟,适合放在最前端统一接入。它不缓存内容,只做转发决策,故障判定快(支持基于 HTTP 状态码、TCP 连通性、自定义脚本等多级探活)。
- 安装后配置 /etc/haproxy/haproxy.cfg,定义 frontend(监听 80/443)、backend(指向后端 Nginx 或 Apache 节点)
- 启用 option httpchk + http-check expect status 200,对后端 /healthz 路径做主动探测
- 设置 balance roundrobin 或 leastconn,配合 maxconn 防止单节点过载
- 开启 stats uri /haproxy?stats,便于实时查看节点状态
Nginx 作为应用层负载均衡器(轻量场景)
若架构较简单(如只有 2–3 台 Web 服务器),直接用 Nginx 做七层负载均衡也完全可行。注意它默认不支持 TCP 层健康检查(1.9.0+ 才有 health_check 指令),建议搭配 proxy_next_upstream + 自定义 error_page 实现基础容错。
- 在 upstream 块中列出后端 IP,启用 keepalive 32 复用长连接
- 配置 proxy_next_upstream error timeout http_500 http_502 http_503 http_504,失败时自动转交下一个节点
- 添加 proxy_next_upstream_tries 3 和 proxy_next_upstream_timeout 3s 控制重试边界
- 后端 Web 服务需提供轻量健康接口(如返回 200 的 /ping),供上游监控调用
高可用不只是负载均衡——必须配故障自动转移
单靠负载均衡无法解决 HAProxy 或 Nginx 本体宕机问题。需引入 VIP(虚拟 IP)+ 心跳检测,典型组合是 Keepalived。
- 两台负载均衡服务器安装 Keepalived,配置 vrrp_instance,指定同一 virtual_router_id 和 priority
- 用 vrrp_script 定义检测脚本(如检测 haproxy 进程是否存在或端口是否响应)
- 触发失败时降低 priority,促使备机快速接管 VIP(通常 1–3 秒内完成)
- 确保两台机器时间同步(chrony)、防火墙放行 VRRP 组播(224.0.0.18)和对应端口
验证与日常维护要点
上线前务必模拟故障,不能只看配置语法正确。真实压测比理论更重要。
- 手动 kill 主节点的 haproxy 进程,观察 VIP 是否漂移、客户端请求是否无中断继续响应
- 临时关闭某台后端 Web 服务,确认负载均衡器在数秒内将其摘除,且日志中出现 “Server is DOWN” 记录
- 定期检查 access.log 中 5xx 比例、haproxy stats 页面的 queue/uptime/downtime 数据
- 所有配置文件纳入版本管理(如 Git),变更走 review + 自动化部署(Ansible),避免手工误改










