Docker Swarm Keepalived Operator:高可用集群虚拟 IP 管理方案

在生产环境中,服务的高可用性往往是一个必要但复杂的需求。传统的容器化高可用部署面临着不少挑战,今天来介绍一个针对 Docker Swarm 设计的 Keepalived Operator,看看它如何简化虚拟 IP 的管理工作。

传统部署方式的挑战

在 Docker 和 Docker Swarm 环境下,实现高可用通常会遇到以下问题:

原生 Docker 部署的不足

  • 手动配置复杂:需要在每个节点单独配置 Keepalived
  • 配置文件管理困难:多节点间配置同步容易出错
  • 缺乏动态感知:节点变化时需要手动修改所有相关配置
  • 监控分散:各节点日志和状态检查需要逐一处理

Docker Swarm 原生限制

  • 服务发现局限:Swarm 内建的负载均衡无法提供固定的外部 IP
  • 故障切换不透明:依赖外部负载均衡器,增加架构复杂度
  • 跨主机网络复杂:需要额外配置 overlay 网络和路由规则

Operator 方案的改进

Docker Swarm Keepalived Operator 采用了 Operator 模式来解决这些问题:

  • 自动节点发现:通过 Docker 标签识别目标节点
  • 配置自动生成:根据集群状态自动生成 Keepalived 配置
  • 动态服务管理:节点变化时自动创建或删除服务
  • 集中化监控:统一的日志和状态管理

架构设计

整个系统采用控制器模式,分为两个主要组件:

控制层(Operator)

运行在 Swarm Manager 节点,负责:

  • 节点监控:持续监控节点标签和状态变化
  • 服务管理:根据标签变化创建、更新或删除 Keepalived 服务
  • 配置生成:自动生成集群拓扑对应的 Keepalived 配置
  • 异常处理:检测到服务异常时进行恢复

执行层(Keepalived 实例)

分布在标记的工作节点上:

  • VRRP 协议:处理虚拟 IP 的选举和切换
  • 健康检查:监控本地服务状态
  • 故障转移:在检测到故障时快速切换

这种分层设计的优势是职责分离,便于维护和扩展。

三步完成部署

步骤一:系统环境检查

部署前先确认系统环境,主要是检查内核模块支持:

# 检查是否已加载 ip_vs 模块 lsmod | grep -P '^ip_vss'  # 如果没有输出,需要手动加载 echo "modprobe ip_vs" >> /etc/modules modprobe ip_vs  # 验证加载成功 lsmod | grep ip_vs 

注意ip_vs 模块是 Linux 虚拟服务器的核心模块,Keepalived 需要它来实现负载均衡功能。

步骤二:给节点"贴标签"

这一步是整个方案的核心 —— 通过 Docker 节点标签来告诉 Operator 哪些节点需要参与高可用:

# 基础标签配置:标记参与高可用的节点 docker node update web-01 --label-add keepalived_group=production docker node update web-02 --label-add keepalived_group=production docker node update web-03 --label-add keepalived_group=production 

进阶配置:如果要精确控制 VRRP 优先级(推荐):

# 数值越高,成为 Master 的概率越大 docker node update web-01 --label-add KEEPALIVED_PRIORITY=102  # 首选主节点 docker node update web-02 --label-add KEEPALIVED_PRIORITY=101  # 备选主节点 docker node update web-03 --label-add KEEPALIVED_PRIORITY=100  # 普通备节点 

标签说明

  • keepalived_group=production:指定节点所属的高可用组
  • KEEPALIVED_PRIORITY=102:设置 VRRP 优先级,数值越大优先级越高

步骤三:编写部署配置

创建 keepalived-stack.yaml 配置文件,这是整个部署的"蓝图":

version: '3.8'  services:   keepalived_operator:     image: pubimgs/keepalived-swarm-operator:latest     volumes:       - /var/run/docker.sock:/var/run/docker.sock     networks:       - host     deploy:       mode: replicated       replicas: 1       placement:         constraints: [node.role == manager]     environment:       # 必需配置       KEEPALIVED_GROUP: "production"       KEEPALIVED_VIRTUAL_IPS: "192.168.1.100,192.168.1.101"        # 可选配置       KEEPALIVED_INTERFACE: "eth0"       KEEPALIVED_PASSWORD: "MySecurePassword123"       KEEPALIVED_ROUTER_ID: "51"  networks:   host:     external: true     name: host 

一键部署启动

# 部署 Keepalived Operator docker stack deploy -c keepalived-stack.yaml keepalived  # 查看部署状态 docker service ls --filter name=keepalived  # 查看 Operator 工作日志 docker service logs -f keepalived_keepalived_operator 

部署完成后,Operator 会自动执行以下操作:

  1. 发现所有带 keepalived_group=production 标签的节点
  2. 为每个节点创建对应的 Keepalived 服务
  3. 生成集群配置和节点通信列表
  4. 开始持续监控服务状态

进阶使用技巧

多环境部署

在同一个集群中可以通过不同的组标签实现环境隔离:

# 生产环境集群 docker node update prod-01 --label-add keepalived_group=production docker node update prod-02 --label-add keepalived_group=production  # 测试环境集群 docker node update test-01 --label-add keepalived_group=staging docker node update test-02 --label-add keepalived_group=staging  # 开发环境集群 docker node update dev-01 --label-add keepalived_group=development docker node update dev-02 --label-add keepalived_group=development 

然后部署不同的 Operator 实例,每个管理对应的环境,使用独立的虚拟 IP 段实现隔离。

动态扩缩容

Operator 的一个重要特性是支持动态扩缩容,集群节点变化时无需手动干预:

# 集群扩容:新节点加入高可用组 docker node update new-web-04 --label-add keepalived_group=production # Operator 会发现新节点,自动创建 Keepalived 服务  # 集群缩容:节点退出高可用组 docker node update old-web-01 --label-rm keepalived_group # Operator 会自动清理对应的 Keepalived 服务  # 临时维护:暂时移除节点 docker node update web-02 --label-rm keepalived_group # 维护完成后重新加入 docker node update web-02 --label-add keepalived_group=production 

整个过程中,其他节点的服务不受影响,虚拟 IP 会自动重新选举。

优先级策略最佳实践

合理的优先级设计能让故障切换更加符合业务预期:

** 按数据中心分层**:

  • 主数据中心:优先级 110-120(优先承载流量)
  • 同城灾备:优先级 100-110(次优选择)
  • 异地灾备:优先级 90-100(最后选择)

** 按性能分层**:

  • 高性能节点:优先级 110-120
  • 标准节点:优先级 100-110
  • 低配节点:优先级 90-100
# 实例:三地三中心部署 docker node update beijing-web-01 --label-add KEEPALIVED_PRIORITY=115   # 主中心 docker node update shanghai-web-01 --label-add KEEPALIVED_PRIORITY=105  # 同城备份 docker node update guangzhou-web-01 --label-add KEEPALIVED_PRIORITY=95  # 异地备份 

建议:优先级差距保持 5-10 比较合理,既能体现优先顺序,又避免过度集中。

监控运维

日常状态检查

建立日常巡检习惯,及时发现问题:

# 1. 检查 Operator 运行状态和日志 docker service logs -f keepalived_keepalived_operator  # 2. 查看集群中所有 Keepalived 服务 docker service ls --filter name=keepalived-node  # 3. 检查具体节点服务详情 docker service logs keepalived-node-web-01-1 --tail 50  # 4. 查看服务分布情况 docker service ps $(docker service ls --filter name=keepalived-node -q) 

虚拟 IP 健康验证

确保虚拟 IP 正常工作的检查清单:

# 基础连通性测试 ping -c 3 192.168.1.100  # 查看虚拟 IP 当前绑定在哪个节点 ip addr show | grep "192.168.1.100"  # 从集群外部测试虚拟 IP 服务 curl -I http://192.168.1.100  # 检查 VRRP 协议状态 docker exec $(docker ps -q -f name=keepalived-node | head -1) ip addr show 

典型应用场景

场景一:电商网站前端高可用

某电商公司有 3 台 Web 服务器,需要对外提供统一访问入口:

# 步骤 1:节点标签配置 docker node update web-server-01 --label-add keepalived_group=frontend docker node update web-server-02 --label-add keepalived_group=frontend docker node update web-server-03 --label-add keepalived_group=frontend  # 步骤 2:优先级设置(主机房优先) docker node update web-server-01 --label-add KEEPALIVED_PRIORITY=110  # 主机房 docker node update web-server-02 --label-add KEEPALIVED_PRIORITY=105  # 主机房 docker node update web-server-03 --label-add KEEPALIVED_PRIORITY=100  # 备机房  # 步骤 3:部署配置 KEEPALIVED_GROUP: "frontend" KEEPALIVED_VIRTUAL_IPS: "192.168.1.200"  # 用户访问的统一入口 

效果:用户始终通过 192.168.1.200 访问服务,任意一台服务器故障都不影响用户访问。

场景二:数据库集群高可用

MySQL 主从集群需要提供统一的写入入口:

# 配置数据库集群节点 docker node update mysql-master --label-add keepalived_group=database docker node update mysql-master --label-add KEEPALIVED_PRIORITY=120    # 主库最高优先级  docker node update mysql-slave-01 --label-add keepalived_group=database docker node update mysql-slave-01 --label-add KEEPALIVED_PRIORITY=110  # 首选备库  docker node update mysql-slave-02 --label-add keepalived_group=database docker node update mysql-slave-02 --label-add KEEPALIVED_PRIORITY=100  # 备选备库  # 部署配置 KEEPALIVED_GROUP: "database" KEEPALIVED_VIRTUAL_IPS: "192.168.1.210"  # 数据库统一写入入口 

效果:应用程序连接 192.168.1.210 进行数据库操作,主库故障时自动切换到备库。

场景三:API 网关集群

微服务架构下的 API 网关高可用部署:

# 多地域 API 网关部署 docker node update gateway-beijing-01 --label-add keepalived_group=api-gateway docker node update gateway-beijing-01 --label-add KEEPALIVED_PRIORITY=115  docker node update gateway-shanghai-01 --label-add keepalived_group=api-gateway docker node update gateway-shanghai-01 --label-add KEEPALIVED_PRIORITY=105  # 部署配置支持多个虚拟 IP KEEPALIVED_GROUP: "api-gateway" KEEPALIVED_VIRTUAL_IPS: "192.168.1.220,192.168.1.221"  # 内外网双入口 

总结

Docker Swarm Keepalived Operator 提供了一种相对简化的高可用部署方案,通过 Operator 模式自动化了传统 Keepalived 的配置和管理工作。

主要优势

与传统部署方式相比:

  • 减少了手动配置工作量
  • 支持集群动态变化
  • 提供统一的管理界面
  • 降低了配置出错的可能性

适用场景

这个方案比较适合:

  • 需要快速部署高可用服务的团队
  • 希望简化 Keepalived 运维工作的场景
  • Docker Swarm 环境下的虚拟 IP 管理需求

使用建议

  1. 在测试环境先熟悉操作流程
  2. 了解 VRRP 协议和 Keepalived 的工作原理
  3. 根据实际网络环境调整配置参数
  4. 建立相应的监控和告警机制

总体来说,这是一个实用的工具,可以在一定程度上简化 Docker Swarm 环境下的高可用部署工作。

相关资源


如果这篇文章对你有帮助,别忘了给项目点个 ⭐ Star!

发表评论

评论已关闭。

相关文章