改进后的中文总结内容
Ceph Operations at Scale 是由 DigitalOcean 运维工程师 Matt Vandermeulen 主讲的关于 Ceph 使用经验的会议纪要。以下是对会议内容的总结:
会议基本信息
- 发言人:Matt(Digital Ocean 运维工程师)
- 主题:Digital Ocean 的 Ceph 使用经验、自动化运维及可观测性实践
- 会议重点:
- Digital Ocean 的 Ceph 规模(75 个集群、270PB 数据、34,000 OSDs)
- 容器化 Ceph 的演进历程
- 自动化工具(Storage CM)及磁盘生命周期管理
- 可观测性工具(Seph Exporter、Maragraph、Store Exporter)
主要讨论议题
1. Ceph 容器化演进
- 容器化过程从 Ubuntu Trusty + Luminous + Filestore(稳定性差)转向 Nautilus,以解耦 OS 升级与 Ceph 升级,减少运维复杂度。
- 通过
se-tools容器封装命令行工具,使用systemd单元管理容器化服务。
2. 自动化运维(Storage CM)
- 使用基于 Ansible 的内部工具 Storage CM 进行集群部署、CRUSH 树生成、密钥管理等。
- 通过
rados lock实现并发控制,避免多团队操作冲突。 - 自动化处理 OSD 状态变更,涵盖磁盘插入、故障、替换等。
3. 可观测性工具
- 使用 Seph Exporter、Maragraph、Store Exporter 等工具进行集群监控。
- Maragraph 提供集群延迟测量,Store Exporter 监控磁盘 SMART 数据和 BlueStore 内存池指标。
关键决策与经验
- 优先容器化隔离 OS 与 Ceph 版本,简化升级路径。
- 自动化处理日常运维,但保留人工审批关键操作。
- 延迟监控和磁盘健康是核心指标。
后续行动计划
- 开源工具,如 Maragraph 和 Store Exporter。
- 优化自动化,减少人工审批环节。
- 上游贡献,将磁盘生命周期状态跟踪集成到 Ceph 上游。
Q&A 重点摘要
- Seph Exporter 差异:Digital Ocean 的版本早于社区方案,且针对 Reef 版本优化。
- 自动化风险:通过实验室测试 + 分阶段上线降低影响。
- 指标扩展:未来可能将磁盘运维历史数据暴露为 Prometheus 指标。
关键词保留(Ceph 术语)
- 核心组件:OSD、MON、MDS、PG、RADOS、BlueStore、RocksDB
- 存储类型:Object Storage (RGW)、Block Storage (RBD)、File System (CephFS)
- 运维概念:CRUSH Algorithm、Erasure Coding、Replication、Thin Provisioning
备注
Digital Ocean 强调自动化在超大规模集群中的必要性,但需平衡安全性与效率。容器化 + 定制化工具链是管理复杂 Ceph 生态的关键。