[改进后的中文总结内容]

会议纪要:Ceph Crimson项目进展与未来规划

会议时间:未知
主讲人:Matan Breizman, Ashwarya Mathuria, IBM


1. 会议背景与主题

  • 主题:Ceph Crimson项目的最新进展与未来规划。
  • 目标:介绍Crimson项目的背景、设计理念、性能优化以及未来发展方向。

2. Crimson项目背景

  • 硬件发展:现代硬件(如NVMe、ZNS等)的IO速度和CPU核心数量提升,传统Ceph OSD架构在高性能硬件上表现不佳。
  • 问题:传统Ceph OSD架构依赖多线程模型,导致CPU上下文切换频繁,性能瓶颈明显。
  • 目标:通过Crimson项目,重写Ceph OSD,减少CPU开销,提升性能,充分利用现代硬件。

3. Crimson项目设计理念

  • 共享无架构(Shared Nothing Architecture):每个核心独立处理任务,避免跨核心通信和锁竞争。
  • 异步框架:使用Seastar框架,实现单线程单核心的高效IO路径处理。
  • 任务切换:使用用户空间任务切换,减少操作系统上下文切换的开销。

4. Crimson与传统OSD的对比

  • 传统OSD:多线程模型,依赖锁和上下文切换,性能受限于线程间协调。
  • Crimson OSD:单线程单核心处理,减少锁和上下文切换,提升性能。
  • 性能测试:Crimson在随机读取4K块大小的RBD工作负载下,显著减少了上下文切换和CPU迁移,性能提升40%-50%。

5. PG Splitting的实现对比

  • 传统OSD:PG Splitting需要获取锁,且一次只能处理一个PG,效率较低。
  • Crimson OSD:每个核心独立处理PG Splitting,无需锁,支持并行处理多个PG。

6. 性能数据

  • 上下文切换:Crimson减少了99%的上下文切换,避免了CPU迁移。
  • 网络层性能:Crimson的Messenger组件在多核心环境下表现出更好的扩展性。
  • 整体性能:Crimson在3个OSD、每个OSD 10核心的配置下,性能比传统OSD提升40%-50%。

7. 当前可用性

  • 部署状态:Crimson目前处于技术预览阶段,支持RBD和复制池的基本功能,但不建议在生产环境中使用。
  • 实验性标志:为防止误用,Crimson启动时需要显式启用实验性标志。

8. 未来工作

  • 支持更多功能:未来将支持纠删码池、自动扩展PG、RGW、QoS、mClock调度器等。
  • 后端替换:计划在T版本中将BlueStore替换为CStore,进一步提升性能。

9. CStore介绍

  • 目标:CStore是Crimson的专用后端,旨在更好地支持现代存储设备(如ZNS)。
  • 架构:基于Seastar框架,设计为共享无架构,元数据存储使用BitRI,避免依赖RocksDB。
  • 当前状态:CStore已稳定,支持Rados API,正在进行性能优化和功能扩展。

10. 问答环节

  • 核心数量与性能:Crimson在更多核心的硬件上表现更好,但核心频率较低的硬件可能表现不如预期。
  • PG数量建议:Crimson的PG数量建议可能与传统OSD不同,未来将提供更具体的建议。
  • CStore支持的设备:CStore将支持多种存储设备,包括HDD和SSD,未来还将支持ZNS等新兴技术。

11. 总结

  • Crimson项目是Ceph下一代OSD的重写,旨在充分利用现代硬件,提升性能和可扩展性。
  • 目前Crimson已支持RBD和复制池的基本功能,未来将逐步支持更多功能和优化后端性能。

后续行动计划: 1. 性能评估:继续进行性能测试,特别是在多主机和复杂环境下的表现。 2. 功能扩展:支持纠删码池、RGW、QoS等功能。 3. 后端替换:在T版本中将BlueStore替换为CStore,进一步提升性能。 4. 用户反馈:鼓励用户测试Crimson,并提供反馈以改进项目。

会议结束:感谢与会者的参与和提问,会议圆满结束。