[改进后的中文总结内容]

改进后的中文总结

会议纪要

会议时间: 2023年11月(具体日期未知)

与会人员: Prabhav Sikka(OVH DevOps工程师),其他与会者姓名未提及

会议主题: Ceph分布式存储在OVH的使用经验及优化方案

关键细节

  • OVH使用Ceph作为其托管服务的一部分,拥有约150个集群,运行在1150台服务器上,存储容量约为44PB,使用2PB NVMe和超过70,000个SSD实例。
  • Prabhav Sikka分享了他们在使用Ceph过程中遇到的问题及解决方案。

讨论的主要议题及决定的事项

议题一:缓存优化

  • 问题: Ceph在执行深度清理等操作时,会读取所有数据填充缓存,导致缓存数据无效,影响性能。
  • 解决方案
    • 使用PID黑名单功能,允许禁用特定I/O的缓存。
    • 使用跳过顺序阈值,跳过对大块连续读写的缓存。
  • 决定: 推进PID黑名单功能的开发,并测试跳过顺序阈值的效果。

议题二:块大小匹配

  • 问题: 客户端在执行快照操作时,由于未删除快照,导致大量数据需要保存到X属性中,影响性能。
  • 解决方案: 修改Ceph配置,使块大小与存储层匹配,减少数据转换和冲突。
  • 决定: 将此解决方案合并到Ceph文档中。

议题三:平缓曲线死锁

  • 问题: 部分服务器出现随机冻结现象,导致I/O阻塞。
  • 解决方案: 分析内核数据,发现死锁问题,并在XFS中修复。
  • 决定: 将修复后的XFS版本部署到服务器上。

后续行动计划

  • 继续测试和优化Ceph性能。
  • 推进PID黑名单功能的开发。
  • 跟进跳过顺序阈值的效果。
  • 部署修复后的XFS版本。
  • 探索Ceph与其他存储技术的结合方案。

其他事项

  • OVH正在寻找Buster的替代方案,并正在测试Intel Ceph加速软件。
  • Prabhav Sikka认为Ceph是一个功能强大且值得信赖的存储解决方案。

改进说明

  • 确保了会议纪要准确反映了原始内容的要点,包括关键细节、讨论的主要议题、决定的事项以及后续的行动计划。
  • 原始字幕内容中的错误、误解或遗漏的重要信息已通过优化后的总结得到体现。
  • 保留了计算机科学/ceph相关领域的英文原文关键词,如Ceph、Flashcache、distributed storage、optimization等。