[改进后的中文总结内容]

本次会议的主题是讨论Ceph存储类设备集(Storage Class Device Set)的当前状态和设计。会议主要围绕以下几个方面展开:

一、会议背景

  • Ceph集群在动态环境中运行时,需要基于全局唯一标识符(GUB)来管理状态,这需要在Kubernetes中本地提供设备,并使用主机路径绑定存储,这种方式存在一些局限性。
  • 为了解决这些问题,提出了存储类设备集的概念,它允许在Kubernetes中动态地创建存储设备,并使用PVC来管理这些设备。

二、主要议题

  1. 存储类设备集的设计
    • 存储类设备集将使用Kubernetes原生的方式在集群CR(Cluster Resource)中指定所需的存储容量和设备数量。
    • 操作员可以根据这些信息创建OSD,并确保它们在域内或根据集群CR中的配置进行分布。
    • 操作员将启动或创建PVC,并为每个PVC启动OSD准备Pod,然后根据准备Pod的结果启动OSD守护进程。
    • 存储类设备集的设计将采用与现有OSD创建模式相同的模式,主要区别在于基于PVC而不是节点启动主机准备Pod。
  2. 资源管理和放置
    • 存储类设备集将包含资源字段,用于指定OSD Pod的资源需求(CPU和内存)。
    • 放置字段将允许操作员指定OSD Pod的放置策略,例如在特定的可用区或节点上。
    • 需要讨论资源管理和放置字段是否应该包含在存储类设备集中,以及如何处理不同类型设备之间的资源需求差异。
  3. OSD管理
    • 建议使用StatefulSet来管理OSD Pod,这将为每个OSD Pod提供唯一的标识符,并允许在失败时进行故障转移。
    • 需要讨论如何处理多个OSD Pod共享同一PVC的情况,以及如何确保每个Pod都具有唯一的OSD ID。

三、决定事项

  • 继续讨论资源管理和放置字段是否应该包含在存储类设备集中,并考虑使用DriveGroup Beck来管理设备。
  • 讨论如何使用StatefulSet来管理OSD Pod,并确保每个Pod都具有唯一的OSD ID。
  • 更新设计文档,并提供有关资源管理和放置的示例。

四、后续行动计划

  • 更新设计文档,并提供有关资源管理和放置的示例。
  • 讨论并确定资源管理和放置字段是否应该包含在存储类设备集中。
  • 研究如何使用StatefulSet来管理OSD Pod,并确保每个Pod都具有唯一的OSD ID。
  • 完成存储类设备集的设计和实现。

五、其他

  • 会议中讨论了DriveGroup Beck的概念,并探讨了如何将其用于存储类设备集的实现。
  • 讨论了使用PVC进行设备放置时的限制,例如无法使用亲和性策略。

本次会议讨论了存储类设备集的设计和实现,并确定了后续行动计划。该设计旨在解决Ceph集群在动态环境中运行时存在的问题,并提高存储管理的灵活性和可扩展性。