[改进后的中文总结内容]
本次会议的主题是讨论Ceph存储类设备集(Storage Class Device Set)的当前状态和设计。会议主要围绕以下几个方面展开:
一、会议背景
- Ceph集群在动态环境中运行时,需要基于全局唯一标识符(GUB)来管理状态,这需要在Kubernetes中本地提供设备,并使用主机路径绑定存储,这种方式存在一些局限性。
- 为了解决这些问题,提出了存储类设备集的概念,它允许在Kubernetes中动态地创建存储设备,并使用PVC来管理这些设备。
二、主要议题
- 存储类设备集的设计:
- 存储类设备集将使用Kubernetes原生的方式在集群CR(Cluster Resource)中指定所需的存储容量和设备数量。
- 操作员可以根据这些信息创建OSD,并确保它们在域内或根据集群CR中的配置进行分布。
- 操作员将启动或创建PVC,并为每个PVC启动OSD准备Pod,然后根据准备Pod的结果启动OSD守护进程。
- 存储类设备集的设计将采用与现有OSD创建模式相同的模式,主要区别在于基于PVC而不是节点启动主机准备Pod。
- 资源管理和放置:
- 存储类设备集将包含资源字段,用于指定OSD Pod的资源需求(CPU和内存)。
- 放置字段将允许操作员指定OSD Pod的放置策略,例如在特定的可用区或节点上。
- 需要讨论资源管理和放置字段是否应该包含在存储类设备集中,以及如何处理不同类型设备之间的资源需求差异。
- OSD管理:
- 建议使用StatefulSet来管理OSD Pod,这将为每个OSD Pod提供唯一的标识符,并允许在失败时进行故障转移。
- 需要讨论如何处理多个OSD Pod共享同一PVC的情况,以及如何确保每个Pod都具有唯一的OSD ID。
三、决定事项
- 继续讨论资源管理和放置字段是否应该包含在存储类设备集中,并考虑使用DriveGroup Beck来管理设备。
- 讨论如何使用StatefulSet来管理OSD Pod,并确保每个Pod都具有唯一的OSD ID。
- 更新设计文档,并提供有关资源管理和放置的示例。
四、后续行动计划
- 更新设计文档,并提供有关资源管理和放置的示例。
- 讨论并确定资源管理和放置字段是否应该包含在存储类设备集中。
- 研究如何使用StatefulSet来管理OSD Pod,并确保每个Pod都具有唯一的OSD ID。
- 完成存储类设备集的设计和实现。
五、其他
- 会议中讨论了DriveGroup Beck的概念,并探讨了如何将其用于存储类设备集的实现。
- 讨论了使用PVC进行设备放置时的限制,例如无法使用亲和性策略。
本次会议讨论了存储类设备集的设计和实现,并确定了后续行动计划。该设计旨在解决Ceph集群在动态环境中运行时存在的问题,并提高存储管理的灵活性和可扩展性。