HwameiStor 常见问题¶
本页列举 HwameiStor 本地存储在使用过程中可能会遇到的一些疑问、回答和解决办法。
HwameiStor 调度器在 Kubernetes 平台中是如何工作的?¶
HwameiStor 的调度器是以 Pod 的形式部署在 HwameiStor 的命名空间。
当应用(Deployment 或 StatefulSet )被创建后,应用的 Pod 会被自动部署到已配置好具备 HwameiStor 本地存储能力的 Worker 节点上。
HwameiStor 如何应对应用多副本工作负载的调度?与传统通用型共享存储有什么不同?¶
HwameiStor 建议使用有状态的 StatefulSet 用于多副本的工作负载。
有状态应用 StatefulSet 会将复制的副本部署到同一 Worker 节点,但会为每一个 Pod 副本创建一个对应的 PV 数据卷。 如果需要部署到不同节点分散工作负载,需要通过 podAffinity
手动配置。
由于无状态应用 Deployment 不能共享 Block 数据卷,所以建议使用单副本。
对于传统通用型共享存储:
有状态应用 StatefulSet 会将复制的副本优先部署到其他节点以分散工作负载,但会为每一个 Pod 副本创建一个对应的 PV 数据卷。 只有当副本数超过 Worker 节点数的时候会出现多个副本在同一个节点。
无状态应用 Deployment 会将复制的副本优先部署到其他节点以分散工作负载,并且所有的 Pod 共享一个 PV 数据卷(目前仅支持 NFS)。 只有当副本数超过 Worker 节点数的时候会出现多个副本在同一个节点。对于 block 存储,由于数据卷不能共享,所以建议使用单副本。
如何运维一个 Kubernetes 节点上的数据卷?¶
HwameiStor 提供了数据卷驱逐和迁移功能。在移除或者重启一个 Kubernetes 节点的时候, 可以将该节点上的 Pod 和数据卷自动迁移到其他可用节点上,并确保 Pod 持续运行并提供服务。
移除节点¶
为了确保 Pod 的持续运行,以及保证 HwameiStor 本地数据持续可用,在移除 Kubernetes 节点之前, 需要将该节点上的 Pod 和本地数据卷迁移至其他可用节点。可以通过下列步骤进行操作:
-
排空节点
该命令可以将节点上的 Pod 驱逐,并重新调度。同时,也会自动触发 HwameiStor 的数据卷驱逐行为。 HwameiStor 会自动将该节点上的所有数据卷副本迁移到其他节点,并确保数据仍然可用。
-
检查迁移进度。
apiVersion: hwameistor.io/v1alpha1 kind: LocalStorageNode metadata: name: NODE spec: hostname: NODE storageIP: 10.6.113.22 topogoly: region: default zone: default status: ... pools: LocalStorage_PoolHDD: class: HDD disks: - capacityBytes: 17175674880 devPath: /dev/sdb state: InUse type: HDD freeCapacityBytes: 16101933056 freeVolumeCount: 999 name: LocalStorage_PoolHDD totalCapacityBytes: 17175674880 totalVolumeCount: 1000 type: REGULAR usedCapacityBytes: 1073741824 usedVolumeCount: 1 volumeCapacityBytesLimit: 17175674880 volumes: # (1)! state: Ready
- 确保 volumes 字段为空
同时,HwameiStor 会自动重新调度被驱逐的 Pod,将它们调度到有效数据卷所在的节点上,并确保 Pod 正常运行。
-
从集群中移除节点
重启节点¶
重启节点通常需要很长的时间才能将节点恢复正常。在这期间,该节点上的所有 Pod 和本地数据都无法正常运行。 这种情况对于一些应用(例如,数据库)来说,会产生巨大的代价,甚至不可接受。
HwameiStor 可以立即将 Pod 调度到其他数据卷所在的可用节点,并持续运行。 对于使用 HwameiStor 多副本数据卷的 Pod,这一过程会非常迅速,大概需要 10 秒 (受 Kubernetes 的原生调度机制影响);对于使用单副本数据卷的 Pod, 这个过程所需时间依赖于数据卷迁移所需时间,受用户数据量大小影响。
如果用户希望将数据卷保留在该节点上,在节点重启后仍然可以访问,可以在节点上添加下列标签, 阻止系统迁移该节点上的数据卷。系统仍然会立即将 Pod 调度到其他有数据卷副本的节点上。
-
添加一个标签(可选)。
如果在节点重新启动期间不需要迁移数据卷,你可以在排空(drain)节点之前将以下标签添加到该节点。
-
排空节点。
- 如果执行了第 1 步,待第 2 步成功后,用户即可重启节点。
- 如果没有执行第 1 步,待第 2 步成功后,用户察看数据迁移是否完成(方法如同移除节点的第 2 步)。 待数据迁移完成后,即可重启节点。
在前两步成功之后,用户可以重启节点,并等待节点系统恢复正常。
-
节点恢复至 Kubernetes 的正常状态。
对于传统通用型共享存储¶
有状态应用 StatefulSet 会将复制的副本优先部署到其他节点以分散工作负载,但会为每一个 Pod 副本创建一个对应的 PV 数据卷。 只有当副本数超过 Worker 节点数的时候会出现多个副本在同一个节点。
无状态应用 Deployment 会将复制的副本优先部署到其他节点以分散工作负载,并且所有的 Pod 共享一个 PV 数据卷 (目前仅支持 NFS)。只有当副本数超过 Worker 节点数的时候会出现多个副本在同一个节点。对于 block 存储, 由于数据卷不能共享,所以建议使用单副本。
LocalStorageNode 查看出现报错如何处理?¶
当查看 LocalStorageNode
出现如下报错:
可能的错误原因:
-
节点没有安装 LVM2,可通过如下命令进行安装:
- 确认 LVM2 是否安装
- 在每个节点上确认 LVM 已安装
-
确认节点上对应磁盘的 GPT 分区:
- 确认磁盘分区是否干净
- 磁盘清理
使用 hwameistor-operator 安装后为什么没有自动创建 StorageClass¶
可能的原因:
-
节点没有可自动纳管的剩余裸盘,可通过如下命令进行检查:
- 检查磁盘
- 检查磁盘是否被正常纳管
-
HwameiStor 相关组件(不包含 drbd-adapter)没有正常工作,可通过如下命令进行检查:
- 确认 Pod 是否运行正常
- 查看 health 字段
Note
drbd-adapter 组件只有在启用高可用时才生效,如果没有启用,可以忽略相关错误。