StorageClass通过动态卷供给实现存储自动化,定义存储类别、配置Provisioner参数、回收策略及绑定模式;当PVC创建时,系统按需调用插件(如Ceph、EBS)生成PV并绑定,使持久化存储像CPU内存一样即申即用。

云原生环境中,存储类(StorageClass)通过动态卷供给机制自动创建持久化存储,无需手动配置物理存储资源。核心在于 StorageClass 与容器编排系统(如 Kubernetes)的卷插件协同工作,按需为 PersistentVolumeClaim(PVC)提供后端存储。
StorageClass 的作用
StorageClass 定义了存储的“类别”,比如高性能 SSD、普通 HDD 或网络存储,并包含以下关键信息:
- Provisioner:指定由哪个插件(如 AWS EBS、GCE PD、Ceph RBD、NFS 等)来创建实际的存储卷
- Parameters:传递给 provisioner 的参数,例如磁盘类型、IOPS、区域等
- Reclaim Policy:决定 PVC 删除后卷的处理方式(Retain 或 Delete)
- Volume Binding Mode:控制 PV 何时绑定,Immediate 表示立即绑定,WaitForFirstConsumer 表示延迟到 Pod 调度时
动态供给的工作流程
当用户提交一个 PVC 请求时,系统会触发动态供给流程:
- 用户创建 PVC,声明所需存储大小和访问模式(ReadWriteOnce、ReadOnlyMany、ReadWriteMany)
- Kubernetes 检查 PVC 中引用的 StorageClass 是否存在
- 如果存在且未设置静态 PV 绑定,系统调用对应 provisioner 创建底层存储卷(如 AWS 上生成一个新的 EBS 卷)
- 自动生成 PersistentVolume(PV)对象,代表这个实际的存储资源
- PV 与 PVC 自动绑定,Pod 可以通过 PVC 使用该存储
实际配置示例
定义一个基于 Ceph RBD 的 StorageClass:
apiVersion: storage.k8s.io/v1kind: StorageClass
metadata:
name: fast-ssd
provisioner: rbd.csi.ceph.com
parameters:
clusterID: "ceph-cluster-1"
pool: "replicapool"
imageFormat: "2"
imageFeatures: "layering"
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer
之后用户只需在 PVC 中引用 fast-ssd,系统就会自动为其分配符合要求的 Ceph 块设备。
支持的动态供给插件
Kubernetes 支持多种内置和 CSI(Container Storage Interface)标准的 provisioner:
- AWS EBS、Azure Disk、Google Persistent Disk
- Ceph RBD / CephFS、GlusterFS
- NFS、iSCSI(需第三方 CSI 驱动)
- 本地存储(Local Path Provisioner,适用于测试)
只要集群中部署了对应的 CSI 驱动并正确配置 StorageClass,就能实现按需自动创建存储。
基本上就这些。动态供给让开发人员不必关心底层存储细节,真正实现了存储即服务的理念。只要配置好 StorageClass,PVC 就能像申请 CPU 和内存一样方便地获取持久化存储。









