问题描述
longhorn环境中PV actual size过大,实际的数据空间确很小,比如一个pv的 actual size是400G,
实际上使用的数据仅有60G。 这个可能是longhorn本身的机制导致,有没有办法优先这个现象?PV actual size在使用过程逐渐变大,将导致存储空间严重不足。
重现步骤
预期结果
期待PV actual size的大小接近PV使用时间大小
[/details]
环境信息
- Longhorn 版本: V1.2.3
- 安装方法 (e.g. Rancher Catalog App/Helm/Kubectl): Rancher Catalog App
- Kubernetes 发行版 (e.g. RKE/K3s/EKS/OpenShift) 和版本: RKE V1.20.14
- 集群管理节点个数: 3
- 集群 worker 节点数: 10
- Node 配置
- 操作系统类型和版本: redhat 7.9
- 每个节点的CPU: 104
- 每个节点的内存: 320
- 磁盘类型(e.g. SSD/NVMe): SAS
- 节点间网络带宽:: 10G
- 底层基础设施 (e.g. on AWS/GCE, EKS/GKE, VMWare/KVM, Baremetal): 物理机
- 集群中Longhorn卷的个数: 145