阿里云Kubernetes CSI支持两种类型的NAS动态存储卷挂载:subpath方式和filesystem方式。本文介绍如何使用阿里云NAS动态存储卷,及如何验证NAS存储卷的持久化存储与共享存储特性。
使用场景
- 对磁盘I/O要求较高的应用。
- 读写性能相对于对象存储OSS高。
- 可实现跨主机文件共享,例如可作为文件服务器。
注意事项
- 在使用极速NAS文件系统时,配置动态存储卷StorageClass中的
path
需要以/share为父目录。例如,0cd8b4a576-g****.cn-hangzhou.nas.aliyuncs.com:/share/subpath
表示Pod挂载的NAS文件系统子目录为/share/subpath
。
- NAS支持同时被多个Pod挂载,此时多个Pod可能同时修改相同数据,需要应用自行实现数据的同步。
说明 NAS存储的/目录不支持修改权限、属主和属组。
- 若您在应用模板中配置了securityContext.fsgroup参数,kubelet在存储卷挂载完成后会执行
chmod
或chown
操作,导致挂载时间延长。
说明 若已配置
securityContext.fsgroup参数,且需要减少挂载时间。具体操作,请参见
NAS存储卷挂载时间延长。
通过控制台的方式使用NAS动态存储卷
通过控制台的方式只能创建subpath类型的NAS动态存储卷,若您需要使用filesystem类型的NAS动态存储卷,请使用kubectl命令行方式。
步骤一:创建StorageClass
- 登录容器服务管理控制台,在左侧导航栏中选择集群。
- 在集群列表页面中,单击目标集群名称,然后在左侧导航栏中,选择。
- 在存储类页面,单击右上角的创建。
- 在创建对话框,配置StorageClass的相关参数。
部分参数的说明如下所示:
参数 |
说明 |
名称 |
StorageClass的名称。
名称必须以小写字母开头,只能包含小写字母、数字、小数点(.)和短划线(-)。
|
存储卷类型 |
可选择云盘或NAS。本示例选择NAS。
|
存储驱动 |
默认为CSI。
|
回收策略 |
回收策略,默认为Delete,支持Retain。
- Delete模式:需配合archiveOnDelete一起使用。
- 当archiveOnDelete为true,删除PVC时,PV和NAS文件只是被重命名,不会被删除。
- 当archiveOnDelete为false,删除PVC时,PV和NAS文件会被真正删除。
- Retain模式:删除PVC的时候,PV和NAS文件系统不会被删除,需要您手动删除。
如果数据安全性要求高,推荐使用Retain方式以免误删数据。
|
挂载选项 |
挂载NAS的可选参数,包括NFS协议版本等参数。 |
挂载点域名 |
NAS文件系统的挂载点地址。
若无可选的挂载点地址,请先创建NAS文件系统.。具体操作,请参见使用NAS文件系统。
|
路径 |
NAS文件系统中的挂载路径。 |
- 参数配置完成后,单击创建。
创建成功后在存储类列表中可看到刚创建的StorageClass。
步骤二:创建PVC
- 在集群管理页左侧导航栏中,选择。
- 在存储声明页面,单击右上角的创建。
- 在弹出的创建存储声明页面中,填写界面参数。
参数 |
说明 |
存储声明类型 |
支持云盘、NAS、OSS三种云存储类型。 本文中选择NAS。
|
名称 |
创建的存储声明名称在集群内必须唯一。 |
分配模式 |
本文中选择使用存储类动态创建。
|
已有存储类 |
单击选择存储类,在选择存储类对话框目标存储类右侧操作列单击选择。
|
总量 |
所创建存储卷的容量。 |
访问模式 |
默认为ReadWriteMany,也可选择ReadWriteOnce。
|
- 单击创建。
创建成功后可在列表中看到创建的存储声明,并且已绑定相应的存储卷。
步骤三:创建应用
- 在集群管理页左侧导航栏中,选择。
- 在无状态页面中,单击使用镜像创建。
- 配置创建应用的参数信息。
以下主要为您介绍数据卷的配置。关于其他参数的描述,请参见
创建无状态工作负载Deployment。
ACK数据卷支持配置本地存储和云存储。
- 本地存储:支持主机目录(HostPath)、配置项(ConfigMap)、保密字典(Secret)和临时目录,将对应的挂载源挂载到容器路径中。更多信息,请参见Volumes。
- 云存储:支持云存储类型。
本例中配置了一个NAS类型的数据卷,将该NAS存储卷挂载到容器中
/tmp路径下。
- 所有的信息都配置完成后,单击创建。
创建成功后,您就可以正常使用数据卷。
通过kubectl命令行方式使用subpath类型的NAS动态存储卷
当您的多个Kubernetes应用或者Pod需要挂载相同的NAS存储卷共享数据时,或不同的Pod挂载相同NAS文件系统的不同子目录时, 可以使用subpath类型的NAS动态存储卷方式。
NAS动态存储卷的挂载方式为subpath类型时,您需要手动创建NAS文件系统和挂载点。
- 创建NAS文件系统和挂载点。
- 登录NAS控制台。
- 创建NAS文件系统。请参见创建文件系统。
- 添加挂载点。请参见管理挂载点。
- 创建StorageClass。
- 创建并复制以下内容到alicloud-nas-subpath.yaml文件中。
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: alicloud-nas-subpath
mountOptions:
- nolock,tcp,noresvport
- vers=3
parameters:
volumeAs: subpath
server: "0cd8b4a576-g****.cn-hangzhou.nas.aliyuncs.com:/k8s/"
provisioner: nasplugin.csi.alibabacloud.com
reclaimPolicy: Retain
参数 |
描述 |
mountOptions |
挂载NAS的options参数在mountOptions中配置,包括NFS协议版本。
|
volumeAs |
可选subpath、filesystem,分别表示创建子目录类型的PV和文件系统类型PV。
|
server |
表示创建子目录类型的PV时,NAS文件系统的挂载点地址。 |
provisioner |
驱动类型。本例中取值为nasplugin.csi.alibabacloud.com ,表示使用阿里云NAS CSI插件。
|
reclaimPolicy |
PV的回收策略,默认为Delete,支持Retain。
- Delete模式:需配合archiveOnDelete一起使用。
- 当archiveOnDelete为true,删除PVC时,PV和NAS文件只是被重命名,不会被删除。
- 当archiveOnDelete为false,删除PVC时,PV和NAS文件会被真正删除。
- Retain模式:删除PVC的时候,PV和NAS文件系统不会被删除,需要您手动删除。
如果数据安全性要求高,推荐使用Retain方式以免误删数据。
|
archiveOnDelete |
表示在reclaimPolicy为Delete时,是否删除后端存储。因为NAS为共享存储,添加此选项进行双重确认。在参数parameters下配置。默认为true,表示不会真正删除目录或文件,而是将其Rename,格式为:archived-{pvName}.{timestamp} ;如果是配置为false,表示会真正删除后端对应的存储资源。
|
- 执行以下命令创建StorageClass。
kubectl create -f alicloud-nas-subpath.yaml
- 执行以下命令创建PVC。
- 创建并复制以下内容到pvc.yaml文件中。
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: nas-csi-pvc
spec:
accessModes:
- ReadWriteMany
storageClassName: alicloud-nas-subpath
resources:
requests:
storage: 20Gi
参数 |
说明 |
name |
PVC的名称。 |
accessModes |
配置访问模式。 |
storageClassName |
StorageClass的名称,用于绑定StorageClass。 |
storage |
声明应用存储使用量。 |
- 执行以下命令创建PVC。
kubectl create -f pvc.yaml
- 执行以下命令创建应用。
创建应用nginx-1和nginx-2共享NAS存储卷的同一个子目录。
- 创建并复制以下内容到nginx-1.yaml文件中。
apiVersion: apps/v1
kind: Deployment
metadata:
name: deployment-nas-1
labels:
app: nginx-1
spec:
selector:
matchLabels:
app: nginx-1
template:
metadata:
labels:
app: nginx-1
spec:
containers:
- name: nginx
image: nginx:1.7.9
ports:
- containerPort: 80
volumeMounts:
- name: nas-pvc
mountPath: "/data"
volumes:
- name: nas-pvc
persistentVolumeClaim:
claimName: nas-csi-pvc
mountPath
:NAS在容器中挂载的位置。
claimName
:PVC的名称,用于绑定PVC。本例中为nas-csi-pvc。
- 创建并复制以下内容到nginx-2.yaml文件中。
apiVersion: apps/v1
kind: Deployment
metadata:
name: deployment-nas-2
labels:
app: nginx-2
spec:
selector:
matchLabels:
app: nginx-2
template:
metadata:
labels:
app: nginx-2
spec:
containers:
- name: nginx
image: nginx:1.7.9
ports:
- containerPort: 80
volumeMounts:
- name: nas-pvc
mountPath: "/data"
volumes:
- name: nas-pvc
persistentVolumeClaim:
claimName: nas-csi-pvc
mountPath
:NAS在容器中挂载的位置。本例为/data。
claimName
:输入与nginx-1应用相同的PVC名称,本例为nas-csi-pvc。
- 执行以下命令创建应用nginx-1和nginx-2。
kubectl create -f nginx-1.yaml -f nginx-2.yaml
- 执行以下命令查看Pod信息。
kubectl get pod
预期输出:
NAME READY STATUS RESTARTS AGE
deployment-nas-1-5b5cdb85f6-n**** 1/1 Running 0 32s
deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s
说明 NAS存储卷的
0cd8b4a576-g****.cn-hangzhou.nas.aliyuncs.com:/share/nas-79438493-f3e0-11e9-bbe5-00163e09****
会同时挂载到
deployment-nas-1-5b5cdb85f6-n****
和
deployment-nas-2-c5bb4746c-4****
的
/data目录下。其中:
/share
:StorageClass中指定的subpath。
nas-79438493-f3e0-11e9-bbe5-00163e09****
:PV的名称。
如果您需要为不同的Pod挂载同一个NAS文件系统的不同子目录, 则需要分别创建pvc-1和nginx-1以及pvc-2和nginx-2。
通过kubectl命令行方式使用filesystem类型的NAS动态存储卷
重要 filesystem类型的NAS动态卷在删除时默认保留文件系统和挂载点, 若需要在释放PV资源的同时释放NAS文件系统和挂载点, 则需要同时设置StorageClass中的reclaimPolicy为Delete且deleteVolume的值为true。
当您的Kubernetes应用需要动态创建和删除NAS文件系统和挂载点时, 可以使用filesystem类型。
使用filesystem类型NAS存储卷的Pod只能创建一个文件系统和一个挂载点, 多个Pod之间无法共享一个存储卷。操作步骤如下。
- 可选:RAM Policy设置和授予。
如果您的集群是专有版集群,需要执行本步骤,托管版集群则不需要执行。
filesystem类型的NAS存储卷涉及NAS文件系统和挂载点的动态创建与删除,专有版集群需要授予csi-provisioner相应的权限,RAM Policy的最小集合如下。
{
"Action": [
"nas:DescribeMountTargets",
"nas:CreateMountTarget",
"nas:DeleteFileSystem",
"nas:DeleteMountTarget",
"nas:CreateFileSystem"
],
"Resource": [
"*"
],
"Effect": "Allow"
}
您可以通过以下任意一种方式进行授权:
- 创建StorageClass。
- 创建并复制以下内容到alicloud-nas-fs.yaml文件中。
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: alicloud-nas-fs
mountOptions:
- nolock,tcp,noresvport
- vers=3
parameters:
volumeAs: filesystem
storageType: Performance
zoneId: cn-hangzhou-a
vpcId: "vpc-2ze9c51qb5kp1nfqu****"
vSwitchId: "vsw-gw8tk6gecif0eu9ky****"
accessGroupName: DEFAULT_VPC_GROUP_NAME
deleteVolume: "false"
provisioner: nasplugin.csi.alibabacloud.com
reclaimPolicy: Retain
参数 |
描述 |
volumeAs |
定义创建数据的类型,可选filesystem和subpath两种类型:
- filesystem表示Provisioner自动创建NAS文件系统,一个PV对应一个NAS文件系统。
- subpath类型表示一个PV对应一个NAS文件系统的子目录,Provisioner自动创建NAS文件系统子目录。
|
storageType |
定义创建NAS文件系统的类型,可选Performance及Capacity两种类型,分别表示性能型、容量型。默认为性能型。
|
zoneId |
定义创建NAS文件系统所在可用区。 |
vpcId |
定义创建NAS文件系统对应挂载点所在VPC。 |
vSwitchId |
定义创建NAS文件系统对应挂载点所在vSwitch ID。 |
accessGroupName |
定义创建NAS文件系统对应挂载点所用的AccessGroup。默认为DEFAULT_VPC_GROUP_NAME。
|
deleteVolume |
定义数据卷删除时处理NAS文件系统策略,由于NAS为共享文件系统,安全起见需要同时配置。 |
provisioner |
驱动类型。本例中取值为nasplugin.csi.alibabacloud.com ,表示使用阿里云NAS CSI插件。
|
reclaimPolicy |
PV的回收策略。当值为Delete且deleteVolume为true才会在删除PVC的时候把NAS文件系统删除。
|
- 执行以下命令创建StorageClass。
kubectl create -f alicloud-nas-fs.yaml
- 创建PVC和Pod挂载NAS存储卷。
- 创建并复制以下内容到pvc.yaml文件中。
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: nas-csi-pvc-fs
spec:
accessModes:
- ReadWriteMany
storageClassName: alicloud-nas-fs
resources:
requests:
storage: 20Gi
- 创建并复制以下内容到nginx.yaml文件中。
apiVersion: apps/v1
kind: Deployment
metadata:
name: deployment-nas-fs
labels:
app: nginx
spec:
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:1.7.9
ports:
- containerPort: 80
volumeMounts:
- name: nas-pvc
mountPath: "/data"
volumes:
- name: nas-pvc
persistentVolumeClaim:
claimName: nas-csi-pvc-fs
- 执行以下命令创建PVC和Pod。
kubectl create -f pvc.yaml -f nginx.yaml
这种场景下,CSI会在PVC创建时动态新建NAS文件系统和挂载点,PVC删除时动态删除挂载点和文件系统。
验证NAS的持久化存储
NAS提供了持久化存储服务,当某个Pod删除时,重新部署的Pod将自动同步之前Pod的所有数据。
根据以下示例验证NAS的持久化存储特性:
- 查看部署应用的Pod和NAS文件。
- 执行以下命令,查看部署的应用所在Pod的名称。
kubectl get pod
预期输出:
NAME READY STATUS RESTARTS AGE
deployment-nas-1-5b5cdb85f6-n**** 1/1 Running 0 32s
deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s
- 执行以下命令,查看任意一个Pod/data路径下的文件,本文以名为
deployment-nas-1-5b5cdb85f6-n****
的Pod为例。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data
无返回结果,说明/data路径下无文件。
- 执行以下命令,在名为
deployment-nas-1-5b5cdb85f6-n****
的Pod/data路径下创建文件nas。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- touch /data/nas
- 执行以下命令,查看名为
deployment-nas-1-5b5cdb85f6-n****
的Pod/data路径下的文件。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data
预期输出:
nas
- 执行以下命令,删除Pod。
kubectl delete pod deployment-nas-1-5b5cdb85f6-n****
- 同时在另一个窗口中,执行以下命令,查看Pod删除及Kubernetes重建Pod的过程。
kubectl get pod -w -l app=nginx
- 验证删除Pod后,NAS里创建的文件是否还存在。
- 执行以下命令,查看Kubernetes重建的Pod名称。
kubectl get pod
预期输出:
NAME READY STATUS RESTARTS AGE
deployment-nas-1-5b5cdm2g5-m**** 1/1 Running 0 32s
deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s
- 执行以下命令,查看名为
deployment-nas-1-5b5cdm2g5-m****
的Pod/data路径下的文件。kubectl exec deployment-nas-1-5b5cdm2g5-m**** -- ls /data
预期输出:
nas
nas文件仍然存在,说明NAS的数据可持久化保存。
验证NAS存储卷的共享存储
NAS存储卷支持同时被多个Pod挂载,当某个Pod修改数据时,其余Pod将自行实现数据的同步。
根据以下示例验证NAS存储卷的共享存储特性:
- 查看部署的应用所在的Pod和NAS文件。
- 执行以下命令,查看应用所在Pod的名称。
kubectl get pod
预期输出:
NAME READY STATUS RESTARTS AGE
deployment-nas-1-5b5cdb85f6-n**** 1/1 Running 0 32s
deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s
- 执行以下命令,查看2个Pod/data路径下的文件。
kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data
kubectl exec deployment-nas-2-c5bb4746c-4**** -- ls /data
- 执行以下命令,在任意一个Pod的/data路径下创建文件nas。
kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- touch /data/nas
- 执行以下命令,查看2个Pod/data路径下的文件。
- 执行以下命令,查看名为
deployment-nas-1-5b5cdb85f6-n****
的Pod/data路径下的文件。 kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data
预期输出:
nas
- 执行以下命令,查看名为
deployment-nas-2-c5bb4746c-4****
的Pod /data路径下的文件。 kubectl exec deployment-nas-2-c5bb4746c-4**** -- ls /data
预期输出:
nas
在任意一个Pod的/data下创建的文件,两个Pod下的/data路径下均存在此文件,说明两个Pod共享一个NAS。
支持用户或用户组隔离
- 使用以下YAML内容,在容器组内,使用nobody用户启动进程,创建的目录UID和GID为65534。
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: nas-sts
spec:
selector:
matchLabels:
app: busybox
serviceName: "busybox"
replicas: 1
template:
metadata:
labels:
app: busybox
spec:
securityContext:
fsGroup: 65534 #创建目录/文件时,UID/GID为65534(nobody用户)。
fsGroupChangePolicy: "OnRootMismatch" #只有根目录的属主与访问权限与卷所期望的权限不一致时, 才改变其中内容的属主和访问权限。
containers:
- name: busybox
image: busybox
command:
- sleep
- "3600"
securityContext:
runAsUser: 65534 #所有容器内的进程都使用用户ID为65534(nobody用户)来运行。
runAsGroup: 65534 #所有容器中的进程都以主组ID为65534(nobody用户)来运行。
allowPrivilegeEscalation: false
volumeMounts:
- name: nas-pvc
mountPath: /data
volumeClaimTemplates:
- metadata:
name: nas-pvc
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "alicloud-nas-subpath"
resources:
requests:
storage: 100Gi
- 执行以下命令,在容器中启动top命令,查看USER是否为nobody。
kubectl exec nas-sts-0 -- "top"
预期输出:
Mem: 11538180K used, 52037796K free, 5052K shrd, 253696K buff, 8865272K cached
CPU: 0.1% usr 0.1% sys 0.0% nic 99.7% idle 0.0% io 0.0% irq 0.0% sirq
Load average: 0.76 0.60 0.58 1/1458 54
PID PPID USER STAT VSZ %VSZ CPU %CPU COMMAND
49 0 nobody R 1328 0.0 9 0.0 top
1 0 nobody S 1316 0.0 10 0.0 sleep 3600
由预期输出看出:是nobody用户执行top命令。
- 执行以下命令,验证在NAS挂载目录下创建的目录和文件是否为nobody。
kubectl exec nas-sts-0 -- sh -c "touch /data/test; mkdir /data/test-dir; ls -arlth /data/"
预期输出:
total 5K
drwxr-xr-x 1 root root 4.0K Aug 30 10:14 ..
drwxr-sr-x 2 nobody nobody 4.0K Aug 30 10:14 test-dir
-rw-r--r-- 1 nobody nobody 0 Aug 30 10:14 test
drwxrwsrwx 3 root nobody 4.0K Aug 30 10:14 .
由预期输出看出:在/data
下创建的test文件和test-dir目录,UID和GID对应的用户均为nobody用户。