如何使用NAS动态存储卷

您所在的位置:网站首页 kubernetes集群数据存储 如何使用NAS动态存储卷

如何使用NAS动态存储卷

#如何使用NAS动态存储卷| 来源: 网络整理| 查看: 265

阿里云Kubernetes CSI支持两种类型的NAS动态存储卷挂载:subpath方式和filesystem方式。本文介绍如何使用阿里云NAS动态存储卷,及如何验证NAS存储卷的持久化存储与共享存储特性。

前提条件 已创建Kubernetes集群。具体操作,请参见创建Kubernetes托管版集群。 已创建NAS文件系统。请参见创建文件系统。

若需要加密NAS存储卷中的数据,创建NAS文件系统时请配置加密类型。

已创建NAS挂载点。请参见管理挂载点。

NAS挂载点需要和集群节点在同一个VPC内。

使用场景 对磁盘I/O要求较高的应用。 读写性能相对于对象存储OSS高。 可实现跨主机文件共享,例如可作为文件服务器。 注意事项 在使用极速NAS文件系统时,配置动态存储卷StorageClass中的path需要以/share为父目录。例如,0cd8b4a576-g****.cn-hangzhou.nas.aliyuncs.com:/share/subpath表示Pod挂载的NAS文件系统子目录为/share/subpath。 NAS支持同时被多个Pod挂载,此时多个Pod可能同时修改相同数据,需要应用自行实现数据的同步。 说明 NAS存储的/目录不支持修改权限、属主和属组。 若您在应用模板中配置了securityContext.fsgroup参数,kubelet在存储卷挂载完成后会执行chmod或chown操作,导致挂载时间延长。 说明 若已配置securityContext.fsgroup参数,且需要减少挂载时间。具体操作,请参见NAS存储卷挂载时间延长。 通过控制台的方式使用NAS动态存储卷

通过控制台的方式只能创建subpath类型的NAS动态存储卷,若您需要使用filesystem类型的NAS动态存储卷,请使用kubectl命令行方式。

步骤一:创建StorageClass

登录容器服务管理控制台,在左侧导航栏中选择集群。 在集群列表页面中,单击目标集群名称,然后在左侧导航栏中,选择存储 > 存储类。 在存储类页面,单击右上角的创建。 在创建对话框,配置StorageClass的相关参数。部分参数的说明如下所示: 参数 说明 名称 StorageClass的名称。

名称必须以小写字母开头,只能包含小写字母、数字、小数点(.)和短划线(-)。

存储卷类型 可选择云盘或NAS。本示例选择NAS。 存储驱动 默认为CSI。 回收策略 回收策略,默认为Delete,支持Retain。 Delete模式:需配合archiveOnDelete一起使用。 当archiveOnDelete为true,删除PVC时,PV和NAS文件只是被重命名,不会被删除。 当archiveOnDelete为false,删除PVC时,PV和NAS文件会被真正删除。 Retain模式:删除PVC的时候,PV和NAS文件系统不会被删除,需要您手动删除。

如果数据安全性要求高,推荐使用Retain方式以免误删数据。

挂载选项 挂载NAS的可选参数,包括NFS协议版本等参数。 挂载点域名 NAS文件系统的挂载点地址。

若无可选的挂载点地址,请先创建NAS文件系统.。具体操作,请参见使用NAS文件系统。

路径 NAS文件系统中的挂载路径。 参数配置完成后,单击创建。创建成功后在存储类列表中可看到刚创建的StorageClass。

步骤二:创建PVC

在集群管理页左侧导航栏中,选择存储 > 存储声明。 在存储声明页面,单击右上角的创建。 在弹出的创建存储声明页面中,填写界面参数。 参数 说明 存储声明类型 支持云盘、NAS、OSS三种云存储类型。 本文中选择NAS。 名称 创建的存储声明名称在集群内必须唯一。 分配模式 本文中选择使用存储类动态创建。 已有存储类 单击选择存储类,在选择存储类对话框目标存储类右侧操作列单击选择。 总量 所创建存储卷的容量。 访问模式 默认为ReadWriteMany,也可选择ReadWriteOnce。 单击创建。创建成功后可在列表中看到创建的存储声明,并且已绑定相应的存储卷。

步骤三:创建应用

在集群管理页左侧导航栏中,选择工作负载 > 无状态。 在无状态页面中,单击使用镜像创建。 配置创建应用的参数信息。以下主要为您介绍数据卷的配置。关于其他参数的描述,请参见创建无状态工作负载Deployment。 ACK数据卷支持配置本地存储和云存储。 本地存储:支持主机目录(HostPath)、配置项(ConfigMap)、保密字典(Secret)和临时目录,将对应的挂载源挂载到容器路径中。更多信息,请参见Volumes。 云存储:支持云存储类型。 本例中配置了一个NAS类型的数据卷,将该NAS存储卷挂载到容器中/tmp路径下。 数据卷 所有的信息都配置完成后,单击创建。创建成功后,您就可以正常使用数据卷。 通过kubectl命令行方式使用subpath类型的NAS动态存储卷

当您的多个Kubernetes应用或者Pod需要挂载相同的NAS存储卷共享数据时,或不同的Pod挂载相同NAS文件系统的不同子目录时, 可以使用subpath类型的NAS动态存储卷方式。

NAS动态存储卷的挂载方式为subpath类型时,您需要手动创建NAS文件系统和挂载点。

创建NAS文件系统和挂载点。 登录NAS控制台。 创建NAS文件系统。请参见创建文件系统。 添加挂载点。请参见管理挂载点。 创建StorageClass。 创建并复制以下内容到alicloud-nas-subpath.yaml文件中。apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: alicloud-nas-subpath mountOptions: - nolock,tcp,noresvport - vers=3 parameters: volumeAs: subpath server: "0cd8b4a576-g****.cn-hangzhou.nas.aliyuncs.com:/k8s/" provisioner: nasplugin.csi.alibabacloud.com reclaimPolicy: Retain 参数 描述 mountOptions 挂载NAS的options参数在mountOptions中配置,包括NFS协议版本。 volumeAs 可选subpath、filesystem,分别表示创建子目录类型的PV和文件系统类型PV。 server 表示创建子目录类型的PV时,NAS文件系统的挂载点地址。 provisioner 驱动类型。本例中取值为nasplugin.csi.alibabacloud.com,表示使用阿里云NAS CSI插件。 reclaimPolicy PV的回收策略,默认为Delete,支持Retain。 Delete模式:需配合archiveOnDelete一起使用。 当archiveOnDelete为true,删除PVC时,PV和NAS文件只是被重命名,不会被删除。 当archiveOnDelete为false,删除PVC时,PV和NAS文件会被真正删除。 Retain模式:删除PVC的时候,PV和NAS文件系统不会被删除,需要您手动删除。 如果数据安全性要求高,推荐使用Retain方式以免误删数据。 archiveOnDelete 表示在reclaimPolicy为Delete时,是否删除后端存储。因为NAS为共享存储,添加此选项进行双重确认。在参数parameters下配置。默认为true,表示不会真正删除目录或文件,而是将其Rename,格式为:archived-{pvName}.{timestamp};如果是配置为false,表示会真正删除后端对应的存储资源。 说明 在业务流量非常大时,不适合配置为false。更多信息,请参见使用NAS动态存储卷时Controller的任务队列已满且无法创建新的PV。 执行以下命令创建StorageClass。kubectl create -f alicloud-nas-subpath.yaml 执行以下命令创建PVC。 创建并复制以下内容到pvc.yaml文件中。kind: PersistentVolumeClaim apiVersion: v1 metadata: name: nas-csi-pvc spec: accessModes: - ReadWriteMany storageClassName: alicloud-nas-subpath resources: requests: storage: 20Gi 参数 说明 name PVC的名称。 accessModes 配置访问模式。 storageClassName StorageClass的名称,用于绑定StorageClass。 storage 声明应用存储使用量。 执行以下命令创建PVC。kubectl create -f pvc.yaml 执行以下命令创建应用。创建应用nginx-1和nginx-2共享NAS存储卷的同一个子目录。 创建并复制以下内容到nginx-1.yaml文件中。apiVersion: apps/v1 kind: Deployment metadata: name: deployment-nas-1 labels: app: nginx-1 spec: selector: matchLabels: app: nginx-1 template: metadata: labels: app: nginx-1 spec: containers: - name: nginx image: nginx:1.7.9 ports: - containerPort: 80 volumeMounts: - name: nas-pvc mountPath: "/data" volumes: - name: nas-pvc persistentVolumeClaim: claimName: nas-csi-pvc mountPath:NAS在容器中挂载的位置。 claimName:PVC的名称,用于绑定PVC。本例中为nas-csi-pvc。 创建并复制以下内容到nginx-2.yaml文件中。apiVersion: apps/v1 kind: Deployment metadata: name: deployment-nas-2 labels: app: nginx-2 spec: selector: matchLabels: app: nginx-2 template: metadata: labels: app: nginx-2 spec: containers: - name: nginx image: nginx:1.7.9 ports: - containerPort: 80 volumeMounts: - name: nas-pvc mountPath: "/data" volumes: - name: nas-pvc persistentVolumeClaim: claimName: nas-csi-pvc mountPath:NAS在容器中挂载的位置。本例为/data。 claimName:输入与nginx-1应用相同的PVC名称,本例为nas-csi-pvc。 执行以下命令创建应用nginx-1和nginx-2。kubectl create -f nginx-1.yaml -f nginx-2.yaml 执行以下命令查看Pod信息。kubectl get pod

预期输出:

NAME READY STATUS RESTARTS AGE deployment-nas-1-5b5cdb85f6-n**** 1/1 Running 0 32s deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s 说明 NAS存储卷的0cd8b4a576-g****.cn-hangzhou.nas.aliyuncs.com:/share/nas-79438493-f3e0-11e9-bbe5-00163e09****会同时挂载到deployment-nas-1-5b5cdb85f6-n****和deployment-nas-2-c5bb4746c-4****的/data目录下。其中: /share:StorageClass中指定的subpath。 nas-79438493-f3e0-11e9-bbe5-00163e09****:PV的名称。

如果您需要为不同的Pod挂载同一个NAS文件系统的不同子目录, 则需要分别创建pvc-1和nginx-1以及pvc-2和nginx-2。

通过kubectl命令行方式使用filesystem类型的NAS动态存储卷 重要 filesystem类型的NAS动态卷在删除时默认保留文件系统和挂载点, 若需要在释放PV资源的同时释放NAS文件系统和挂载点, 则需要同时设置StorageClass中的reclaimPolicy为Delete且deleteVolume的值为true。

当您的Kubernetes应用需要动态创建和删除NAS文件系统和挂载点时, 可以使用filesystem类型。

使用filesystem类型NAS存储卷的Pod只能创建一个文件系统和一个挂载点, 多个Pod之间无法共享一个存储卷。操作步骤如下。

可选:RAM Policy设置和授予。如果您的集群是专有版集群,需要执行本步骤,托管版集群则不需要执行。

filesystem类型的NAS存储卷涉及NAS文件系统和挂载点的动态创建与删除,专有版集群需要授予csi-provisioner相应的权限,RAM Policy的最小集合如下。

{ "Action": [ "nas:DescribeMountTargets", "nas:CreateMountTarget", "nas:DeleteFileSystem", "nas:DeleteMountTarget", "nas:CreateFileSystem" ], "Resource": [ "*" ], "Effect": "Allow" }

您可以通过以下任意一种方式进行授权:

编辑Kubernetes集群的Master RAM角色中的自定义策略内容,添加以上NAS相关的权限设置。请参见容器服务默认角色。自定义授权 创建RAM用户授权以上RAM Policy并生成AccessKey,配置到csi-provisioner的env变量中。请参见容器服务默认角色。env: - name: CSI_ENDPOINT value: unix://socketDir/csi.sock - name: ACCESS_KEY_ID value: "" - name: ACCESS_KEY_SECRET value: "" 创建StorageClass。 创建并复制以下内容到alicloud-nas-fs.yaml文件中。apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: alicloud-nas-fs mountOptions: - nolock,tcp,noresvport - vers=3 parameters: volumeAs: filesystem storageType: Performance zoneId: cn-hangzhou-a vpcId: "vpc-2ze9c51qb5kp1nfqu****" vSwitchId: "vsw-gw8tk6gecif0eu9ky****" accessGroupName: DEFAULT_VPC_GROUP_NAME deleteVolume: "false" provisioner: nasplugin.csi.alibabacloud.com reclaimPolicy: Retain 参数 描述 volumeAs 定义创建数据的类型,可选filesystem和subpath两种类型: filesystem表示Provisioner自动创建NAS文件系统,一个PV对应一个NAS文件系统。 subpath类型表示一个PV对应一个NAS文件系统的子目录,Provisioner自动创建NAS文件系统子目录。 storageType 定义创建NAS文件系统的类型,可选Performance及Capacity两种类型,分别表示性能型、容量型。默认为性能型。 zoneId 定义创建NAS文件系统所在可用区。 vpcId 定义创建NAS文件系统对应挂载点所在VPC。 vSwitchId 定义创建NAS文件系统对应挂载点所在vSwitch ID。 accessGroupName 定义创建NAS文件系统对应挂载点所用的AccessGroup。默认为DEFAULT_VPC_GROUP_NAME。 deleteVolume 定义数据卷删除时处理NAS文件系统策略,由于NAS为共享文件系统,安全起见需要同时配置。 provisioner 驱动类型。本例中取值为nasplugin.csi.alibabacloud.com,表示使用阿里云NAS CSI插件。 reclaimPolicy PV的回收策略。当值为Delete且deleteVolume为true才会在删除PVC的时候把NAS文件系统删除。 执行以下命令创建StorageClass。kubectl create -f alicloud-nas-fs.yaml 创建PVC和Pod挂载NAS存储卷。 创建并复制以下内容到pvc.yaml文件中。kind: PersistentVolumeClaim apiVersion: v1 metadata: name: nas-csi-pvc-fs spec: accessModes: - ReadWriteMany storageClassName: alicloud-nas-fs resources: requests: storage: 20Gi 创建并复制以下内容到nginx.yaml文件中。apiVersion: apps/v1 kind: Deployment metadata: name: deployment-nas-fs labels: app: nginx spec: selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx:1.7.9 ports: - containerPort: 80 volumeMounts: - name: nas-pvc mountPath: "/data" volumes: - name: nas-pvc persistentVolumeClaim: claimName: nas-csi-pvc-fs 执行以下命令创建PVC和Pod。kubectl create -f pvc.yaml -f nginx.yaml

这种场景下,CSI会在PVC创建时动态新建NAS文件系统和挂载点,PVC删除时动态删除挂载点和文件系统。

验证NAS的持久化存储

NAS提供了持久化存储服务,当某个Pod删除时,重新部署的Pod将自动同步之前Pod的所有数据。

根据以下示例验证NAS的持久化存储特性:

查看部署应用的Pod和NAS文件。 执行以下命令,查看部署的应用所在Pod的名称。kubectl get pod

预期输出:

NAME READY STATUS RESTARTS AGE deployment-nas-1-5b5cdb85f6-n**** 1/1 Running 0 32s deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s 执行以下命令,查看任意一个Pod/data路径下的文件,本文以名为deployment-nas-1-5b5cdb85f6-n****的Pod为例。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data 无返回结果,说明/data路径下无文件。 执行以下命令,在名为deployment-nas-1-5b5cdb85f6-n****的Pod/data路径下创建文件nas。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- touch /data/nas 执行以下命令,查看名为deployment-nas-1-5b5cdb85f6-n****的Pod/data路径下的文件。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data

预期输出:

nas 执行以下命令,删除Pod。kubectl delete pod deployment-nas-1-5b5cdb85f6-n**** 同时在另一个窗口中,执行以下命令,查看Pod删除及Kubernetes重建Pod的过程。kubectl get pod -w -l app=nginx 验证删除Pod后,NAS里创建的文件是否还存在。 执行以下命令,查看Kubernetes重建的Pod名称。kubectl get pod

预期输出:

NAME READY STATUS RESTARTS AGE deployment-nas-1-5b5cdm2g5-m**** 1/1 Running 0 32s deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s 执行以下命令,查看名为deployment-nas-1-5b5cdm2g5-m****的Pod/data路径下的文件。kubectl exec deployment-nas-1-5b5cdm2g5-m**** -- ls /data

预期输出:

nas nas文件仍然存在,说明NAS的数据可持久化保存。 验证NAS存储卷的共享存储

NAS存储卷支持同时被多个Pod挂载,当某个Pod修改数据时,其余Pod将自行实现数据的同步。

根据以下示例验证NAS存储卷的共享存储特性:

查看部署的应用所在的Pod和NAS文件。 执行以下命令,查看应用所在Pod的名称。kubectl get pod

预期输出:

NAME READY STATUS RESTARTS AGE deployment-nas-1-5b5cdb85f6-n**** 1/1 Running 0 32s deployment-nas-2-c5bb4746c-4**** 1/1 Running 0 32s 执行以下命令,查看2个Pod/data路径下的文件。kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data kubectl exec deployment-nas-2-c5bb4746c-4**** -- ls /data 执行以下命令,在任意一个Pod的/data路径下创建文件nas。 kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- touch /data/nas 执行以下命令,查看2个Pod/data路径下的文件。 执行以下命令,查看名为deployment-nas-1-5b5cdb85f6-n****的Pod/data路径下的文件。 kubectl exec deployment-nas-1-5b5cdb85f6-n**** -- ls /data

预期输出:

nas 执行以下命令,查看名为deployment-nas-2-c5bb4746c-4****的Pod /data路径下的文件。 kubectl exec deployment-nas-2-c5bb4746c-4**** -- ls /data

预期输出:

nas 在任意一个Pod的/data下创建的文件,两个Pod下的/data路径下均存在此文件,说明两个Pod共享一个NAS。 支持用户或用户组隔离 使用以下YAML内容,在容器组内,使用nobody用户启动进程,创建的目录UID和GID为65534。apiVersion: apps/v1 kind: StatefulSet metadata: name: nas-sts spec: selector: matchLabels: app: busybox serviceName: "busybox" replicas: 1 template: metadata: labels: app: busybox spec: securityContext: fsGroup: 65534 #创建目录/文件时,UID/GID为65534(nobody用户)。 fsGroupChangePolicy: "OnRootMismatch" #只有根目录的属主与访问权限与卷所期望的权限不一致时, 才改变其中内容的属主和访问权限。 containers: - name: busybox image: busybox command: - sleep - "3600" securityContext: runAsUser: 65534 #所有容器内的进程都使用用户ID为65534(nobody用户)来运行。 runAsGroup: 65534 #所有容器中的进程都以主组ID为65534(nobody用户)来运行。 allowPrivilegeEscalation: false volumeMounts: - name: nas-pvc mountPath: /data volumeClaimTemplates: - metadata: name: nas-pvc spec: accessModes: [ "ReadWriteOnce" ] storageClassName: "alicloud-nas-subpath" resources: requests: storage: 100Gi 执行以下命令,在容器中启动top命令,查看USER是否为nobody。kubectl exec nas-sts-0 -- "top"

预期输出:

Mem: 11538180K used, 52037796K free, 5052K shrd, 253696K buff, 8865272K cached CPU: 0.1% usr 0.1% sys 0.0% nic 99.7% idle 0.0% io 0.0% irq 0.0% sirq Load average: 0.76 0.60 0.58 1/1458 54 PID PPID USER STAT VSZ %VSZ CPU %CPU COMMAND 49 0 nobody R 1328 0.0 9 0.0 top 1 0 nobody S 1316 0.0 10 0.0 sleep 3600

由预期输出看出:是nobody用户执行top命令。

执行以下命令,验证在NAS挂载目录下创建的目录和文件是否为nobody。kubectl exec nas-sts-0 -- sh -c "touch /data/test; mkdir /data/test-dir; ls -arlth /data/"

预期输出:

total 5K drwxr-xr-x 1 root root 4.0K Aug 30 10:14 .. drwxr-sr-x 2 nobody nobody 4.0K Aug 30 10:14 test-dir -rw-r--r-- 1 nobody nobody 0 Aug 30 10:14 test drwxrwsrwx 3 root nobody 4.0K Aug 30 10:14 .

由预期输出看出:在/data下创建的test文件和test-dir目录,UID和GID对应的用户均为nobody用户。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3