Для просмотра этой видеозаписи необходимо авторизоваться

Авторизация
Kubernetes

От: admin Видео: 73

k8s Pod

От: admin 8:28

k8s ReplicaSet

От: admin 11:22

k8s Deployment

От: admin 15:12

k8s Service

От: admin 7:13

k8s ingress

От: admin 3:39

k8s Namespace

От: admin 10:26

k8s Service DNS

От: admin 11:29

k8s Helm Chart

От: admin 23:35

k8s CI/CD

От: admin 2:40

k8s datastore ceph CephFS

27

0

Описание

admin

От: admin

Дата загрузки: 07/03/2023

Теги: k8s  

Курс СлЁрм по k8s

Поделиться

Share

Добавить в

Вам надо авторизоваться чтобы добавлять видеозаписи к спискам воспроизведения.

Комментарии (6)

чтобы комментировать.

admin 07/03/2023

Установка Ceph CSI driver для подключения CephFS

Все работы проводим под root'ом

Заходим на master-1 и клонируем репозиторий наш

cd ~
git clone https://edu-git.gpu.su/edu/Kubernetes
cd ~/kubernetes/practice/7.datastorage/cephfs/

Далее будем работать на двух серверах: node-1 и master-1 Все команды kubectl выполняются на master-1 Команды ceph и rbd выполняются на node-1

На серверах ingress-1, node-1 и node-2 развернут кластер ceph, более подробно установка рассмотрена в курсе по ceph.

На сервере node-1 настроен доступ в ceph с правами администратора.

admin 07/03/2023

Получаем файл с настройками chart'a

1) Заходим на master-1 и получаем переменные chart'a ceph-csi-cephfs

(ставить будем версию 2.1.2, потому что в версиях 3.x.x опять сломали изменение размера тома)

helm repo add ceph-csi https://ceph.github.io/csi-charts
helm inspect values ceph-csi/ceph-csi-cephfs --version 2.1.2 >cephfs.yml

Заполняем переменные в cephfs.yml

2) Выполняем на node-1, чтобы узнать необходимые параметры:

Получаем clusterID

ceph fsid

Получаем список мониторов кластера Ceph

ceph mon dump

3) Возвращаемся на master-1 и правим файл cephfs.yml

Заносим свои значение clusterID, и адреса мониторов, включаем создание политик PSP.

!! Внимание, адреса мониторов указываются в простой форме адреc:порт, потому что они передаются в модуль ядра для монтирования cephfs на узел. !! А модуль ядра еще не умеет работать с протоколом мониторов v2

Список изменений в файле cephfs.yml. Опции в разделах nodeplugin и provisioner уже есть в файле, их надо исправить так как показано ниже.

csiConfig:
- clusterID: "bcd0d202-fba8-4352-b25d-75c89258d5ab"
monitors:
- "172.X.X.5:6789"
- "172.X.X.6:6789"
- "172.X.X.7:6789"

nodeplugin:
podSecurityPolicy:
enabled: true

provisioner:
replicaCount: 1
podSecurityPolicy:
enabled: true

При необходимости можно свериться с файлом cephfs/cephfs-values-example.yml

Устанавливаем чарт

4) Запускаем на master-1

helm upgrade -i ceph-csi-cephfs ceph-csi/ceph-csi-cephfs -f cephfs.yml -n ceph-csi-cephfs --create-namespace --version 2.1.2

admin 07/03/2023

Создаем Secret и StorageClass

В документации указано, что provisioner'у CephFS необходимы права доступа администратора кластера. Но мы создадим отдельного пользователя fs, с более ограниченными правами

5) Создаем пользователя для cephfs

Возвращаемся на node-1

ceph auth get-or-create client.fs mon 'allow r' mgr 'allow rw' mds 'allow rws' osd 'allow rw pool=cephfs_data, allow rw pool=cephfs_metadata'

6) Посмотреть ключ доступа для пользователя fs

ceph auth get-key client.fs

вывод:

AQCO9NJbhYipKRAAMqZsnqqS/T8OYQX20xIa9A==

7) Заполняем манифест secret.yml

Выполняем на master-1

cd ~/slurm/practice/7.datastorage/cephfs/
vi secret.yaml

Заносим имя пользователя fs и значение ключа в

adminID: fs
adminKey: AQCO9NJbhYipKRAAMqZsnqqS/T8OYQX20xIa9A==

8) Создаем секрет

kubectl apply -f secret.yaml

9) Получаем id кластера ceph

Выполняем на node-1

ceph fsid

10) Заносим clusterid в storageclass.yaml

Выполняем на master-1

vi storageclass.yaml

clusterID: bcd0d202-fba8-4352-b25d-75c89258d5ab

11) Создаем storageclass

kubectl apply -f storageclass.yaml

admin 07/03/2023

Проверяем как работает

12) Создаем pvc, и проверяем статус и наличие pv

kubectl apply -f pvc.yaml

kubectl get pvc

kubectl get pv

Проверяем создание каталога в cephfs

13) монтируем CephFS на node-1

Выполняем на node-1

Точка монтирования

mkdir -p /mnt/cephfs

Создаем файл с ключом администратора

ceph auth get-key client.admin >/etc/ceph/secret.key

Добавляем запись в /etc/fstab
!!! Изменяем ip адрес на адрес узла node-1

echo "172...6:6789:/ /mnt/cephfs ceph name=admin,secretfile=/etc/ceph/secret.key,noatime,_netdev 0 2">>/etc/fstab


mount /mnt/cephfs

14) Идем в каталог /mnt/cephfs и смотрим что там есть

cd /mnt/cephfs

admin 07/03/2023

Проверка знаний:
Как называется pvc который создали на предыдущем шаге ?

Advertisement