Kubernetes
Kubernetes
Инструкция по работе с kubernetes.
Подготовка
Нужны несколько машин (nodes), одна из которых будет мастером. Системные требования:
- 2GB ОЗУ или больше;
- 2 ядра процессора или больше;
- Все машины должны быть доступны по сети друг для друга;
- Все машины должны успешно разрешать имена hostname друг друга (через DNS или hosts);
- Своп должен быть выключен
Пакеты и сервисы
-
Нужно установить следующие пакеты:
# apt-get install kubernetes-kubeadm kubernetes-kubelet kubernetes-crio cri-tools
-
И запустить сервисы crio и kubelet:
# systemctl enable --now crio kubelet
Разворачивание кластера
Подготовка
Отключите подкачку:
# swapoff -a
Разворачивание
- На мастере нужно запустить одну из двух следующих команд для запуска кластера:
-
Для настройки сети с использованием Flannel:
# kubeadm init --pod-network-cidr=10.244.0.0/16
Для использования control plane образов на базе ALT вместо образов по умолчанию:
# kubeadm init --pod-network-cidr=10.244.0.0/16 --kubernetes-version=1.26.6 --image-repository=registry.altlinux.org/k8s-p10
-
Для настройки сети с использованием Calico
# kubeadm init --pod-network-cidr=192.168.0.0/16
Для использования control plane образов на базе ALT вместо образов по умолчанию:
# kubeadm init --pod-network-cidr=192.168.0.0/16 --kubernetes-version=1.26.6 --image-repository=registry.altlinux.org/k8s-p10
Пояснение флагов:
--pod-network-cidr=10.244.0.0/16
— внутренняя (разворачиваемая Kubernetes) сеть, данное значение рекомендуется оставить для правильной работы Flannel;
--image-repository=registry.altlinux.org/k8s-p10
— переопределение реестра, откуда будут скачиваться control plane образы.
--kubernetes-version=1.26.6
— использовать версию kubernetes 1.26.6 для компонентов control plane.
В конце вывода будет строка вида:
kubeadm join <ip адрес>:<порт> --token <токен> --discovery-token-ca-cert-hash sha256:<хэш>
-
Для настройки сети с использованием Flannel:
-
Настройка kubernetes для работы от пользователя
-
Создать каталог ~/.kube:
$ mkdir ~/.kube
-
Скопировать конфиг:
# cp /etc/kubernetes/admin.conf /home/<пользователь>/.kube/config
-
Изменить владельца конфига:
# chown <пользователь>: /home/<пользователь>/.kube/config
-
Создать каталог ~/.kube:
-
После этого все остальные ноды нужно подключить к мастеру:
# kubeadm join <ip адрес>:<порт> --token <токен> --discovery-token-ca-cert-hash sha256:<хэш>
- Проверить наличие нод можно так:
$ kubectl get nodes -o wide
- Вывод примерно следующий:
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME master NotReady control-plane 19m v1.24.8 172.16.0.8 <none> ALT Regular 5.15.90-std-def-alt1 cri-o://1.24.3 node NotReady <none> 19m v1.24.8 172.16.0.9 <none> ALT Regular 5.15.90-std-def-alt1 cri-o://1.24.3
Обратите внисание, что ноды находятся в состоянии NotReady. Они перейдут в состояние Ready после настройки сети.
-
Далее следует развернуть сеть. Для этого можно запустить один из следующих наборов команд:
- Для Flannel:
$ kubectl apply -f https://github.com/flannel-io/flannel/releases/latest/download/kube-flannel.yml
- Для Flannel с использованием образов на базе ALT:
- Скачиваем манифест flannel.
$ wget https://github.com/flannel-io/flannel/releases/latest/download/kube-flannel.yml
- Заменяем образы по умолчанию на образы ALT в манифесте.
- Вместо
image: docker.io/flannel/flannel-cni-plugin:v1.1.2
нужноimage: registry.altlinux.org/k8s-p10/flannel-cni-plugin:v1.1.2
. - Вместо
image: docker.io/flannel/flannel:v0.22.0
нужноimage: registry.altlinux.org/k8s-p10/flannel:v0.21.4
.
- Вместо
- С использованием sed можно заменить образы в две команды:
$ sed -i 's|^\([ tab]\+\)image: docker.io/flannel/flannel-cni-plugin:v1.1.2|\1image: registry.altlinux.org/k8s-p10/flannel-cni-plugin:v1.1.2|g' kube-flannel.yml
$ sed -i 's|^\([ tab]\+\)image: docker.io/flannel/flannel:v0.22.0|\1image: registry.altlinux.org/k8s-p10/flannel:v0.21.4|g' kube-flannel.yml
- Применяем отредактированный манифест.
- Заменяем образы по умолчанию на образы ALT в манифесте.
$ kubectl apply -f kube-flannel.yml
- Для Calico:
- Перед запуском
calico-манифестов
перейдите в каталог/etc/cni/net.d/
:
# cd /etc/cni/net.d/
- и создайте файл
100-crio-bridge.conflist
- и создайте файл
# cp 100-crio-bridge.conflist.sample 100-crio-bridge.conflist
- Запустите POD'ы из
calico-манифестов
:
- Запустите POD'ы из
$ kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/master/manifests/tigera-operator.yaml
$ kubectl apply -f https://raw.githubusercontent.com/projectcalico/calico/master/manifests/custom-resources.yaml
- Проверить, что всё работает можно так:
$ kubectl get pods --namespace kube-system
- Вывод должен быть примерно таким:
NAME READY STATUS RESTARTS AGE coredns-78fcdf6894-6trk7 1/1 Running 0 2h coredns-78fcdf6894-nwt5l 1/1 Running 0 2h etcd-k8s 1/1 Running 0 2h kube-apiserver-k8s 1/1 Running 0 2h kube-controller-manager-k8s 1/1 Running 0 2h kube-flannel-ds-894bt 1/1 Running 0 2h kube-flannel-ds-kbngw 1/1 Running 0 2h kube-flannel-ds-n7h45 1/1 Running 0 2h kube-flannel-ds-tz2rc 1/1 Running 0 2h kube-proxy-6f4lm 1/1 Running 0 2h kube-proxy-f92js 1/1 Running 0 2h kube-proxy-qkh54 1/1 Running 0 2h kube-proxy-szvlt 1/1 Running 0 2h kube-scheduler-k8s 1/1 Running 0 2h
Следует обратить внимание, что coredns находятся в состоянии Running. Количество kube-flannel и kube-proxy зависит от общего числа нод (в данном случае их четыре). Если coredns находится в состоянии "crashloopbackoff", то проверьте содержимое файла /etc/resolv.conf. Для каждой ноды в резолвере должны быть указаны реальные адреса (например 192.168.3.30, при развертывании в локальной сети на виртуальных машинах)
Тестовый запуск nginx
-
Для начала создадим Deployment:
$ kubectl apply -f https://k8s.io/examples/application/deployment.yaml
-
Затем создадим сервис, с помощью которого можно получить доступ к нашему приложению из внешней сети.
Сохраним в файл nginx-service.yaml следующую кофигурацию:
apiVersion: v1 kind: Service metadata: name: nginx labels: app: nginx spec: type: NodePort ports: - port: 80 targetPort: 80 selector: app: nginx
-
Запустим новый сервис:
$ kubectl apply -f nginx-service.yaml
-
Теперь можно узнать его порт:
$ kubectl get svc nginx
Возможный вывод:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nginx NodePort 10.108.199.141 <none> 80:32336/TCP 4h
-
Проверим, что всё работает:
$ curl <ip адрес>:<порт>
где
- ip адрес - это адрес любой из нод (не мастера), а порт - это порт сервиса, полученный с помощью предыдущей команды. Если использовать данные из примеров, то возможная команда:
curl 10.10.3.120:32336
.
- ip адрес - это адрес любой из нод (не мастера), а порт - это порт сервиса, полученный с помощью предыдущей команды. Если использовать данные из примеров, то возможная команда: