AWS — EKS Fargate — Fluentd CloudWatch

На момент написания статьи EKS Fargate не поддерживал драйверлог для записи в CloudWatch. Единственный вариант — использовать Sidecar Создадим ConfigMap, в котором укажем имя EKS кластера, регион и namespace:   Далее создадим сервис аккаунт и ConfigMap с файлом конфигурации для Fluentd. Для этого скопируем текст ниже и сохраним его как файл "fluentd.yaml"   И применим … Продолжить читать "AWS — EKS Fargate — Fluentd CloudWatch"

FIX ERROR — EKS: cloudwatch — 0/1 nodes are available: 1 Insufficient pods.

После установки CloudWatch Agent'а в EKS кластер, его поды повисают в состоянии "Pending"   Смотрим дескрайб пода   Решение: Решение было найдено тут. В данном EKS кластере для системных подов выделена отдельная NodeGroup'а с типом истансов: t3.micro и для запуска еще и CloudWatch Agent'a просто не хватает ресурсов.   После изменения типа инстанса в большую … Продолжить читать "FIX ERROR — EKS: cloudwatch — 0/1 nodes are available: 1 Insufficient pods."

FIX ERROR — CentOS 7 kubectl: Invalid choice: 'eks', maybe you meant

При попытке выполнить любую команду "kubectl" на EKS кластере возникает следующая ошибка: Invalid choice: 'eks', maybe you meant:   Возможная причина этого, это старая версия "kubectl", доступная в репозитории.   Решение: Установить последнюю версию "kubectl" используя PIP3   Для использования "kubectl" установленным с помощью PIP, нужно чтобы директория бинарных файлов PIP была в переменной PATH, … Продолжить читать "FIX ERROR — CentOS 7 kubectl: Invalid choice: 'eks', maybe you meant"

EKS — RollingUpdate с запуском pod’а на том же инстансе

Необходимо выполнить обновление пода без даунтайма, но у пода есть volume, который является EBS, и может быть приатачен одновременно только к одному из EC2 инстансов. Поэтому необходимо, чтобы под был запущен на той же ноде, для этого можно воспользоваться "podAffinity" deployment.yaml

FIX ERROR — EKS: error: You must be logged in to the server (Unauthorized)

После создания EKS кластера при попытке использовать kubectl, появилась такая ошибка:   Решение:   Где "artem-eks-staging" — имя вашего кластера Так же не забудьте указать правильный AWS Region

Kubernetes — Dashboard через service по HTTPS (AWS EKS)

Задача: Получить доступ к Kubernetes Dashboard по доменному имени, а не используя "kubectl proxy". Так же подключение должно осуществляться по HTTPS, но при этом вести на внутренний локальный адрес, доступный только через VPN, и не используя для этого никаких Ingress'ов.   Редактируем деплоймент "kubernetes-dashboard":   Приводим аргументы к следующему виду:   А так же для … Продолжить читать "Kubernetes — Dashboard через service по HTTPS (AWS EKS)"