Подготовка узлов кластера в VMmanager

Материал из ISPWiki
(перенаправлено с «Подготовка узлов кластера»)
Перейти к: навигация, поиск

Иерархия: VMmanager KVM -> Установка и начальная настройка панели управления
VMmanager KVM -> Настройка кластера
VMmanager Cloud -> Установка и начальная настройка панели управления
VMmanager Cloud -> Настройка кластера

Системные требования

Поддерживаемые операционные системы:

  • CentOS 7 x64 (рекомендуется);
  • CentOS 6 x64.

На одном из серверов должна быть установлена панель управления VMmanager. Панель управления следует устанавливать на самый отказоустойчивый сервер. Этот сервер может выступать также и в роли узла кластера. В таком случае к нему предъявляются те же требования, что и к узлам кластера. Панель управления рекомендуется устанавливать на "чистый сервер": сервер, на котором установлена операционная система без установки и настройки дополнительных сервисов и без подключенных сторонних репозиториев. Все необходимые репозитории будут подключены автоматически в процессе установки VMmanager.

Корректная установка программного продукта не гарантируется, если в системе подключены сторонние репозитории.

На все узлы кластера должна быть установлена одна и та же версия операционной системы. ОС должны совпадать до минорной версии. Панель управления не позволит добавить в кластер узел, если его операционная система отличается от той, что установлена на сервере с VMmanager. Например, нельзя добавить в кластер узел с CentOS 7.6, если на мастер-узле — CentOS 7.5.

Рекомендуется использовать на узлах кластера последнюю доступную минорную версию ОС.

Не рекомендуется обновлять операционную систему узла кластера со сменой мажорной версии.

Требования к сети

  • Все узлы кластера должны находиться в одном сегменте сети;
  • Сервис SSH на каждом узле должен слушать на порту 22;
  • Для версии Cloud: ihttpd не должен слушать все адреса (*);
  • В сети между узлами кластера должен быть разрешен multicast (для версии KVM не требуется). Убедитесь, что на коммутаторе, к которому подключены сервера, неактивна опция "igmp snooping". Данная опция активирует протокол, блокирующий multicast. Между узлами и хранилищем multicast не нужен;
  • Защита от multicast шторма должна быть отключена. Это очень важное требование, если оно не выполняется, то служба диагностики доступности узлов кластера может функционировать некорректно;
  • При использовании сетевых хранилищ следует учитывать необходимую пропускную способность сети.

Особенности для версии Cloud

Все серверы должны обладать как минимум двумя Ethernet-подключениями: на одном должен быть настроен "белый" IP-адрес, на втором ­— внутренняя сеть. Эта внутренняя сеть объединена в один VLAN. При добавлении узлов кластера необходимо указывать IP-адрес из внутренней сети; "белый" IP-адрес необходим для возможности подключения клиентов по VNC.

VMmanager Cloud может работать на любом из узлов кластера и IP-адрес лицензии будет перемещаться с одного узла на другой вместе с панелью управления. Рекомендуется выделить для лицензии отдельный "белый" статический IP-адрес на мастер-сервере, а для управления сервером (подключение по SSH) и прочих целей использовать основной статический IP-адрес. После включения облачных функций IP-адрес лицензии необходимо сделать не статическим, чтобы при перезагрузке сервера этот адрес не появился на сетевом интерфейсе сервера. В CentOS такая проблема решается удалением записи об адресе из /etc/sysconfig/network-scripts/ifcfg-<интерфейс>.

Настройка брандмауэра

На узлах кластера должны быть разрешены входящие подключения на порты:

  • 22/tcp - сервис SSH, со всех узлов кластера, из публичной сети по необходимости;
  • 111/tcp - rpcbind для NFS, со всех узлов кластера;
  • 662/tcp,udp - pftp для NFS, со всех узлов кластера;
  • 892/tcp,udp - NFS, со всех узлов кластера;
  • 1500/tcp - ihttpd, для доступа к веб-интерфейсу панели из публичной сети и для доступа с узла панели к сервисам панели на узлах кластера;
  • 1515/tcp - vmwatch-master мониторинг состояния VM, со всех узлов кластера на сервер с панелью;
  • 2049/tcp,udp - NFS, со всех узлов кластера;
  • 32803/tcp - NFS, со всех узлов кластера;
  • 32769/udp - NFS, со всех узлов кластера;
  • 5900-6900/tcp - QEMU VNC. Если доступ к VNC осуществляется только через панель, диапазон портов должен быть открыт для сети, объединяющей узлы кластера;
  • 15900-16900/tcp - websockify, трансляция QEMU VNC для веб-интерфейса noVNC, доступ из публичной сети;
  • 49152-49261/tcp - сервисы миграции libvirt, со всех узлов кластера.

Дополнительно для версии VMmanager Cloud должны быть открыты входящие подключения со всех узлов кластера:

  • 5404-5405/udp - corosync multicast, со всех узлов кластера. Может варьироваться в зависимости от настроек облачных функций в панели;
  • 21064/tcp - dlm, со всех узлов кластера;
  • 41966-41969/tcp - rgmanager, со всех узлов кластера;
  • 50006-50009/tcp - ccsd, со всех узлов кластера;
  • 50007/udp - ccsd, со всех узлов кластера.

Рекомендации по настройке дисковой подсистемы серверов

При установке на узлы кластера CentOS 7 рекомендуется в качестве файловой системы использовать XFS.

Шаблоны операционных систем, которые использует VMmanager для гостевых операционных систем, по размеру занимают около 80 Гб (большие по размеру шаблоны Windows, 10-15 Гб каждый шаблон; Linux шаблоны требуют порядка 100 Мб каждый). Шаблоны располагаются всегда в директории /nfsshare/, которая дублируется на каждый узел кластера. Раздел /nfsshare/ должен быть порядка 60-80 Гб, однако если не планируется использовать Windows на гостевых машинах или в дальнейшем создавать собственные шаблоны операционных систем, то размер раздела может быть меньше. /nfsshare/ не обязательно должен был отдельным разделом, обычно это директория корневого раздела.

Если планируется использовать механизм резервного копирования, в корневом разделе должно быть дополнительное свободное место из расчёта 2,5*<максимальный размер диска виртуальной машины>.

Таким образом, рекомендуется выделить 100-150 Гб (+ место под резервные копии, если необходимо) под корневой раздел. Остальной объём жёсткого диска — под раздел /vm, если в качестве хранилища планируется использовать локальную файловую систему, либо под linux-lvm раздел, если в качестве хранилища планируется использовать локальный LVM.