Pull to refresh

Comments 21

Богато, спасибо.

Присутствует отдельный раздел управления шаблонами ВМ. 

шаблоны только Linux, или есть возможности и по win ?

Группировка ВМ в интерфейсе возможна по тегам.

по кластерам \ локации и как идет раздача прав на группу виртуалок ?

Что с affinity ?

vmxnet3 используется при импорте ВМ из VMware.

Экспорт из вари встроенный или как ?

Имеется 4 варианта выбор из раскрывающегося списка: virtio

Скорость virtio не проверялась ?

В карточке диска возможно изменить тип шины диска, либо указать при создании. Доступны четыре режима: virtio, ide, scsi, sata.

NVME нет?

При использовании разделяемого блочного хранилища между узлами необходимо форматировать LUN в кластерную файловую систему.

правил настройки под вендора нет ? Аналогично Using Claim Rules to Control ESXi Multipathing Modules ? Под AA , ALUA, ANO ?

NFS какой ?

DRS настраивается на кластер и выполняет роль сервиса, который выравнивает нагрузку по всем узлам, входящих в кластер.

Судя по панельке, нет режима "согнать активную нагрузку на хосты, максимально сосвободив парочку серверов" - The vSphere Distributed Power Management (DPM) feature allows a DRS cluster to reduce its power consumption by powering hosts on and off based on cluster resource utilization.

Что с режимами и affinity ? https://4sysops.com/archives/vmware-drs-tips-and-tricks/

Ролевой доступ

Наследование ролей на группы VM ?

Интеграция с почтовыми системами

TLS 1.3 умеет ?

Для отказоустойчивости сервера управления рекомендуется настроить репликацию контроллера. Переключение контроллера из slave в master осуществляется в ручном режиме.

И как его искать, если DRS его куда-то утащит ?

Мониторинг присутствует — для этого необходимо перейти на соответствующую вкладку. Отображает всю необходимую информацию.

Аналог esxtop есть ?

Историческая информация доступна в карточке узла на отдельной вкладке. По каждой задаче есть карточка с результатом выполнения.

есть интеграция с елкой, чтобы результаты забирать \ отправлять ?

и классика - что с RDMA 25\100 ?

есть интеграция с елкой, чтобы результаты забирать \ отправлять ?

Из ELKи были elastic и kibana, где-то с 6.1 версии они перешли на loki и grafana, можно забирать оттуда.

 

и классика - что с RDMA 25\100 ?

Ядро сети? LUN в ВМку прокинуть можно, 10G работают и даже бондируются, а вот с адаптерами 25/100, уверен, что лучшим ответом будет, как написали в комментарии ниже, надо тестировать.

    Присутствует отдельный раздел управления шаблонами ВМ.

шаблоны только Linux, или есть возможности и по win ?

➣Есть и по Win системам.

   

Группировка ВМ в интерфейсе возможна по тегам.

по кластерам \ локации и как идет раздача прав на группу виртуалок ?

➣Группировка по тэгам есть как отдельное меню, там в раскрывающемся списке под тэгом все помеченные ВМ.

Объединения по организациям слышал обещают.

А раздача прав, насколько мне известно, задаётся на уровне пользователя, может вместе с организациями и это изменится.

 

Что с affinity ?

➣Affinity в режиме раннего развития, можно с помощью тэгов задавать допустимые для ВМ узлы, через те же тэги реализован anti-affinity для виртуалок, чтобы при отработке механизмов автоматического управления ресурсами машины не размещались на одном узле.

 

    vmxnet3 используется при импорте ВМ из VMware.

Экспорт из вари встроенный или как ?

➣Экспорт встраиваемый, на базе ovftool и vmkfstools, не без нюансов, но перегнать диски и восстановить ВМ хватает. Иногда не угадывает с типом загрузчика, приходится вручную его менять. https://spacevm.ru/docs/6.4.0/how_to/import-export/esxi/

 

    Имеется 4 варианта выбор из раскрывающегося списка: virtio

Скорость virtio не проверялась ?

➣У нас в ВМке скорость практически такая же, как у хранилища, на котором лежит виртуальный диск, у нас обычные SSD.

 

    В карточке диска возможно изменить тип шины диска, либо указать при создании. Доступны четыре режима: virtio, ide, scsi, sata.

NVME нет?

➣NVMe нет, но есть проброс PCI устройств, если надо монопольно и быстро. А в чем смысл такого режима эмуляции? Какое хранилище обеспечит такую скорость?

 

    При использовании разделяемого блочного хранилища между узлами необходимо форматировать LUN в кластерную файловую систему.

правил настройки под вендора нет ? Аналогично Using Claim Rules to Control ESXi Multipathing Modules ? Под AA , ALUA, ANO ?

➣Настройки под вендора есть прям списком, есть Булат, Рейдикс и Ядро. Можно конфигурацию поправить под себя через CLI, но на каждом узле придется.

 

NFS какой ?

➣3 и 4, с последним обновлением даже заработал all_squash на nobody (65534)

   

DRS настраивается на кластер и выполняет роль сервиса, который выравнивает нагрузку по всем узлам, входящих в кластер.

Судя по панельке, нет режима "согнать активную нагрузку на хосты, максимально сосвободив парочку серверов" - The vSphere Distributed Power Management (DPM) feature allows a DRS cluster to reduce its power consumption by powering hosts on and off based on cluster resource utilization.

➣Энергосбережения, как мне кажется, ещё не завезли.

 

Что с режимами и affinity ? https://4sysops.com/archives/vmware-drs-tips-and-tricks/

➣DRS есть, даже работает, у нас отрабатывает по пределам нагрузки на проц. Про аффинити выше написал, можно запрещать и не пускать на определенные хосты.

 

 Ролевой доступ

Наследование ролей на группы VM ?

➣Тут только назначение ролей на пользователя и группы.

 

    Интеграция с почтовыми системами

TLS 1.3 умеет ?

➣Умеет, многие умеют, года так с 2019

 

    Для отказоустойчивости сервера управления рекомендуется настроить репликацию контроллера. Переключение контроллера из slave в master осуществляется в ручном режиме.

И как его искать, если DRS его куда-то утащит ?

➣Кто его утащит, он же памятник. А если серьезно, то тэги и поиск по ним весьма помогают.

 

    Мониторинг присутствует — для этого необходимо перейти на соответствующую вкладку. Отображает всю необходимую информацию.

Аналог esxtop есть ?

➣Ну тут сложно, прям такого нет, но есть top в CLI и есть htop в bash. ВМки там можно найти по ID.

Кроме того, мониторить можно в веб-интерфейсе.

 

 

➣NVMe нет, но есть проброс PCI устройств, если надо монопольно и быстро. А в чем смысл такого режима эмуляции? Какое хранилище обеспечит такую скорость?

NVME over FC например. И напомню, что первоначально на СХД данные валятся в кеш, а он весьма быстрый.

А если серьезно, то тэги и поиск по ним весьма помогают.

Какие теги, если он лежит, как памятник ?

➣У нас в ВМке скорость практически такая же, как у хранилища, на котором лежит виртуальный диск, у нас обычные SSD.

Под единичной операцией, видимо. И напомню, что нет такой характеристики, как "обычные SSD" - есть read intensive \ write intensive, есть consumer \ enterprise, etc. Обычный бывает только стиральный порошок

Я по прошлым статьям вопросов накидал (внизу)

https://habr.com/ru/articles/787948/

но они в в том числе про производительность и траблшутинг.

КСТАТИ - как собрать логи всего хоста и виртуалки для анализа из гуя? Support bundle то есть ?

Журналы системы можно из гуёв выгрузить, на мой взгляд пока слабовато, чтобы прям support бандлом называть, но есть.

МакОС в ней запуститься?

Слышал что были у них проблемы на железе определённых вендоров. Возможно уже пофиксили. Похожего функционала на VMware NSX здесь нет? Необходимо использовать аппаратные МСЭ?

Похожего функционала на VMware NSX здесь нет? Необходимо использовать аппаратные МСЭ?

Вам какой именно надо "похожий " функционал ?

Я не нашел такого. Но, на мой взгляд, на текущем этапе развития российских продуктов виртуализации не стоит пытаться реализовывать технологически сложные задачи из разных областей в системе виртуализации. Мне видится более надежным путем — это дать каждой системе делать свою работу и выбирать для каждой системы “лучшего” из доступных производителей. 

Задачу сегментации передать межсетевым экранам, задачу построения фабрики реализовать средствами коммутаторов ЦОД.

При использовании разделяемого блочного хранилища между узлами необходимо форматировать LUN в кластерную файловую систему.

В какую ?

GFS2. Вроде раньше была еще OCFS.

Речь про GFS2. Также в документации встречается OSFS2, но она заявлена как Deprecated.

"Подход с разработкой собственного продукта. Всегда радует, когда команда делает что-то свое и минимизирует переиспользование open source решений. На мой взгляд, это самый перспективный подход." - вот тут многократно плюсую! Что SpaceVM, что VMmanager в этом плане молодцы. Я таким решениям больше доверяю, что опенсорсу

Как пользователь данной системы виртулизации, хочу сказать спасибо за тест. В целом, при выборе системы виртуализации данный экземпляр оставил довольно положительное впечателние, после чего перешли на нее. В процессе выявились косяки системы, но надо отдать должное, поддержкой они довольно быстро устраняются.

О проблемах которые присутствуют сейчас (говорить буду про версию 6.2.0, однако знаю что они присутствуют также и в более новой версии):

Репликация:- периодические проблемы с репликацией. Даже несмотря на наличие репликации ( у других вендоров она очень часто предоставляется за отдельные деньги и не входит в базовый дистрибутив) наблюдаются проблемы. Могут спарадически и необьяснимо накапливаться снимки реплик, в результате чего в определенный момент реплика может сломаться/перестать делать бекапы/ перестать работать некоторый функционал. То есть за репликой нужно следить.

  • После удаления основной машины и запуска реплики, реплицируемая машина не перестает быть репликой и могут быть прецеденты когда система может посчитать, что реплику можно будет удалить и удаляет. - При реплике недоступно указывание на какой storage будет реплицироваться машина. В данном случае есть система установлена на raid - 1TB, а остальной локальный сторадж на 10ТБ и таких сервера 2 - то реплика будет по умолчанию будет направляться на 1ТБ сторадж, даже если основная машина на 10ТБ сторадже. Выбора в этом функционале нет. Почему то Даком считает, что система и хранение данных должно быть в одном пуле.Такая же ситуация если имеется внешняя полка. Все равно реплика будет направляться туда, где стоит система.

Интерфейс:
По интерфейсу вопросов уже почти нет, за исключением одного момента:

  • Почему возможно удалить работающую запущенную виртуальную машину вместе с диском? Да, в меню стоит галочка "Удалить диски - да нет" но почему это можно сделать если виртуалка работает? В том же HyperV в принципе кнопка убрана из меню чтобы случайно не нажать удаление, и диск все равно не удалится.

Хранилища: Отсутсвие возможности из системы подцепить 2й и более локальный пул данных. Да, есть функционал подключить zfs - но если у меня уже есть определенное хранилище с файловой системой и мне не требуется zfs - то я не могу использовать еще допольнительное хранилище.
За исключением костыльного метода монтирования папки из под shell и дальнейшее подключение хранилища как local2.

Данные вопросы озвучены техподдержке и вендору, однако на некоторые вопросы вендор предпочитает отвечать в духе - Мы рассмотрим ваши предложения и при необходимости внедрим их.

Спасибо за комментарий с практической стороной вопроса!

А вы не тестировали репликацию с внешней СРК? Например, тем же КиберПротектом.

Как раз в проде перешли с Veeam на CyberBackup + SpaceVM. Ощущения, скажем так, смешанные. Не без нюансов. Поделюсь опытом, посколько довольно длительный опыт уже накопился по этой связке.
1)Если взять в общем - связка работает хорошо. Машинки размером от 50гб до 10-15 ТБ бекапятся без проблем. Но не редки случаи когда агент агент на спейсе зависает в момент бекапа. Причем может отвиснуть и завершить бекап корректно. А может и не сделать бекап и перезагрузится / либо потребуется принудительная перезагрузка агента. В этом случае можем увидеть в хранилище незаконченный том бекапа сразу, либо при переподключении хранилища.
В случае с самим планом этого бекапа - он может как выполятся потом, так и потребовать пересоздания плана при запуске бекапа.

2) Уж не могу понять чья ошибка, но CyberBackup не делает бекап машин, если в SpaceVm поставить наименования машин AstraLinux и Redos. При этом если ставим другой тип виртуалок то бекап проходит корректно, даже если это астра или редос. Ошибка довольно забавная, если считать что с 3х сторон импортозамещенное ПО :)
По крайней мере ошибка всплывает в 6.2.1 и кибербекап 16.0

Конечно, в общих чертах Кибер работает со Спейсом довольно неплохо и безошибочно и глобально особо проблем не возникает. Но детские болезни все таки есть по типу:
- не может удалить снимок бекапируемой машины
- диск отцепить от агента периодически не может
- нет возможности восстановить машину БЕЗ сетевой карты в принципе.
- при восстановлении не может восстановить виртуалку с типом диска IDE, но при этом меняем на SATA или ISCSI восстановление проходит.
Детские такие болячки, вроде не критично и всплывает не всегда, но напрягает.
Нет такого, чтобы оставить сервис на неделю и он работал автоматизированно. За ним нужно приглядывать.

Хочется добавить к обзору автора опыта реального использования:

Про простоту установки:

  • К сожалению не реализована установка в на программный RAID (возможно установить используя консоль есть но это прямо боль) передаём привет при импортозамещении на оборудовании HP с его SmartArray грабли там где никто не ждёт....

  • Производитель не может подсказать по совместимости с оборудованием =( Если задавать каверзные вопросы мы тут хотим купить железку за много килобаксов одну или другую она будет совместима с вашим ПО по части драйверов ответ примерно "ну если оно заработает, вы нам скажите"

Про производительность:

  • При переносе терминального сервера с Hyper-V на SpaceVM увы получили значительную потерю производительности условно почти в два раза ухищрения типа выставления модели процессора для проброса в VM (что срабатывало в ProxMOX) не помогли где грабли пока не нашли =(

Про Способы подключения к виртуальной машине:

  • Увы есть постоянные глюки в работе интерфейса если использовать через Web консоль не соосность мышки в консоли и экране доставляет БОЛЬ и страдания

  • Для подключения через SPACE нужно открывать доп порт что есть особенности которые нужно понимать, не во всех крупных сетях заработает без приключений.

Про резервное копирование (точнее восстановление):

  • к сожалению есть грабли при восстановлении из резервной копии не знаю почему но время включения VM не выставляется в время создания резервной копии, в результате могут быть КРАЙНЕ неприятные последствия в системах чувствительных к тому чтобы всё было в нужных таймингах (к примеру восстанавливая контроллер домена из резервной копии вы почти гарантированно его "положите")

  • Были замечены случаи когда при восстановлении машины менялся ID жесткого диска что тоже может приводить к блокировкам =( (но тут первопричину пока не выяснили или SpaceVM или к системе резервного копирования но т.к. это связка то запишем сюда)

Про мониторинг системы:

  • Увы но мониторинг часто подвисает и по сути дела на него опираться невозможно сейчас, но иногда оно работает.

Про проблемы:

  • Внутренняя база (postgreesql) спонтанно может расширится и выжрать всё место отведённое под систему что приведёт к "некоторым" проблемам.... ( обычно в вашей премиальной части за Uptime =))) Боже дай знания об SQL юным программистам!!! хотя бы про "full vacuum" и мотиторинг БД.)

  • Если нода у вас загружена примерно на 90% по ОЗУ и работает чуть более пары недель без перезагрузок не стоит выключать виртуальную машину т.к. вы её можете не включить =( ибо есть некоторые проблемы по расчету доступной ОЗУ для старта VM (с которыми безусловно борется производитель и есть положительные сдвиги) но пока есть все хансы к тому что ноду прийдется перезагрузить =(

также Есть проблемы с HA и iSCSI вызванные сетевой доступностью, но там на статью интриги и расследования потянет... нам уже год обещают это исправить ждём надеемся и верим.....

Спасибо, что поделились опытом использования! 

Sign up to leave a comment.

Articles