Pull to refresh

Comments 109

UFO just landed and posted this here
Низкое качество кода 1с приводит к прямой зависимости отзывчивости программы от тактовой частоты процессора, что в сочетание с однопоточностью делает Turbo Boost необходимым условием нормальной работы. А в виртуальных машинах частота ограничена базовой частотой процессора. У вас еще очень удачный процессор с этой точки зрения — потеря частоты всего 0.3 GHz, а обычно все значительно хуже.
Да, я специально взял отдельную ферму серверов чисто под такие приложения (в основном 1С). И меня дико печалит что в 2018 году у нас есть такие продукты, которые до сих пор не могут нормально работать с современными процессорами… =(((((
Проблемой является не только просадка производительности, но и танцы с программными лицензиями\аппаратными ключами.
Проброс USB и PCI-девайсов

Сабака, нужен под 1С с аппаратными ключами (особенно когда 1С не продает программные, а также когда перенос ВМ с хоста на хост рушит лицензирование 1С). Но это больше проблемы 1С, чем гипервизора, что VMware, что Hyper-V.


Маленького дистрибутива, заточенного именно под виртуализацию (аналога esxi).

Есть, в принципе, Hyper-V Server, но ЕМНИП он нифига не datacenter по количеству разрешенных виндов, которые он может на себе запустить. С лицензиями у Микрософт та ещё печаль, но хотя бы datacenter edition позволяет не заморачиваться на количество ВМ и лицензий на них.


VMM крайне неудобная штука

Угу, с учетом того, что её ещё развернуть надо суметь, для пары хостов она просто ни к чему. Для серьезных ферм да, нужна, или действительно рулить через Powershell. vCenter эту штуку уделывает в одни ворота, факт.


Шикарные шаблоны виртуальных машин с Windows. Удивительно удобно.

Мы так и не научились их готовить, в результате шаблоном ВМ с виндой для нас является VHDX от виртуалки, на которой выполнен sysprep и она остановлена вместо перезапуска. После подключения копии диска к новой ВМ все айдишники генерируются заново, т.е. получается "правильный" клон исходной ВМ, к которой потом можно и дисков добавить, и ядер, и всего остального. Как у вас устроены шаблоны?


На мой взгляд VDI – это не к Microsoft и Hyper-V. Но с другой стороны стрим проложений (RemoteApp) сделан весьма добротно, и для большинства компаний мало чем будет хуже, чем тот же Citrix.

К сожалению, да, VDI это тихий ужас (либо у нас мало ресурсов, чтобы его полноценно оценить). А RemoteApp — технология, независимая от Hyper-V, хотя и рекомендовано её использовать в виртуальной среде, и возможно, она тут не к месту. Всё же вещь приятная.


Слабая поддержка сторонними вендорами готовых образов виртуалок для Hyper-V

Главное — получить VHD/X, саму ВМ можно создавать просто по параметрам (vCPU, RAM, network и прочее), вот только скорее всего generation придется ставить первый. Плюс в некоторых ОС нет (или плохо искал) интеграции с гипервизором Hyper-V, а встроенный диск интеграции содержит только файлы для Windows.


А так — хороший гипервизор, уже с версии 2012R2. Раньше было хуже, и намного.

Сабака, нужен под 1С с аппаратными ключами (особенно когда 1С не продает программные, а также когда перенос ВМ с хоста на хост рушит лицензирование 1С). Но это больше проблемы 1С, чем гипервизора, что VMware, что Hyper-V.

Не знал про тему с миграцией и программными ключами, но столкнулся в живую. Тогда не догадался, а сейчас все встало на свои места. Как обычно 1С сделала «все для людей»
Мы используем для этих целей AnyWhereUSB.
Не осилили по цене. Взяли USB Network Gate В качестве хостов используем устаревшие ноутбуки.
Есть, в принципе, Hyper-V Server, но ЕМНИП он нифига не datacenter по количеству разрешенных виндов, которые он может на себе запустить. С лицензиями у Микрософт та ещё печаль, но хотя бы datacenter edition позволяет не заморачиваться на количество ВМ и лицензий на них.

Его установка ничем не отличается от Core установки обычного сервера (за исключением того, что изначальный образ больше). Места он займёт столько же, если выбрать аналогичные роли.
Разница в лицензировании — Hyper-V Server бесплатный. Может вы там хотите крутить виртуалки с Linux, например.
Тут тонкости в лицензировании опять же.

Для бесплатного ESXi:
— Do not have manufacturer support.
— Hast 2 physical CPUs (sockets).
— Unlimited cores per CPU.
— Unlimited RAM memory.
— Maximum 8 vCPU for each VM.
— The license has no expiration date: It never expires.
— The ESXi host can not be added to the Virtual Center.
— vStorage APIs are not available.

Что дает невозможность использовать vMotion, Storage vMotion, нет поддержки кластеров, нет поддержки нормального бекапа.

Для бесплатного Hyper-V:
— Отсутствие поддержки со стороны вендора.
— Отсутствие SDS
— Отсутствие нормально виртуализации сети
— Не лицензирует запущенные на нем ВМ

А все остальное, как собрать кластер, мигрировать на живую (как ВМ, так диск), подключить к VMM и управлять не лимитируется никак. Standard в этом плане только лицензирует 2 ВМ на этом хосте, Datacenter — все Windows Server на этом хосте (под лицензированием понимается не «возможность запуска» ВМ, а «возможность использования» операционной системы Windows Server такой же редакции внутри ВМ).
«подключить к VMM» — так его то как раз и нужно купить.
Точно так же как надо купить и vCenter. Разве нет?
А можете подтвердить, то что нет необходимости покупать vCenter при использовании бесплатного ESXi? Это какая-то бесплатная версия vCenter? Или вы говорите про то, что есть локальная консоль управления, если зайти на IP ESXi?

ЗЫ: Если что — это не троллинг, а я действительно пытаюсь понять про что вы говорите =)
Бесплатный ESXi к vCenter не подключается. Просто невозможно, вне зависимости от того, что vCenter с лицензией.
ESXi версии 6 начиная с какого-то апгрейда (не помню номер) уже содержит встроенный веб-клиент. Т.е. к ESXi можно подключаться хоть старым добрым windows клиентом, хоть через браузер.
Немного подробнее про подключение.
Клиент он единый, — вводишь имя vCenter подключаешься к vCenter, вводишь имя ESXi — подключаешься к ESXi. Если это Web клиент, то после имени ESXi нужно вводить "/ui".
Если речь идет не о бесплатном ESXi, то он однозначно управляется vCenter, на котором можно настроить политику, запрещающую подключение клиентом к ESXi.
Если же нужен кластер, то на бесплатном ESXi его не построишь. Необходимо приобрести редакцию Essentials, которая включает максимум три хоста + vCenter, который чисто для этих трех хостов, не более. Ну а если больше трех хостов — то отдельно vCenter + лицензии на проц. для ESXi.
В таком случае тут надо сравнивать не с VMM.

Для управления любым Windows Core сервером нужен либо полноценный сервер с графической оболочкой, либо Windows соответствующего релиза (к примеру для Windows Server 2012R2 Core нужна Windows 8.1, для Windows Server 2016 Core — Windows 10 1607) с установленным бесплатным комплектом RSAT (подробнее).

VMM имеет смысл сравнивать только с полноценным vCenter. Но если VMM по сути только средство управления и автоматизации (кластера и ВМ можно полноценно настраивать через GUI или RSAT), то vCenter — это не только средство управления и автоматизации, но и средство конфигурирования, без которого половина функционала гипервизора недоступна.
то vCenter — это не только средство управления и автоматизации, но и средство конфигурирования, без которого половина функционала гипервизора недоступна.
Поэтому я и расписал подробно про различные варианты его применения.
Без VMM админить кластер не удобно, но для базовых операций вполне достаточно. Кроме того есть 5nine Hyper-V Manager, опять же Power Shell. В этом отношении бесплатный Hyper-V конечно же выигрывает в части отказоустойчивости.
Сабака, нужен под 1С с аппаратными ключами (особенно когда 1С не продает программные, а также когда перенос ВМ с хоста на хост рушит лицензирование 1С). Но это больше проблемы 1С, чем гипервизора, что VMware, что Hyper-V.

Пользуемся аппаратной ключницей SEH myUTN, в т.ч. для 1С, работает без нареканий, ни разу не отваливалось ничего.
«Она денег стоит, а у нас их нет» (с) директор. Из-за вот такой политики и делаем как можем. А железка хорошая, если её «VLAN enabled» означает, что она может видеться как несколько разных IP-адресов, подойдет и для нескольких клиентов с разными подсетями в одной инфраструктуре. Надо будет почитать повнимательнее, спасибо за инфу.
Проброс ключей создаёт другую проблему: виртуалка привязыватся к хосту, так что не работает HA и сам хост нельзя перезагружать без её выключения.
Есть такая тема, да. Зато без дополнительных расходов (время не в счет, он его считать не умеет).
Software-defined storage — это то, что мне очень не понравилось в Hyper-V. Storage Spaces Direct не видел SSD, постоянно ломался. Одним словом не работал. В vmware все завелось на раз: HDD + SSD в группе, все ОК. И все это на двух хостах. И я уже начал забывать про Thick provision eager zeroed, ибо дисками управляет политика. И скорость работы очень радует. Но конечно в отличии от windows здесь vSAN стоит денег. Про уменьшение размера диска — это да, есть такое. Правда в версии 6.5. UNMAP вернули, и даже автоматический.
Ну а в целом — вы не затрагиваете продвинутые фичи vmware. Значит они вам не нужны, и, следовательно, для ваших задач Hyper-V достаточен. А если достаточно — зачем платить больше.
Добавьте в Вашу табличку chkdsk. У VMWare есть утилита для поиска ошибок на разделах датастора, но вот исправить их не получится — contact VMWare support team.
Да, столкнулся я этой штукой. У нас был epic fail когда мы сделали размер LUN-а на схд больше физического объема дисков. Вот никто не предполагал что товарищи программисты возьмут и бахнут огромные объемы на тестовые машины.
В итоге датастор отвалился. Причем для esxi до 5 восстановление работало — а теперь нет =(
Так что chkdsk — штука нужная иногда
Hyper-V — дитя маркетинга или реальная альтернатива?

Такой заголовок, будь он не в блоге MS, автоматически предполагал бы ответ «дитя маркетинга». А в вашем блоге, не менее безусловно, будут обратные выводы.
Спасибо, но — нет.

В Hyper-V виртуальные диски можно как увеличивать, так и уменьшать

При этом гостевая ОС — Windows?
Такой заголовок, будь он не в блоге MS, автоматически предполагал бы ответ «дитя маркетинга».

На мой взгляд весьма странное и весьма спорное утверждение. В таком ракурсе можно сказать про любую сущность в нашем мире — везде присутствует доля маркетинга.
А в вашем блоге, не менее безусловно, будут обратные выводы.

Согласен, что вряд ли бы вышла статья где была бы одна строчка — «MS — must die, XXXX — rules». Тут вроде ресурс для взрослых адекватных людей, которые в основной массе своей понимают что нет абсолютного зла и абсолютного добра. Есть просто инструменты решающие или не решающие задачу. Тем более что в статье есть информация о том, что в продукте плохо.
Спасибо, но — нет.

Тут конечно же у каждого свой выбор, но хотелось бы понять почему. Чисто из любопытства.
При этом гостевая ОС — Windows?

Да, но у Linux появился штатный механизм изменения дисков налету? Без извращений и предварительной доработки напильником? (вполне вероятно что я просто не знаю о том, как это сделать)
Честно говоря, я бы больше поверил, будь это просто пост, не в корпоративном блоге. Ничего личного, просто эхо get the facts.

Опыт говорит, что на hyper-v хорошо держать только VM с виндой. Линукс можно, но на конкурирующих решениях почему-то он работает лучше.

Ну и не знаешь, чего и ожидать от MS. Придумать лицензирование серверов по ядрам (когда уже не купить сервер, в котором было бы только одно или два ядра) — это все равно что брать плату за вдохи, иезуитская модель, а юзеры не любят, когда их за дураков держат.
>Линукс можно, но на конкурирующих решениях почему-то он работает лучше.
Давно юзаю Centos в Azure, а он оказывается плохо работает. Обоснуйте, пожалуйста.

По теме — единственный минус для меня в Hyper-V это то, что не умеет, как VMWare показывать рабочий стол виртуалок с линуксом с копипастом и всем остальным добром. А так несколько лет на Hyper-V и никаких проблем. К тому же он искаропки на десятке. Но я не энтерпрайз, в промышленных масштабах не юзал.
При этом гостевая ОС — Windows?
Да, но у Linux появился штатный механизм изменения дисков налету? Без извращений и предварительной доработки напильником? (вполне вероятно что я просто не знаю о том, как это сделать)

Поведение KVM (на примере Proxmox) — увеличил диск — появилось не размеченное место — использовал по своему усмотрению (например добавил в LVM-группу и растянул ФС).
Поведение Hyper-V — увеличил диск — выругался (вместе с гостевой ОС) — перезапустил (!) ВМ — увидел не размеченное место — далее по аналогии с пред. вариантом.

В принципе — тоже самое и про добавление CPU/RAM — у Hyper-V виртуалку нужно тушить.
Все проверял лично на примере CentOS 7. Для Hyper-V гостевые тулзы был поставлены с реп (вроде нынче это — best practice, не?).
Так о каких извращениях речь?
CPU/RAM — у Hyper-V виртуалку нужно тушить
.
У vmware HotAdd CPU убивает NUMA.
А горячее добавление RAM только в версии 6.0. позволило раскидывать память по нодам NUMA. Но если машина не большая — то очень полезно (в некоторых случаях и на ограниченном числе ВМ).
Поведение Hyper-V — увеличил диск — выругался (вместе с гостевой ОС) — перезапустил (!) ВМ
Все проверял лично на примере CentOS 7

М-м-м, CentOS — да, в части динамического управления ресурсами Hyper-V для линуксов не родной. RAM, кстати, заявлено, что добавляется/отнимается на лету, по крайней мере, для LIS 4.1. Процессоры, вроде как, и для виндов не добавляются динамически (может, потом допилят динамическое добавление ядер, хотя бы в винды). С дисками надо проверять.

выругался (вместе с гостевой ОС) — перезапустил (!) ВМ

Надо пнуть SCSI-контроллер, чтобы пересканировал шину:
echo 1 > /sys/class/scsi_device/0\:0\:0\:0/device/rescan
echo "- - -" > /sys/class/scsi_host/host0/scan


Это не баг Hyper-V или VMware, а фича линукса на KVM. Также как возможность увеличивать/уменьшать разделы на Windows без плясок с бубном вокруг fdisk и lvm.
А вот и нет. Ресканить я пробовал в первую очередь. Не проканало, увы.
Странно это, может виртуалка была первого поколения с IDE-контроллером?
Да. Именно. Но тут сложней. Из Gen2 даже шаблон сделать не удалось (привет UEFI вроде). Может есть какие лайфхаки у знающих? :)
Отключение SecureBoot и переложить в правильное место загрузчик помогают.
SecureBoot — слишком очевидно… :)
Правильное место — а вот тут поподробней, вдруг у нас «правильность» мест — расходится?
Ну к примеру если у вас Ubuntu, то вот статья на сайте МС с предлагаемыми настройками: Supported Ubuntu virtual machines on Hyper-V, а вот такая же по всем Никсам в куче: Supported Linux and FreeBSD virtual machines for Hyper-V on Windows.

При этом при наличии Премьер поддержки, если не получилось по этим статьям «завестись», то МС траблшутит вплоть до выпуска фиксов для указанных ОС.
>>Из Gen2 даже шаблон сделать не удалось (привет UEFI вроде).
>>Может есть какие лайфхаки у знающих? :)
>Отключение SecureBoot и переложить в правильное место загрузчик помогают.
В качестве конспекта Ж-) Пункт
12. Before attempting to copy the VHD of an existing Generation 2 VHD virtual machine to create new Generation 2 virtual machines, follow these steps:
...
подпункт e.
# sudo mv shimx64.efi bootx64.efi
Хм. Кажется расходится. Эту доку (и соседнюю про CentOS) находил, но скорее всего читал уже «по диагонали». Спасибо, попробую еще раз по возможности.

PS: Кстати, справедливости ради: указано что VSS позволяет делать live backups. Оно их делает. Но порой виртуалка с Zabbix (с довольно интенсивной работой с диском) уходит в ООМ и начинает паниковать. Очень редко, да, но бывает.
Этому поможет обновление ядра (если есть, т.к. модули hv сейчас идут как часть ядра), проверка того что нужные демоны установлены и запущены, а так же статья из того же раздела:
Best Practices for running Linux on Hyper-V

The Linux kernel has four different I/O schedulers to reorder requests with different algorithms. NOOP is a first-in first-out queue that passes the schedule decision to be made by the hypervisor. It is recommended to use NOOP as the scheduler when running Linux virtual machine on Hyper-V. To change the scheduler for a specific device, in the boot loader's configuration (/etc/grub.conf, for example), add elevator=noop to the kernel parameters, and then restart.
Благодарю. Сподвигли меня попробовать еще раз :)
Мнение о Hyper-V у меня вряд ли уже изменится, но для общего развития будет полезно :)
Это вопрос того кто с чем изначально работает. У нас основа сейчас Hyper-V, потому знаю его достаточно хорошо (и VMM, и прочие компоненты).

Нам сейчас надо сделать еще одно крыло виртуализации уже на VMWare… и вот тут для нас начинаются трудности, т.к. «все не так и все не то».

Так что тут дело не холивара, а исключительно привычки и объема навыков и знаний.
Для меня блокером использования Hyper-V являются:
1. Отсутствие встроенного мониторинга — надо ставить монстроподобный SCOM вместо красивых графиков с алармами у VMware из коробки.
2. Сложность траблшутинга и скудность информации в сети, тогда как в ESXi большинство проблем лечится перезагрузкой или переустановкой с подтягиванием настроек из хост-профайлов и vDS.

Кстати, а SDN на Hyper-V умеет микросегментацию?
По первому пункту не согласен — всегда использовал Veeam в бесплатной версии. Лучше родного мониторинга в vmware.
А вот со вторым пунктом полностью согласен.
Недавно проводил углубленный анализ поведения NUMA в ESXi, и даже не представляю как сделать тоже самое в Hyper-V.
2016 умеет, но глубоко не вдавался.
1. Отчасти согласен, но только отчасти
2. Тут удивлен. Статей просто море, но вот рускоязычных точно меньше чем по вмваре. Ну и вопрос привычки — линуксоидам ближе вмваря, виндузятникам — гипер-в
С англоязычными не лучше, на сотню блогов по VMware приходится пяток по Hyper-V.

И про привычку я бы поспорил: у VMware сейчас подход более виндузовый, чем у современного MS, который клепает своё поделие для Azure и клиентов с премьер-поддержкой.

Подскажите, а почему вы сравниваете устаревшую версию esx (5.5) с новой версией windows server?

Это последнее, что покупали. Нелицензию не используем
Но ведь для тестов прекрасно подходит пробная версия на 60 дней.
Да и ничего за пределами бесплатной версии вы вроде не используете.

Именно. Иначе выходит игра в одни ворота: сравнивается свежая версия hyper-v с двухлетней esx

да, согласен, сравнение не идеальное, но тут еще наша специфика — сравнивали с тем, на чем работаем
Это не специфика, это эпик фэйл на мой взгляд.
В VMWare 5.5 и 6, а уж тем более 6+ это очень разные вещи.

Еще такой вопрос, а вы в VMWare ставили паравиртуалные драйвера для дисков и сети внутри VM?
сравнивается свежая версия hyper-v с двухлетней esx

сравнение не идеальное, но тут еще наша специфика — сравнивали с тем, на чем работаем
Это не специфика, это эпик фэйл на мой взгляд.
В VMWare 5.5 и 6, а уж тем более 6+ это очень разные вещи.

К сожалению, на практике, сравнение «имеет право на жизнь»:
в апреле 2017 видел «у людей» — все сервера с ESX 5.X
Почему «к сожалению» и как это относится к бенчмаркам? Их надо проводить в одинаковых условиях, а значит сравнивать последние доступные версии.
как это относится к бенчмаркам?
Увы, жизнь — не игра по правилам ( real life isn't fair play ) :-(

бенчмарки надо проводить в одинаковых условиях,
а значит сравнивать последние доступные версии

Да, при «честной игре» в поединке участвуют
борцы одинаковой «весовой категории»
А вот «за пределами спортзала» всё происходит несколько иначе

Читаем «постановку задачи»:
мы обновили парк серверов. А старые остались,
причем неплохие, только уже медленные по нынешним меркам

( Кстати, на
Dell FC 630, 2 процессора Intel Xeon E5-2643 v4
ESX 6.5 сможет работать? )

решение сделать ферму для разработки

( ESX 5.5 ) последнее, что покупали. Нелицензию не используем

Предполагаю:
не дали денег на закупку ESX 6.5 и(или) vCenter для non-prodaction
и не было смысла тестировать то, что не будет использоваться
Читаем «постановку задачи»

У 5.5 поддержка заканчивается через 8 месяцев и в блоге вендора это выглядит как обычный FUD.
ESX 6.5 сможет работать?

Работать смогут даже десятилетние серверы на Xeon 5400, а FC630 есть в HCL.
( а вот поддержку 100Mb DEC она же Legacy LANCard «выкинули»,
среди прочего... )
У 5.5 поддержка заканчивается через 8 месяцев
Значит, вовремя мигрировали

P.S. однако, привередливость к hardware у ESX всегда была выше
а вот поддержку 100Mb DEC она же Legacy LANCard «выкинули»

Шутите? Зачем вам эта карта? Вот честно?
100Mb DEC она же Legacy LANCard

Зачем вам эта карта?

Для Nested ESX inside Hyper-V
Нэстед гипервизор это только совсем немного поиграть. Если чуть серьезнее, надо нормальный стенд разворачивать.

Hyper-V все еще не научился будить VM с других карточек?
Немного поиграть бывает удобно...

будить VM

про «wake on lan» в H-V не слышал...

из достижений:

В VM Hyper-V есть два вида карт:
— legacy
и
— syntetic

В Gen2 появился загрузка по PXE и с syntetic lancard

P.S. вот от Nested ESX в GEN2 я бы не отказался Ж-)
Если не нравиться legacy, согласен на драйвер для nested ( и для syntetic SCSI)
Ну пусть MS сделает нормальную эмулируемую сетевую карту, пример у них есть.
VVM>>>> 100Mb DEC она же Legacy LANCard
>>>Зачем вам эта карта?
VVM>> Для Nested ESX inside Hyper-V
> пусть MS сделает нормальную эмулируемую сетевую карту
Лучше — полномасштабная поддержка работы «внутри Hyper-V»:

0a) Облака ( источник — communities.vmware.com ):
The whole idea is run ESXi in a VM in Azure IaaS, where I cannot use legacy NIC…

0b) VMware всё равно придётся решать проблему VMware Workstation in Hyper-V.

Обучение отключению Credential Guard/Device Guard ( Turn on Virtualization Based Security ) в Article 2146361 вызывает «сложные эмоции» у заботящихся о защите от «утечки паролей»

1) Эмулированная и так есть в наследство от Virtual PC
Для «игр и роста» достаточно было и legacy сетевой карты с «DECchip 21140 Ethernet driver» из net-tulip-1.1.15-1.x86_64.vib

Именно было, т.к., как сообщает Billy Wong, даже в «линейке» ESX 6.0:
Found the latest version esxi iso block the net-tulip
Blocked Build version:
ESXi-6.0.0-20171104001-standard (Build 6921384)
Worked Latest version:
ESXi-6.0.0-20170604001-standard (Build 5572656)
Не говоря уже про ESX 6.5...
К сожалению сравнивать все версии vmware со всем версиями hyper-v возможности не было. Цель этого теста была сугубо практическая — насколько пострадает или нет продакшен при переходе. Результатами поделился.
Да, драйвера стояли от vmware
Почитал. ИМХО бред.
1. По тестам выходит что на vmware 1с работает быстрее чем на простом компе. Это явный показатель подтасовки или/и кривого сбора данных.
2. Опять же кофигурация стенда весма спорная.
3. Не во всех тестах винда хуже
4. Очень старые версии ПО. Ну уж совсем старые

P.S. Комментарии под статьей тоже говорят о большом количестве нюансов неосвещенных в статье
недавно проверял тестом гилева 3 варианта
на одном и том же сервере поочередно устанавливалось
1. ESXi 6: Виртулка W2012R2 + 1С 8.3 + MS SQL 2014(Shared memory)
2. Hyper-V 2012R2: Виртулка W2012R2 + 1С 8.3 + MS SQL 2014(Shared memory)
3. Железо: W2012R2 + W2012R2 + 1С 8.3 + MS SQL 2014(Shared memory)

Результат почти такой же как в статье, на Hyper-v проигрыш 10-15%. Железо и ESXi — почти одинаково.
На мой взгляд не корректно сравнивать два эти теста — в вашем варианте почти не играет роли сеть (скуль и сервер приложений на одном сервере) ну и у вас обратная ситуация — новый vmwera и старый hyper-v :)
Это явный показатель подтасовки или/и кривого сбора данных

Где-то попадалось, что NUMA-планировщик ESXi работает лучше линуксового и некоторые операции в ВМ выполняются быстрее.
Автор кстати не корректно пишет про:
«1.1.4. Отключить Memory Setting -> Node Interleaving (включает NUMA) — отключено.»
Это не так.
Node Interleaving наоборот выключает NUMA. Т.е. если параметр
«NUMA Node Interleaving», включен, то ноды объединаются в единое пространство, что отключает распознавание NUMA-нод.
Иными словами, если гостевая ОС поддерживает работу с NUMA, Node Interleaving необходимо действительно выключать. Иначе гостевая ОС узлы NUMA не увидит.
А по поводу планировщика ESXi, то в версиях 6.0 и 6.5 архитектура виртуальной NUMA отличается.
В версии 6.0. производительность в некоторых многопочных приложениях зависит от настройки ядро-на-сокет. Например если у вас два процессора по 12 ядер, и вы поставили ВМ 32 vCPU (32 процессора по одному ядру) то создается три виртуальных NUMA узла и балансировщик бессильно дергает лапками — производительность падает. Но если вы ручками поставите 4 процессора по 8 ядер, то создается 4 узла vNUMA и балансировщик отлично их раскидывает по двум физическим нодам. Производительность в два раза выше. Т.е. большие ВМ лучше не создавать ибо граблей кроме этого примера хватает.
А вот в версии 6.5. виртуальные NUMA узлы создаются исходя из физической топологии.
Да, навернее было бы корректнее написать «маскирует NUMA от гостевой ОС»
Вы так пишете, будто кто-то ещё не прочёл Host Deep Dive :)
Про уменьшение диска для Linux в любом гипервизоре. Я не админ, поэтому лет 10 назад у меня этот рецепт работал с настоящими железками. В случае любого гипервизора делаете тоже самое с виртуальными, а не настоящими дисками:
— делаем бэкап
— добавляем новый PV в LVM группу
— отключаем старый PV (тогда был риск потери данных, но у нас же бэкап)
Опытные админы давно говорят, что ставить надо только английские версии серверных продуктов Microsoft. А в идеале и десктопных.

А что за лучшие практики VMware упоминались?
Есть такой документ у vmware. Официальный. Он обновляется для каждой версии. Но он содержит скорее общие рекомендации. Автор использует Round Robin — а там очень много нюансов. И они зависят от производителя оборудования и от его рекомендаций по настройке, например число IOPs для переключения. Т.е. правильная настройка может улучшить производительность.
Опять же можно тщательно промониторить как ведет себя дисковый ввод ввывод, где живет очередь команд, как она изменяется в зависимости от типа балансировки (Round Robin — это тип балансировки). Это штатными средствами. Еще можно использовать утилиты не включенные в основной функционал, разработанные самими сотрудниками vmware так сказать в свободное время. Очень полезно знать какие размеры блока и с какой частотой генерирует каждый диск ВМ. В зависимости от этого можно принимать решение на каком сторажде размещать диски или какую политику на них вешать.
Но это уже тонкий тюнинг. В большинстве случаев он не нужен и, следовательно, Hyper-V вполне достаточен.
По моему визуализировать 1с и sql имеет смысл только на небольшое количество пользователей, а если пользователей 200 и более то смысл виртуализации?
UFO just landed and posted this here
Миграция с хоста на хост это да очень большой плюс.
но если пользователей много и VM 1c и sql большие ( на весь хост) то наверно преимущество получается сомнительное.
Когда я тестировал однопоточным тестом результаты были такие:
50 на железе (Shared Memory)
42 на железе на разных серверах
45 на VM (Shared Memory)
37 на разных VM и разных хостах
получается если нужна производительность и много пользователей то только голое железо
с небольшим количеством пользователей можно и на VM.
Может есть у кого примеры виртуализации 1с и SQL 200-300 активных пользователей
с размером базы 500-900GB.


Вируализована база 400+ пользователей и 1,5 тб база. Живет нормально, пользователи не жалуются. Но вот качество кода должно быть очень на высоте — малейший просчет и получаем дикие тормоза.
По поводу shared memory — очень спорный момент. 1с сама толком не может дать окончательные рекомендации, но по своему опыту скажу — разнесение дает выигрышь технический. 1с требует быстрые ядра, но не требовательна к их количеству. Sql же наоборот — более требователен к количеству ядер, но их скорость не критична. Вот и получается что постоянно балансируешь межу взаимоисключающими вещами.
Hyper-V Server по-прежнему бесплатен, в т. ч. и последняя версия 2016. Как раз похоже на ESXi — нет графической оболочки, минимум ролей, они раньше называли это Core. Майкрософт, правда, как и в случае Hyper-V Server 2012, особенно наличие такой штуки не афиширует. Тыц!
UFO just landed and posted this here
А можете рассказать что у вас крутиться на машинах с 500мб памяти (если это не секрет конечно же)? Просто мне казалось что сейчас 1-2 гига озу уже практически стандарт.
300 виртуалок на 6 (12) ядер, 50:1… мне тоже интересно, что там такое крутится на виртуалках?
Вроде, статья не плохая, но, почему-то, у меня четкое ощущение, что мне что-то навязывают.
Странно, я как раз всячески этого пытался избежать. Идея была именно поделиться своей историей. Хотя возможно это отпечаток корпоративного блога :)
Скорее всего, так и есть. Хотя, надо отметить, что у меня все изначально было(и есть) на Hyper-V, а VMware стоит для тестов.
Не так давно пришлось выбирать гипервизор для работы вин2003+Sql2000 + 1c 7.7.
Удивительным образом на hyper-v связка работала невозможно медленно, в отличие от kvm и vmware.
А так да, общая стоимость владения у hyper-v выходит меньше, с мигрирующими виртуалками и вот-этим-всем.

Remoteapp же с 1с работает всё ещё паршиво — то модальные окна пропадут, то ещё что. В отличие от полноценного rdp…
Как сейчас обстоят дела с поддержкой nested virtualization? Если я все правильно помню, то она работала только в рамках Windows 10 в Windows 10 и так далее docs.microsoft.com/ru-ru/virtualization/hyper-v-on-windows/user-guide/nested-virtualization

esxi позволяет прокинуть vmx внутрь и, например, запустить какую-нибудь ubuntu с cuckoo sandbox внутри виртуалки, запуская внутри еще одну с виндой.
По поводу ESXi — если у Вас есть только два хоста, например в удаленном офисе, и вам не нужна там целая СХД, то vSAN вполне может развернуться на этих двух хостах, а в качестве необходимого третьего будет выступать как раз вложенный гипервизор.
Hyper-V тоже как-бы позволяет собрать хранилку на двух хостах. Но лично у меня кластер при выключении одного хоста жил, а вот при выключении другого уже нет… Т.е. не все хосты одинаково полезны.
Как сейчас обстоят дела с поддержкой nested virtualization?
Отлично Ж-)
Windows 10 в Windows 10

На практике «есть варианты»:
Прямо сейчас в «VirtualBOX в VM Windows 10 на Win 10» работает nested VM
UFO just landed and posted this here
Прямо сейчас в «VirtualBOX на Windows 10» работает nested VM

Просто работает, или использует ускорение для вложенной виртуализации?

Скажем так — скорее всего, да:
Все опции в подразделе «Hardware Virtualization» ( VT-x и Nested Pages) включены,
раньше ( до Win 10/Win 2016) их приходилось отключать
спасибо, можете глянуть в самой вложенной виртуалке CPU-Z-ом наличие поддержки vt-x? если на linux то grep vmx /proc/cpuinfo
Да, проверил «output» команды
grep vmx /proc/cpuinfo

в VM Linux ( Proxmox VE 5.1) в VirtualBOX-in-Hyper-V

внутри «самой вложенной» виртуальной машины VT-x нет

Но, это «особенность ПО» VirtualBOX — VM 64bit in VM нет:

https://www.virtualbox.org/ticket/4032
Ticket #4032 (new enhancement)
[feature-request] Nested Virtualization: VT-in-VT

P.S. Это не отменяет пользу VBOX внутри Hyper-V VM, например:

Proxmox VE 5.1 установить напрямую в H-V VM ни в GEN1, ни в GEN2 не вышло.

Установил proxmox-ve_5.1-3.iso в «VirtualBOX-in-Hyper-V»,
затем скопировал .vhd, подключил к «обыкновенной» H-V VM Gen2,
успешно загружается
1.1.3. Включить System Profile Settings -> Turbo Boost (в документации Turbo Mode) — включено.
1.1.5. Включить Power Management -> Maximum Performance — похоже включено.
1.1.7. Отключить System Profile Settings -> С1E — отключено.

Это настройки для low latency workloads, которые отключают Turbo Boost.
Сразу бросается в глаза, что даже на столь примитивной задаче, автор встречаемся с массой неприятностей. Ну и что тут холиварить — рынок говорит и выбирает уже который год подряд.
Это как раз и есть холивар. Я же написал что проблема была не в продукте, а в настройках, сделанных нами. И кстати да, рынок выбирает — почти во всех крупных цодах и SaaS-провайдерах есть и vmware и hyper-v. И hyper-v вполне себе хорошо продается. Так же посмотрите на количество новых инсталляций к VMWare и сравните их за последние лет 5 — удивитесь =)))
Хоть я и рьяный приверженец vmware, но, тем не менее, не буду рекомендовать ставить vmware везде и всегда. Сторонники Hyper-V меня конечно могут закидать чем-нибудь, за подобное сравнение, но считаю что нет смысла возить картошку в мерседесе С-класса. Дорого и глупо.
Каждая платформа для своих задач. И я также не думаю что Hyper-V «вообще не о чем». Просто я работал и с Huawei, и с отечественными продуктами. Есть с чем сравнивать.
А по поводу количества новых инсталляций — это конечно интересно. Где можно посмотреть?
Посмотрите хотя бы квадрант Гартнера, кто сейчас в лидерах. А то что вы «рьяный приверженец» — это видно :))))
Еще можно почитать статьи на хабре: кто лидер, а кто реальная альтернатива.
В принципе согласен с автором, hyper-v действительно, сейчас уже, не сильно уступает VMware, кроме одного специфического нюанса — при развертывании нового сервера, в случае использования ESXi, достаточно подготовить новую флешку (sd-карту) с гипервизором, воткнуть её в сервер, включить и в 95% (по моему опыту), после загрузки хост можно будет без проблем подключать к vCenter или использовать другим образом.
Не то в случае использования Hyper-v, во первых, штатно использовать флешку или SD-карту нельзя, нужен внутренний носитель (на мой взгляд это лишнее), во-вторых, если у вас возникнет справедливое желание, для виртуализации использовать Windows Server в режиме ядра, но по каким-то причинам нет желания вводить хост в домен, то настроить удалённое управление hyper-v на этом хосте, вот прямо так просто не получится, т.к. Microsoft считает, что штатно машина должна быть в домене. В-третьих, если вы разворачиваете Windows Server в режиме ядра и по каким-то причинам, поставляемый вендором оборудования мастер установки ПО не отработал, то установка драйверов в Windows Server без графической оболочки, может превратиться в отдельный интересный квест.
Sign up to leave a comment.