Pull to refresh

Comments 45

Прикольно, люблю я подобную работу :) А чего не на Xeon-D на 8 ядер? Конечно чуть дороже будет… А от UPS сколько живёт? :)
Вообще классно, мне такого домой очень не хватает :)))
Мы радостью использовали бы Xeon D, но в NUC он, к сожалению, пока не устанавливается. И при текущей нагрузке процессора более, чем достаточно, утилизация редко превышает 50%, но большое количество ядер не помещало бы. До UPS руки пока не дошли.
До UPS руки пока не дошли.

Приватный ЦОД в поле — то же хорошо :)
Ага, особенно если он может питаться от небольшой солнечной батареи
Xeon-D вообще не вариант, система на них стоит почти как нормальный Twin.
Хотя и NUC нельзя назвать идеальным выбором при наличии OptiPlex x050 и ThinkCentre Mx10 в схожем форм-факторе, но дешевле и лучше.
За то — экономичный :)
UFO just landed and posted this here
А блоки питания вы стандартные оставили у нюков?
Да, блоки питания стандартные. При этом в штатном режиме работы стенда (все 5 NUC: загрузка ЦП ~50%, памяти 80-90%) греются они очень умеренно. 4 месяца, полет нормальный.
А чем они реально занимаются?
Или эти 50% просто накладные расходы?
Ежели будете менять потом блоки питания на определенное решение или далее заниматься этой темой — я просто требую от вас статью (: Очень интересное решение.
Интересно было бы глянуть что на таком железе можно сделать с Proxmox. И будет ли оно легче/тяжелее того что у автора получилось.
Согласен и, думаю, что Proxmox заведется без проблем. Кстати, в планах сделать гетерогенный SDDS — добавить еще 2-3 NUC, развернуть на них KVM+oVirt+CEPH, заменить NSX-V на NSX-T для единообразного управления SDN-сетями на обоих платформах.
Если таки попробуете, будет интересно глянуть. А то там ниже люди спрашивают про стоимость лицензий — у проксмоса с этим получше. Можно и совсем бесплатно пользовать.
Посчитайте пожалуйста стоимость лицензий на всё заявленное удовольствие
Присоединяюсь к вопросу. Обычно стоимость лицензий равна стоимости железа. А тут?
Это где такая халява?
Один vCloud Suite стоит 10 килобаксов на процессор, плюс VSAN с NSX за столько же, плюс VBR, плюс Windows Server или RHEL.
В реальных проектах под каждый случай мы считаем цены отдельно, а это по сути RnD, в реальной жизни такую штуку бы никто не собирал. Но если посмотреть на цены на сайте VMware — www.vmware.com/ru/products/vsphere.html, они считаются по физическим процессорам, стоимость лицензий превышает стоимость NUX в разы.
Есть ещё бесплатный ESXi, вполне ок для нескольких серверов
И как дела с температурой, если действительно поставить их в ящик стола?
У нас в центре решений Intel два NUC, используемых для digital signage замурованы «в пристенке» за пластиковой фальшпанелью, вообще без вентиляции. Корпуса теплые, но не слишком. Что будет при 100% утилизации, не знаю, но при средних нагрузках теплообмена хватает. Скорее всего, летом в ящике хорошего дубового стола им всё же будет нехорошо.
UFO just landed and posted this here
UFO just landed and posted this here
вот времена пошли, раньше уборщицы роняли сеть в офисе, теперь могут и цод поломать, прогресс ))
Даёшь кластер на Raspberry/Orange Pi! Интересно, будет ли у такого ДЦ преимущество перед x86-64?
Дома имею «кластер» из трёх вторых RPi. На них стоит Hypriot OS. Все три машинки собраны в Docker Swarm. Использую для своих Pet проектов. И что бы играться с разными микросервисными штуками.

Но есть с этим хозяйством несколько проблем:
  1. Не всё умеет собираться под arm
  2. Некоторые приложения умею запускаться только под 64-битами. Например, некоторые базы, в моём случаи это MongoDB
  3. Мало памяти. На 1Gb не всё запускается/собирается
Идея отличная! Думаю, сейчас еще рано говорить о полноценном программно-определяемом ЦОД на Raspberry/Orange Pi, но для таких задач, как исполнение множества экземпляров приложения на множестве устройств в SDN-сети, уже, наверное, годится. Например, веб-приложения. Единственное — нужно посчитать, будет ли экономически оправдано.
UFO just landed and posted this here
А есть варианты таких дешевых и компактных пк с 2-4 сетевухами?
для нормального построения сети?
Если рассматривать вариант с 2-4 сетевыми портами, то без дополнительного PCI-E сетевого адаптера уже не обойтись. Соответсвенно, нужен PCI-E разъем на материнской плате и слот в корпусе. А это уже другой форм-фактор: микро-сервер, мини-tower и т.д.
UFO just landed and posted this here
Есть какие-то варианты Depo Neos Compact с двумя сетевыми 1Gbit портами.
А почему вы используете глупый esxi вместо умного kvm'а, который поддерживает nested hardware virtualization? Идеально же для лабораторий.
Мы изначально хотели построить SDDC на стеке продуктов VMware. Сейчас планируем добавить KVM+oVirt+CEPH+NSX-T и сделать наш SDDC гетерогенным. На ESXi nested виртуализация тоже работает.
UFO just landed and posted this here
ну наверное это имелось ввиду про «неплохую виброзащиту нюков» :)
На танк поставят скорее такой:
Отлично. Завтра покажу колегам. Переведу на FB основные моменты « карманного кластера»
В рамках нашего небольшого кластера vSAN на 1 GbE сети производительность вполне приемлемая. Единственное, при развертывании больших OVA упираемся в физическую пропускную способность сети.
UFO just landed and posted this here
Sign up to leave a comment.