Pull to refresh

Comments 11

Ну да, HP — это DotHill, IBM — это Xiratex, плавали знаем.
А вообще конечно хорошо, что DH пошли на рынок сами, дешевле — значит интереснее конечному потребителю.
Насчет CarePack не соглашусь. На большом количестве MSA как правило покупают CarePack 24х7 сразу при покупке системы. Ибо поддержка HP действительно работает
Я HP Return Label клею на дверцу шкафа возле рабочего стола, до пола осталось совсем чуть-чуть…
> дешевле — значит интереснее конечному потребителю

Не всегда конечног потребителя интересует только цена. Очень часто кроме цены интересует стоимость и скорость саппорта.
+1
Для крупных заказчиков цена часто стоит не на первом и даже не на третьем месте. Чрезмерное уплотнение конкуренции с повальным демпингом становится в конечном итоге невыгодным даже для заказчиков.
Так что простого рецепта «давайте все перейдём на DotHill и сэкономим 20-40%» нет. Возможности по сервису просто не сопоставимы. В каких-то случаях это можно обойти: удаленность от с/ц — хранение ЗиП на месте эксплуатации, поддержка — достаточность удалённой поддержки 8x5 от партнера или 24x7 от самого DotHill. Но бывают жесткие SLA с гарантированным временем восстановления при отсутствии квалифицированного персонала на месте, и/или просто корпоративные стандарты, в конце концов.
От xyratex у ibm я думаю только корпуса как и у HP
не все стораджи IBM есть Xyratex. Но которые таки да — реальный Xyratex (которые сами по себе довольно крупный ODM)
Кстати, Xyratex уже к Seagate перешёл год назад.
UFO just landed and posted this here
У меня один простой вопрос: диски через sas expander подключены? Если да, уносите сразу. Никакой саппорт архитектурную кривизну (идеи с экспандерами) не исправит. Максимум, окажет психологическую помощь и расскажет, что «никогда такого не было и вот опять».
«Кроме того, считаю, что Карфаген должен быть разрушен» (с) ;)
Ну я очень много наелся решений от разной степени именитости вендоров и безымянных производителей, чтобы точно знать, что sas expanders — это зло. Причина в том, что если один из дисков решит сойти с ума, то он может заблокировать IO на всех дисках-соседях. Что ставит крест на любых рейдовых технологиях, которые не рассчитывают, что диски вылетают комплектами по 16-24-36 штук. И любой софт, построенный поверх, ничего с этим сделать не может. Точнее, может, самый крутой юзает полки с ethernet'ом для того, чтобы полки ребутать по side channel'у. Что очень помогает производительности — каждое IO на взбунтовавшийся диск приводит к пику latency в несколько секунд, а то и десятков секунд, и это по всем дискам. И так, пока диск не забракуют и не перестанут мучать.

В сравнении с этим direct connect (есть такие backplane'ы) позволяет переживать любой степени невменяемости диски без проблем для соседей.

Expander'ы можно терпеть только в конфигурациях, которые готовы к вылету полки целиком без значительной деградации (swift, ceph, vmware vSAN, etc).

Причём во всех случаях, когда система накрывается женским половым тазом, каждый из вендоров задумчиво почёсывает себе что-то и внятного ничего не говорит. А что говорить? Что архитектура с самого начала унылое «Г» и спасти её уже ничего не может? Замена взбесившегося диска помогает, разумеется. До следующего такого. В мелких инсталляциях оно даже может по несколько лет без сбоев работать, а потом «вдруг, повисло».
Sign up to leave a comment.

Articles