Pull to refresh

Comments 22

Это удочка на следующую статью «Как в 2018-м мы писали статью на Хабр и где ошиблись».
Отдельному облачному бложику — привет.
Приятный рассказ, надеюсь продолжите в том же духе, делая акцент на технические моменты, а не бизнес, было бы крайне интересно.
Раз уж затронули opensource и вклад компании в него, можете привести примеры?
Публичный репозиторий нашей команды тут: github.com/C2Devel. В него выкладываем модифицированные нами opensource решения. Также мы являемся контрибьюторами (пусть и не очень активными) в проектах, результаты которых мы используем в облаке (Ceph, Open vSwitch, различные модули Puppet). Есть и отдельные небольшие проекты, написанные нашими ребятами и выложенные в публичные репозитории.
Интегратор КРОК также ведёт деятельность в opensource-сообществе, но это уже не облачное подразделение.
Спасибо, посмотрю. (просто интересно)
Таки теперь много становится более понятным.
Интересная статья.
Добавьте пожалуйста еще картинки для большей наглядности) Там схемы, сравнения, диаграммы и т. д.
В этот момент сочетание InfiniBand и All-flash дало нам совершенно дикую вещь — мы первыми на нашем рынке ввели услугу по дискам с гарантированной производительностью с жесточайшими штрафами, прописанными SLA. И на рынке на нас конкуренты смотрели с круглыми глазами.
речь идет о локальном рынке? Ибо у того же AWS лимитирование по IOPS есть с очень давних пор.

Так все таки лимитирование или гарантия? Две большие разницы…

Именно гарантия.

Технически гарантия достигается благодаря:
— использованию высокопроизводительных массивов, которые имеют большой ресурс по IOPS;
— нашему планировщику, который распределяет виртуальные диски по разным массивам в зависимости от того, на сколько те утилизированы, и того, сколько производительности должен предоставить данный виртуальный диск;
— лимитированием нагрузки на каждый отдельный виртуальный диск, чтобы расчеты планировщика не были напрасными.

А СХД я так подозреваю "массивы-скрипки"? До сих пор эксплуатируете или на что-то другое перешли?

Давние проблемы с Violin мы полечили и сейчас успешно эксплуатируем.
Также параллельно смотрим, выбираем решение, которое со временем придёт им на замену. Недавно мы внедрили ещё один тип стороджа на магнитных дисках, который работает под управлением EMC ScaleIO. Мы позиционируем его как новый «универсальный тип дисков». Он имеет схожие с амазоновским st1 volume type характеристики: ограничен 500 IOPS, производительность в MB/s зависит от размера волюма, однако не имеет бёрстинга и может быть использован в качестве загрузочного диска.
Сейчас он ограниченно доступен в облаке, так как проходит обкатку.

По ScaleIO интересно. Слышал, что есть инсталляции в России, но без конкретики. Можете рассказать что используете для межнодового взаимодействия в кластере? Ethernet 10G? Сами ноды самосбор или брендовые сервера? Сам кластер ScaleIO используете только под хранение или совмещаете роли и на серверах гипервизары тоже крутятся? Что используете из OS на нодах ScaleIO? Что можете сказать про надежность из опыта эксплуатации? Проблемы с недоступностью или потерей данных случались? Если не секрет, то насколько большой кластер сейчас у вас по количеству нод и по полезной емкости? Просто что бы представлять масштабы действа и на сколько все серьёзно :).

Компоненты кластера работают на нодах совместно с другими сервисными ролями Облака, SDS/SDC и вовсе работают на серверах-гипервизорах. ОС — CentOS 7.2. Надежность сейчас нещадно тестируется, результаты пока очень радуют. Больше технических и архитектурных подробностей вместе с ответами на все вопросы будет в готовящемся посте на эту тему.

Спасибо за ответ. Интересно будет почитать пост, когда подготовите. Буду ждать :).

Доброго времени суток. А про костыли (ну или прослойки для решения проблем) с кусками кода будете писать? Было бы интересно посмотреть, что именно из разработок на скорую руку у вас есть и из серии «быстро, быстро сделали, чтобы работало… и третий год не трогаем» :)
Извините, а где цена на услуги на вашем сайте? Ваш конкурент — Амазон — не скрывает этого.
Конкурентами Амазон я бы назвал Microsoft и Google. Догоняют-догоняют, да никак не догонят.
Мы же скорее взяли Amazon API, как де-факто отраслевой стандарт и лучшую практику.

Что касается публичных цен, то мы в основном работаем со средним и крупным бизнесом.
А точнее с задачами по размещению в облаке business critical сервисов таких организаций.
В подобных проектах обычно используются не только вычислительные ресурсы из облака, но еще и услуги по расширенной технической поддержке, проектирование, бэкап, мониторинг и т.д.

Публичные цены хороши там, где сервис высоко стандартизирован, например, на рынке SMB и физических лиц.
Когда же проекты в облаке становятся хоть сколь-либо комплексными, то в публичных ценах теряется весь смысл.
Sign up to leave a comment.