Pull to refresh

Comments 21

как по мне 180$ в месяц это очень дорого, тоже думаем над бекапами, но при таких ценах проще свой сервер под бекапы выделить…
От объёма зависит. У вас тоже терабайт?
Еще не терабайт, но все равно… На Amazon бекапить вижу смысл если до 50-100$ влажываться, а дальше проще свой сервер, который кстати сможет не только для бекапов пригодиться.
Надёжность? Своих серверов тогда нужно в разных дата центра и сервера получаются очень не слабые.
Разве проблема, два сервера посадить в два ДЦ?
а по серверу, то для таких целей подойдет и Atom с 2-я hdd в raid1
Это будет дороже или примерно столько же что и у Amazon. Но нужно будет ещё заморачиватсья с взаимным резервированием, заменой вышедших из строя комплектующих и т.п. А так этим всем Amazon занят :) Правда, если сервера ещё какую-то дополнительную работу делают (что не хорошо, ибо это backup), то сервера конечно же выгоднее будут.
Хм. А у нас получается, что терабайт стоит примерно 3600руб. в месяц. И это без необходимости городить специальные протоколы — NFS, ISCSI, SMB, FTP — всё что угодно на вашем собственном сервере.
оффтопик: а вы не думали сделать услугу аналогичную S3? то есть только сторедж?
У нас нет такого разделения. Мы предоставляем вам свободу конструктора, из него уже можно делать всё, что хотите. Собственно, принимающий и простаивающий сервер будет стоить незначительно на фоне стоимости дисков. Разделять «диски отдельно», «сервера отдельно» я не хочу.
А какой у вас фактор репликации? Если данные в единственном экземпляре, то амазон дешевле будет — около 100$ за терабайт.
термин «фактор репликации» мне не известен, избыточность — сетевой миррор двух RAID60 на двух хранилищах, у самого RAID60 избыточность 4:22.
Я избыточность и имел в виду. Прочитал про RAID60 — похоже, именно так и амазон устроен. Они тоже обещают, что данные не потеряются при выходе из строя любых двух дисков. У вас выходит выгоднее.
прошу прощения, у вас — это где?

в профайле не нашел информации
Спасибо, интересное решение, в избранное.

Вопрос такой: не сильно ли тормозит fuse?
Что считать сильно? Из датацентра 500-мегабайтные архивы уходят за 3 минуты, процессор при этом загружен меньше 5%.
Классно! Свой сервер тоже через Bacula бекаплю. Мне интересно — на s3 в принципе не поддерживается простое изменение файлов (дописать пару байт) или это проблемы реализации fuse модуля?
Насколько я знаю, это ограничение самого S3.
Почему каждый пост о бэкапах начинается с фразы про два типа людей?
Потому же, почему в каждой второй маршрутке над дверью наклейка «место для удара головой».
В Virtuozzo клнтейнере как правило хер ты подключишь модуль ядра для работы с FUSE
особо хитроумные пользователи AWS используют EC2 для бекапов и используют там rsync, а на s3 держат только снимки состояния EC2
Sign up to leave a comment.

Articles