Pull to refresh

Comments 8

Это запретительно дорого почти на всех популярных облачных хранилищах

Справедливости ради, я бы не назвал условный Amazon самым дешёвым решением раздачи статики. Его мощь в куче тесно интергрированных сервисов, а также возможности масштабироваться до производительности гугла с фейсбуком (кстати, в этом случае там совсем другие, индивидуальные, цены, а ещё никакой бесплатный сервис не будет счастлив такой нагрузке). А VPS у классических хостеров выйдет дешевле, если нужен только трафик и диск, а масштабы до гугла не дотягивают. 50 Тб в месяц это не очень много. Это примерно 160 МБит/сек. VPS на такое способная обойдётся меньше сотки баксов в месяц.

Я думаю, что никто из AWS, Azure и GCP не будет дешёвым в данном случае. Возможно, Cloudflare R2 оказался бы сильно дешевле. Отдельный VPS с таким профилем нагрузки, на мой взгляд, будет сильно отличаться от других машин у хостинга и вызовет вопросы. В любом случае, сложно найти решение выгоднее, чем текущее — оно бесплатно и довольно удобно в обслуживании.

Отдельный VPS с таким профилем нагрузки

Не, в том то и фишка, это нормальный трафик для VPS, просто не на самом-самом дешёвом тарифе.

Берём первого попавшегося Hetzer - https://docs.hetzner.com/robot/general/traffic/

Видим там про 20 Тб включённого в тариф трафика и 1€ за Тб сверх лимита. 50 Тб превышают бесплатный лимит всего в 2.5 раза и это обойдётся в 30 дополнительных евро в стоимости сервера в месяц. Ну пусть даже 50, потому что не у всех серверов именно 20 Тб включено в тариф. Само существование этого тарифа показывает, что средний хостер не считает проблемой 50 Тб трафика в месяц.

В любом случае, сложно найти решение выгоднее, чем текущее — оно бесплатно и довольно удобно в обслуживании.

Это так

Да, но вы распределяете трафик 50тб равномерно в течение месяца, что не совсем корректно. 160 мбит это и правда мало, но интересно, какой у них трафик в пиках нагрузки. Я не уверен, но мне кажется, что среднее значение трафика должно быть не более 30% от максимальной возможности сервера. А то и не более 10. Поправьте, если ошибаюсь.

Закладывать 90 процентов ресурсов чтобы они просто были и никак из не использовать выглядит расточительством

Почему же, это может в теории быть необходимостью. Если у какого-то сервиса пиковая нагрузка в течение дня в 6-8 раз выше средней, то стоит иметь запас в 10 раз. Интересно, какая разница между средней и пиком у видеохостингов/онлайн кинотеатров. В течение дня люди мало смотрят фильмов, все садятся вечером после работы, а еще больше вообще конкретно в пятницу/выходные. Это конечно только предположение, но вполне возможное

Не сказал бы, что очень дорого. Если взять тот же S3 от OVH. 0.008$ за гигабайт хранилища, 0.011$ за гигабайт трафика, такое решение будет стоить меньше 1000$ в месяц, что вполне ребята могли бы осилить.

Но бесплатное решение, которое не посадит их в долги в случае DDoS и тп, конечно гораздо приятнее

Интересно, а почему ghcr.io? Там же есть ещё nuget, npm и maven-совместимые хранилища. Кажется, что сделать отдачу пакетов программ поверх них проще, чем поверх container registry, они же как раз для этого и сделаны, правда с ориентацией на конкретный язык.

Sign up to leave a comment.

Articles