Pull to refresh

Comments 191

спасибо! как раз сейчас подобным занимаюсь
Как все ж таки своевременна эта статья. Аналогично собираем сейчас сервер для проекта на работе. Вот кто б еще хороший коллокейшн в Киеве подсказал.
Хорошая статейка, для того чтобы войти в курс дела. Спасибо.
UFO just landed and posted this here
хостинг в штатах был изначально на выделенном сервере, но очень слабый + пинг до штатов огого + ограничения по траффику.
Настала пора расти, и так как проект русскоязычный, то логичнее всего его размешать у нас. Поставился в http://datahouse.su/ на безлимитном тарифе ( с соотношениями) за 2950/мес за все. На самом деле это очень дорого за colocation. Но так получилось что я сначала собрал сервер, а уже потом выяснил что в москве и поставится особо негде - все переполненно.
UFO just landed and posted this here
для критичных банковских к примеру приложений такой сервер конечно непонятно что сляпанное на коленке. Просто для моего проекта и его текушего масштаба больше не надо.
А вы считате что офисный компьютер ненадёжен? Всё зависит от проекта - на примерно таком у нас 5 лет несколько проектов прожили. И ничего - суммарное время простоя по вине сервера за 5 лет - где-то три дня (шлейфы после очередного переезда повыпадали, а случилось это по закону подлости как раз на выходные).
Пинками сервак перевозили ?
UFO just landed and posted this here
В другом городе-стране лучше брать дедик. И оставить заботу о железе датацентру.
на дисковую при таком количестве оперативной памяти можно сильно снизить обращаения кешированием, memcached, виртуальный диск для temporary таблиц, сессий и т.д. а в дальнейшем если всё упрётся именно в неё диски можно поменять на САС, докупив внешний рейд (если влезет, конечно)
За такие деньги без проблем дедикейтед где нить в Амстере взять....
А как насчет соединения к сети (интернет)? Используется встроенный в мать Ethernet контроллер или внешний? И какая там ширина канала?
встроенный гигабитный контроллер. У хостера подключен к 100Мб порту. А как там выходит реально - кто знает, зависит от загруженности канала.
Какая нагрузка на сервер в течении суток в среднем? Сколько хостов в день?
в районе 3500 - 4000 загрузок страниц. Сервер взят навырост :)
А на вырост это на сколько? Как обычный SATA диск справляется с юзверями?
Спасибо за статью.
RAID-0 получился?
Какую операционнку будете ставить?
с самого начала решил делать RAID1, а) хотелось избыточности для сохранности б) сервер 99% времени работает на отдачу, не знаю кто быстрее в таком режиме работает (RAID0 или 1), но чтение распараллеливается.
RAID0 распараллеливает чтение. RAID1для сохранности используется данных. Скорость чтения при RAID1 та же, что и один диск. Просто при неисправности одного из дисков все данные сохраняются. Есть варианты с RAID0+1. Соответственно используется 4 диска (в основном) и это даёт прирост в производительности плюс сохранность данных при неисправности одного из приводов. А по делу использовать обычные комплектующие на сервер... Хотя Вам решать ;-)
Из википедии "RAID 1 (Mirroring — «зеркало»). Обеспечивает приемлемую скорость записи и выигрыш по скорости чтения за счёт распараллеливания запросов. Имеет высокую надежность - работает до тех пор пока функционирует хотя бы один диск в массиве."
Да и не логично было бы имея два диска читать только с одного
Все зависит от контроллера на самом деле ;) Может и с одного читать и вроде как один из винтов беречь от износа (тоже вроде логично).
Гугл год назад писал про диски в своих датацентрах. статистика показала что кореляции между количеством запросов на 1 диск и его датой смерти почти нету. То есть для диска износ это практически фикция.

А про контроллер это верно.
RAID 0+1 бывает и на двух дисках, например у HP
с самого начала решил делать RAID1, а) хотелось избыточности для сохранности б) сервер 99% времени работает на отдачу, не знаю кто быстрее в таком режиме работает (RAID0 или 1), но чтение распараллеливается.
Поставил Windows Server 2003. Получился WAMP :) Кстати вполне доволен, почтовик (mDaemon) и FTP (Serv U) вообще минут за 10 поднялись
лицензию ставили или можно с пираткой прокатить?
не буду говорить что я ставил, но скажу что в датацентрах на это абсолютно не смотрят
некорректно такие вопросы задавать ;)
Сервер же не датацентра, в случае чего он сдаст его органам без лишних вопросов и договор колокейта покажет. И никаких забот ему больше.
Зачем винду? о_О
Я когда сервер брал, нашёл человека, который практически за символическую плату настроил линукс со всеми нужными мне службами и провёл вводный курс по администрированию. Когда сервер уже работал, у меня было время потихоньку освоиться с линуксом на домашней машине.
Такие вопросы как будто баннеров на хабре не читаете :)
Шутка. Винда - воткнул диск, поставил все часа за 2, настроил апач и MySQL и спокойно администрируешь. Все работает, ничего не тормозит, не виснет. Память никуда не утекает, а такое было на прошлом сервере с FreeBSD, и не знал куда копать. Я не говорю что винда лучше, мне просто работать надо, а не линукс изучать.
PHP под виндой (а у вас ведь Drupal вроде) работает медленно, тк основная задача php win кое-как работать и не глючить, те служить для localhost development. А под продакшен нужны никсы имхо. Т.к. все-таки LAMP, а WinAMP это совсем другое :)
есть еще 2008 Server, там обещали какую-то супер скоростную поддержку PHP
fastcgi обещали.
но в apache есть и fastcgi и mod_php ;)

да и у IIS есть php_isapi ;)
Освоиться ≠ изучать.

Знаете, я когда собранный сервер покупал, то тоже брал для работы, а не чтоб в железе поковыряться. Только вы сэкономили на комплектующих, а я на лицензионно чистой оси, грамотно настроенной специалистом. ;)

Ужасно не люблю холиваров. Сам дома работаю под виндой.
Ммм, берём Debian, покупаем ISPmanager (вечная лицензия стоит оочень дёшево), 10 минут и у вас полнофункциональный сервер с панелью управления и всеми службами.
П.С. Не минусуйте, не реклама, просто вполне дешёвая по сравнению с Windows альтернатива, и легальная и честная по сравнении с пираткой.
можно и бесплатно :) webmin поставить, для управления субд и апачем с профтпд и экзимом за глаза, и mdadm кстати тоже можно мониторить.
ISPmanager, извините, говно. Совершенно сырой продукт.
Работал с Plesk, в целом біл доволен, затем месяц поработал с ISPmanager и бежал в ужасе.
Сейчас работаю под InterWorx SiteWorx, доволен и всем рекомендую (получше плеска - более всё прозрачно, и стоимость ниже)
WHY? Зачем для проекта на php/mysql windows. тем более 2003?
попробуйте lighttpd+fcgi+php+mysql на дебиане.
Мы в свое время простым переездом с apache/mod_php на lighttpd/php-fcgi получили двухкратное повышение производительности (кол-во запросов/сек).
Рейд0 предназначен для хранения только временной информации и не более 24 часов без бэкапа. Во всех других случаях неоправданный риск.
Отличная заметка. Ап и плюс карма.
Для RAID массива вроде как необходимы точно такие же харды для замены. И кстати ещё одна точно такая материнка. Поэтому затраты несколько возрастут :(
А зачем вторая материнка? И на счет точно таких же хардов не слышал... Неужели правда? :(
да, правда. И для создания (не только замены) любого RAID нужны одинаковые харды. Другое дело что если один диск полетит в RAID1 на втором вся информация должна сохранится, и более того система должна этого не заметить, то есть продолжать работать на одном. А для того чтобы поднять RAID заново уже придется купить новые диски.
Неделю назад купили сервер на платформе Supermicro 5015 кажется МТ-Т, 1u
с RAID контроллером Adaptec 3405. (за 55т.р. кстати) тоже под веб сервер

Настроил тоже RAID1 из 2х SATA винтов.

Для эксперимента выдернул один винт. Пошли всякие сообщения об ошибках (ОС Linux Ubuntu Server 7.10) (в dmesg и messages)

Комп не завис, но все операции записи на жесткий диск заблокировал.
Т.е. реально система стала не рабочей, хотя и не зависла...


Перезагрузился, контроллер завопил о проблеме, предложил сохранить новую конфигурацию или оставить старую... Вобщем, система загрузилась с одного винта.

Попытался вернуть винт, сделал RESCAN (он долго делал операцию verify и fix),
но так и остался в degrade статусе. Говорит bad stripe... как это побороть не знаю.

Все оказалось не так радужно, как раньше казалось, вроде инфа и дублируется, но похоже добраться до нее не так просто... в случае реального сбоя...


Буду еще экспериментировать, хочу понять можно ли и как восстановить RAID1 в случае отказа одного из винтов... без приостановки работы системы

И еще волнует вопрос, в случае выхода из строя raid-контроллера, можно ли будет с этих винтов грузится или хотябы добыть инфу.
Вы уверены, что собрали именно рейд1? Причем тут страйп? Все должно работать, если выдернуть на ходу любой из винтов, на то и рейд 1. Информация полностью зеркалиться. Умные контролеры сами ребилд начинают делать при смене одного из винтов. Если не делает автоматом, то вручную ребилд сделать.
Если у вас хот-свап, то без проблем восстановите все на ходу.
Да, уверен на 100% что RAID1. У меня не большой опыт работы с RAID контроллерами (с целью его получить и начал эксперименты). т.е. мне тоже не ясно почему он ругается именно на бэд страйп.

Кстати, после того, как выдернул винт, я загрузился с первого (уже в degrade режиме) убедился что система работает. После этого воткнул винт (не выключая компа, там саласки удобные, но не уверен, что они для хот свопа "на свой страх и риск"), дал команду arconf RESCAN 1 после этого
он увидел его и долго делал толи ребилд, толи verify and fix...

когда закончил, он все равно остался в degrade...


По совету anton_k пойду на 3nity.ru советоваться дальше :-)
Появление degrade это нормально, когда рейд разбирается. Но вот после ребилда статус должен поменяться, конечно. Кстати, ребилд может происходить очень долго в зависимости от емкости винтов и рейда.
3nity.ru - просто скопируйте свою проблему туда.
Неправда ваша. Для RAID1 нужны винты одинакового размера. У меня вполне успешно пашут WD с Seagate на нескольких серверах. Правда, последнее время отказываюсь от RAID в пользу локального rsync. Вертится все под FreeBSD.
И с одинаковой геометрией.
Нет, не правда. Можно использовать разные HDD, но размер RAID 1 будет по размеру меньшего.

Про "материнку". Если используется "хардварный RAID" (в кавычках потому, что на материнских такого класса он почти совсем не хардварный), то необходимо иметь в запасе мать с такой же микросхемой RAID на случай выхода её из строя. Решение: использовать "софтовый RAID", который по производительности в linux не уступает (а иногда и превосходит) "хардварный".
А вот теперь скажи честно, ты после того как винду поставил - пробовал у одного винта питание выдернуть на ходу? :)
Для Linux не критично, а в случае Windows лучше иметь резервную материнскую плату, а то потом придётся наматывать круги в поисках материнки с таким же южным мостом/RAID-контроллером ... ну или винду переставлять :)
критично, потому что разные контроллеры (интегрированные, они же софтовые) запросто могут работать с винтами по им одним известному способу. посему наш выбор - только внешний рейд-контроллер, и закупка партиями от 2-х штук :)
Ну, я в общем говорил :) RAID1 - не страшно, RAID0 практически не страшно, а про RAID5 я просто надеялся, что никому не придёт голову делать RAID5 на интегрированном контроллере. :)
хех, таких горе-умельцев у нас на каждом шагу :) особенно в домосетях и мелких офисах гуру местного разлива. да и в хостинг-бизнесе такие кадры встречаются :(
Спасибо большое за статью! :) Давно хотел собрать сервер себе, домой )) Чтобы он стоял и тихо жужжжжжал в стойке, где-нибудь в непыльном месте, а я ходил и любовался на него, ковырялся, вместо машины в гараже =D Только что-нибудь подешевле наверно надо... Мне хватит для начала..
А на счет всяких Xeon'ов, Itanium'ов и т.п. Они быстрее чем Core 2 Duo Quad? Или еще за счет чего выигрывают? Не охото гуглить, раз есть возможность спросить у знающего человека))
UFO just landed and posted this here
а зачем домой стойка и стоечный сервер? Я бы поставил какой-нибудь Tower с неоновой подсветкой :) и жужжит он, это да
Tower серверу не помеха)) Не знаю, хочется.. :) У меня щас дома 5 системных блоков + ноут ) Все старенькое конечно, но работающее :) Правда включены всего 2 из всех ) Вот, а хочется все старье выкинуть, поставить сервак нормальный, купить комп тоже новенький, мощный + wi-fi, и пусть все это дома работает ) Не знаю зачем... Для души наверно.... =)
стройте кластер.
Blue Gene в домашних условиях сделаю :)) Когда-нибудь... =D
Ну только не сервер! У нас на работе под него целый кабинет выделили, жужжит страшно! Я подбиваю начальство выкинуть его - он решает задачи, для которого простенького P3 бы хватило
Ого, даже так :) Ну тогда да, конечно не стоит, хоть и хочется, но здоровый сон дороже :)
как буите выкидывать коорднатами поделись ;)
Xeonы может быть. Но итаниумы не рекомендую вообще. Дорогие, и архитектура другая (не x86совместимая)
А почему статья называется "Веб сервер за пару вечеров - II"? Где-то есть первая часть?
А почему статья называется "Веб сервер за пару вечеров - II"?
Что, где-то есть первая часть?
Тю блин. Гейтвей таймаут был
Хммм.. а все комплектующие получилось купить в магазинах или же что то подзаказ?
да, а там ничего такого особенного нет кроме корпуса и направляющих. Да и корпуса сейчас можно найти в обычных местах (sunrise, nix).
В магазине или у дестебьюторов можно купить без проблем.
Только вот на что-то важно я бы такой сервер не ставил.
А почему нет? Это так кажется, что "настоящее серверное оборудование" много надёжнее. Да, разница есть, я не спорю, но отнюдь не до уровня что "что-то важно я бы такой сервер не ставил"... Зависит от проекта, конечно, но если backup есть и возможный простой в день или два вас не пугает - почему бы и нет? У нас подобный сервер отпахал 5 лет и сейчас у меня в щкафу от него живая мама лежит...
Большое вам человеческое Спасибо!
Передумал покупать сервер, но лучше соберу ;)
Статья супер, осталось только найти поблизости дата-центр :)
Статья хорошая, но...

АХТУНГ!
venividi.ru сейчас не доступен. Не пингуется.
DNS еще не везде обновились, только вчера переехал
а расскажите, это неизбежное зло (что не пингуется) или есть способы?..
можно до IP'шника достучаться если интересно :)
89.188.109.82
но сам venividi на IP в Апаче не прописан
Самый простой способ - сначала поставить новый сервер, а через несколько дней отключить старый. На то время пока работают оба пробросить ssh-туннель. Но для проектов, которые имеет смысл ставить на такой сервер - это перебор. Если же вам важен каждый час простоя, то у вас, скорее всего, найдутся деньги на пару-тройку нормальных серверов и эта статья для вас представлять интереса не будет...
(Про ssh-туннель.)

Я правильно понимаю что при таком сценарии старый сервер полностью забывает о своих прежних обязанностях и начинает работать этаким прокси-сервером между посетителем сайта и новым сервером?
Угу. Работает, понятно, только если у вас нагрузка не очень большая, но зато настойка - одна команда. Для серъёзной нагрузки можно использовать что-то типа VTun, но там больше возни с настройкой...
Мне кажется, на хостинге он туннель не создаст. Можно, в крайнем случае, сделать редирект на новый IP и некоторое время поработать без домена.
Там вроде речь шла про виртуальный сервер - должон. Если был какой-нибудь виртуальный сервер - пробросьте 80й порт с нового сервера на XXXX порт на старом, а оттуда - вытяните контент через mod_proxy (если он инсталлирован, конечно) или через скрипт на PHP (тут уже вопросы загрузки сервера встают, конечно).

Всё делается. Другой вопрос - а она вам надо? Без опыта всё рассыпется, скорее всего, то есть надо проводить эксперименты "на кошках" - а где их взять...
А по мне так самый простой способ, врубить на старом nginx с прокси на ip нового сервера

location / {
proxy_pass http://новый_ip/;
}
У автора Windows.

p.s. я сам на nginx :)
Отличная статья. Автору спасибо. Но флопик за 20 баксов - это перегиб. Он же в районе 7 баксов новый стоит. :-)
Так ещё ж на дискетку надо денег ;-)
в жо.у флопик. blue ray!
Статья-то хорошая, но только ввергает читателей в искушение сэкономить там где не нужно.

Slim FDD - это не "флопик".
ставить внутрь сервера двд/флоппи, это по-моему на айс :)
может лучше (один раз) приобрести и то, и другое в юсб-версии?

что "поставить негде" - вот не думал что так бывает о_О
Я кстати не знаю можно ли с USB флопика или DVD загрузить систему.
Про "поставить негде" - пообзванивайте ради интереса colocation в России, все сразу станет понятно :), включая то почему мастер хост поднял цену с 3х тыщ до 5ти
С USB-floppy и/или можно загрузить систему. Но не со всякого. Я просто снял на несколько часов DVD с рабочего компа, настроил систему и вернул всё взад. За 5 лет операцию не пришлось повторять ни разу...
UFO just landed and posted this here
Б.у. на сервер не надо ставить. По прошествии определённого времени (на хороших матерях - лет через 5, на плохих - через 2-3) начинают "пухнуть" конденсаторы, дохнуть процы (если их в "ранней" жизни гнали да ещё и плохо охлаждали) и т.д. и т.п.

Лучше всего купить новое железе, но не гнаться за самыми новыми моделями ни в коем случае - на сервере оно почти никогда не надо: лишние 20-30% производительности почти никогда роли не играют (если уж вам не хватает мощности, то вам нужны не лишние 100MHz частоты, а второй сервер), а вот срок службы разгон может сократить очень существенно. К винтам это, понятно, не относится - тут всё очень индувидуально...
С трудом представляю себе задачу, с которой справится сервер пятилетней давности, способный окупить коллокейшен сегодня.
так он не предлагает ставить пятилетний. он предлагает не ставить топовое оборудование типа сверхбыстрой памяти, матерей со сверхбыстрой шиной и сверхрзогнанных процов. т.е. всё что появилось за последние полгода-год (-:

спорный, в общем, момент. я например не согласен. ибо если оборудование начнет глючить, то в первый год, пока оно на гарантии.
1U корпус такой, как на верхней картинке, несмотря на астрономическое количество вентиляторов имеет серьезные проблемы с охлаждением.
как на самой первой не знаю, а тот что с 6тью вентиляторами...нууу не знаю, из него тянет очень серьезно, а спереди лучше не проходить ближе 2-ух метров - затянет в решетку. Если без шуток, то тестировал его дома - процессор как был 52-53C, так примерно и оставался на протяжении работы.
1. Да, 100% правда - плохо оптимизированы воздушные потоки и в результате нормально охлаждается один винт и, если повезёт, проц. Остальное всё греется жутко.
2. Всё это фигня: современные винты нормально работают при температуре 50-60 грудусов. Если в этом корпусе монстров на 10'000-15'000RPM не ставить - проблем быть не должно.

Сдохнуть может разве что DVD-привод, но его на сервере, в общем-то просто не надо: если приспичит - захватите с собой...
меня смущет флоппик за 20 баксов
больше, чем за 7 никогда не встречал...
Slim FDD? За 7 баксов? Срочно телеграфируйте - куплю партию в тысячу штук. Для начала.
ах, slim..
извиняюсь
Если уж и собирать на коленках, то хотя бы из supermicro.
По опыту - Supermicro делает отличное железо, но все равно - при установке дополнительных контроллеров возникает масса вопросов совместимости. Вплоть до того что стандартные кабеля не влезают, а не стандартные не купить ни за какие деньги.
насчет охлаждения процессора. xeon'ы напр. продаются с охлаждением и в рассчете как раз на корпус, т.е. коробочка с надписью 1u active или 2u passive - ну и содержимое внутри соответствующие. Интел - думает о нас :)
Они продаются в расчете на конкретную продувку и конкретную температуру окружающей среды. На все есть свои строгие "ГОСТы". Сам по себе "сферический кулер в вакууме" не имеет никакого значения.
как глянул на картинку, так вспомнил прикол из своей жизни. меня в гугл приглашал один их рекрутер после прочтения вот этого прикола:
UFO just landed and posted this here
Очень хорошая статья. Своевременно, с картинками и замечательно. А плюсы я, как новичок, похоже, ставить не умею (
Спасибо за статью, весьма познавательно и актуально.
а разве серверные блоки питания совсем не имеют вентилятора внутри?

если имеют, то в чем проблема установки впритык к задней стенке? только экономия пары вентиляторов (-:
имеют и даже 2, втяжной и вытяжной (тот что будет торчать наружу). Даже если предположить что воздух внутри блока никак не задерживается:
- вентилятор один а не два.
- посмотрите где будет засасываться воздух в блок питания - это точка в середине, корпуса. Получается что поток через сервер по какой-то коротенькой диагонали протекает в блок питания, и оттуда сразу на выход, совершенно не задевая процессор.
- в нормальных корпусах в том месте где промежуток между вытяжным вентилятором блока питания и двумя вентиляторами задней панели, ставится диагональная перегородочка, и горячий воздух из блока питания гонится в боковые прорези, без лишней циркуляции по корпусу.
"- вентилятор один а не два" всмысле на выходе получается один вентилятор
Вообще очень не хочется на привод место (и деньги) тратить. Поэтому лучше использовать его альтернативу - USB-DVD. Когда надо, подключаешь и всё что надо заливаешь/устанавливаешь. Все новые материнские платы поддерживают такие приводы и загрузку с них.
Если рассматривать сервер как офисный компьютер в 1U корпусе - то безусловно проще собрать самому. Хотя даже в этих условиях всплывет такое количество нюансов, что карма (не хабракарма) отяготится в любом случае.

Ну а уж если вы хотите собрать сервер с нормальным RAID под серьезный проект... Те несколько сотен долларов, которые вы переплатите в серьезной фирме - с лихвой окупят тот геморрой, который обязательно получится при неудачном сочетании прошивок, драйверов и парт-намберов.

Если через какое-то время RAID начнет разваливаться без видимых причин - все эти советы по поводу самостоятельного изобретения велосипеда - разгонят колесо Сансары до сверхсветовых скоростей.
UFO just landed and posted this here
Можете почитать как ведут себя сервера от серьёзной фирмы с нормальным RAID. Да они чуток понадёжнее, но если вас интересует сохранность данных, то backup они не заменят, а если у вас уже есть backup... то вы можете придти и к подобному решению. Сейчас, правда, процы греются сильнее - по две материнки в один ряд класть не стоит, наверное...
На самом деле есть возможность собрать ещё почти долларов на 200 дешевле, на 150 так точно :)

Корпуса украинского производства http://rackmount.net.ua/ru/catalog/
Чуть меньше 100$ за ящик и около 20$ за уголки с полкой, правда 2U повлечет дополнительную плату за колокейшн, но просторнее что тоже плюс, все же в 1U довольно таки жарко )
*Кстати, надо добавить, что не все провайдеры взымают доп. плату за 2U , некоторые, причем солидные, даже за 3U не просят.
Интересно - где вы нашли таких провайдеров в Москве. Человек говорил про datahouse.su - там за 2U придётся доплачивать $100 в месяц, masterhost вообще хочет $150, думаю минимум что вам удастся найти - лишние $70 в месяц, что уничтожит ваш "выигрыш" за три месяца, а дальше вы будете платить, платить, платить...
Да, увы.. я про Украину говорил, Wnet например по 20$ за каждый U, или ColoCall где одна цена за размещение сервера до 3U.
На самом деле "выигрыш" не сиюминутный, в 2U не так жарко, ведь это безусловное преимущество, откинем даже тот момент, что в него легче все подобрать/собрать, но это конечно, если не 150$ в месяц доплачивать, тут я с вами абсолютно согласен.

P.S.
Вообще не думаю, что Мастерхост стоит таких денег, мне кажется это больше бренд чем действительность, но это лишь мое ИМХО, я не претендую на истинность в последней инстанции.
UFO just landed and posted this here
Господа! А сколько стоит нанять умельца (при условии что все комплектующие я ему дадут). За сколько долларов или рублей он соберет этот серв? Меня интересует средняя цена. И сколько по времени он будет все это дело скручивать.
Ну скрутить то недолго, а вот все правильно настроить и установить ПО - тут возможно и помучаться придется :) Хотя по ценам я не в курсе..
Нисколько. Ибо не надо так делать - если не хотите сами возиться лучше арендовать dedicated server. Ибо умелец вам что-то и скрутит, положим, но что вы будете делать через полгода если его скрутки рассыпятся?
Хотел бы ответить сразу всем записывающим самособранные сервера в "несерьезные".

Путем быстрого гуглинга нашел вот такое описание некоторых возможностей сервера IBM:
"Предусмотрена возможность комплектации 2,5" жестким диском SAS емкостью 73 или 146 Гб со скоростью вращения шпинделя 10 тыс. об./мин., без возможности горячей замены. На борту имеется контроллер P5IOC2, реализующий два хост-адаптера Ethernet. Опционально поддерживается установка дочерней платы с двумя портами Gigabit Ethernet. К числу доступных опционально соединений относятся также 4 Гбит/с Fibre Channel, 1 или 10 Gigabit Ethernet, 1х или 4х Infiniband, iSCSI и Myrinet. Для установки этих и других контроллеров предлагается использовать слоты PCI Express, имеется также разъем, совместимый с дочерними платами старого образца."

А вот DELL:
"Сервер PowerEdge 1950 III содержит стандартный в отрасли доверенный платформенный модуль (TPM), который обеспечивает безопасное создание криптографических ключей и управление ими, а также предоставляет генератор случайных чисел, позволяющий выполнять аутентификацию в системе и шифрование. В серверах PowerEdge 1950 III внутренние компоненты блокируются на физическом и логическом уровнях, предотвращая несанкционированный доступ. Например, заказчики, использующие USB-ключи безопасности, могут устанавливать их во внутренний порт USB. Кроме того, теперь контроллер RAID-массива PERC 6/i сервера PowerEdge 1950 III поддерживает технологию RAID уровней 6 и 60, обеспечивая устойчивость к сбоям даже в случае выхода из строя сразу двух жестких дисков."

Мне не нужна поддержка 10 Гбит/с Fibre Channel так как я буду воткнут в 100Мб порт
Мне не нужно по 4ре Ethernet контроллера на плате, мне нужен один на 100Мб.
Мне не нужна поддержка SAS, так как у меня будут SATA диски.
Мне не нужен разъем, совместимый с дочерними платами старого образца.
Мне не нужен доверенный платформенный модуль TPM.
Мне не нужен RAID уровней 6 и 60.

И так можно продолжать до бесконечности. Многие люди почему-то считаю что чем больше ненужных им технологий будет в их сервере тем круче.

Я так же не хочу оплачивать годовые бонусы огромной армии маркетологов коих уже больше инженеров:
"Масштабируемая производительность благодаря поддержке технологий, соответствующих отраслевым стандартам, что позволяет максимально увеличить пропускную способность и надёжность при минимальных затратах" (с сайта HP). Лично меня это не убеждает отдать лишние деньги.

Я тоже считаю что сервер сделанный в DELL лучше сервера сделанного у меня дома. Но не в 2-3 раза, сколько за него просят.
Даже не парься, у тебя отличный сервер и отличная статья! Я на гораздо худшем тянул 5 лет 200 сайтов и ничего. Им действительно не надо 10 гигабит, они 3 мегабита в пике делают. И при нынешнем развитии интернета такие сервера, где избыточность заложена только на диски - очень востребованы. Инфа не пропадет, а все остальное чинится за два часа на Савеловском рынке, методом покупки новой памяти или БП. Действительно не банк - сайты переживут. Честно говоря сам недавно прошел эпопею апгрейда нескольких серверов в ДЦ - тема очень близка. :)
Когда-то мечтал о собственном сервере. Проблема в том что я hopeless (лох) в том, что касается серверов. Хочу сконцентрироваться на том что я знаю (английский язык, немного) и не парить себе мозги тем, что мне недоступно. За статью спасибо. Со своей стороны предпочту dedicated hosting или co-location. Чувствую, что скоро придется переходить с VPS дальше, но пока все в тумане. Скажите, есть какая нибудь контора, которая за ежемесячную абонентную плату (менее 30 евро в час) готова взять на обслуживание сервер, допустим, в Германии?
Очень интересно, спасибо автору и комментаторам.

А вот у меня другая задача — собрать не сервер, а «суперкомпьютер». НЕ ДЛЯ ИГР! Для графики и др. разработки. Надоели тормоза.

Что требуется:

— 2 процессора Intel. Какие именно — не могу решить, но нужна будет возможность запуска второй ОС в Xen. Понятно, что достаточно мощные.

— Поддержка двух мониторов: основной 22—24" и второй 19" (в перспективе 2х22—24"). Какие нужны видеокарты, одна или лучше две, пока не разберусь.

— Чем больше влезет SATA-дисков, тем лучше.

По идее подошёл бы Mac Pro, но всего 4 диска в бандуре такой мощи и за такие деньги считаю издевательством. Да и по другим причинам не устраивает.

Упёрся в ряд проблем, главное — двухпроцессорные материнки слабы по части поддержки видеокарт.
Кто-нибудь может что-нибудь посоветовать?
Кто-нибудь видал что-либо подобное в дизайн-студиях или ещё где-нибудь?
Вот это монстр получится, прикольно! Удачи :)
DEPO Storm 1110A1
Стоит меньше тысячи баксов. Есть ColdSwap для винчестеров. Для небольшого вебсервера этой конфигурации за глаза.
последние 7 серверов заказанных в депо оказались самыми настоящими супермикро, перепечатанными в коробки с символикой депо компутерс. Предполагаю что тоже самое и со всеми их серверами. Согласитесь, смешно было думать, что в России собирают сервера.
Сервера я думаю как раз собирают в России. А вот комплектуху везут оттуда, насколько помню недавно был принят закон о уменьшении налоговой пошлины на комплектующие (для стимуляции создания сборочных производств). Тот сервер что я привел это перелицованный MSI Server
я бы не советовал использовать raid встроенный в материнскую плату, в случае каких нибудь проблем - возникнут затруднения с восстановление информации - можете почитать на том же хоботе, какие случаются проблемы
по этому настоятельно рекомендую купить нормальный аппаратный рейд-контроллер.
+1. и еще - не знаю, как в windows, но в нормальных:) ОС производительность "fakeraid"-ов (если удастся найти и "завести" драйвер) обычно ничуть не выше, чем при использовании стандартных для ОС softraid (lvm/gmirror).
UFO just landed and posted this here
Выпускают ))
Например, SATA Promise серии Fast Track (стоимость около 15т.р.): основные уровни RAID, включая пятый; Intel X-Scale на борту, шина PCIex4. О SCSI и SAS контроллерах я вообще молчу, если брать именно "RAID-controller" - это нормальная железка с нормальным чипом, XOR'ом, памятью и батарейкой. Из популярных: Adaptec и LSI Logic. Есть еще т.н. "Host-controllers" - это не рэйды, а платы-контроллеры, они бывают и поддерживают какие-то уровни RAID (как правило 0, 1 и их совокупности), но это уже чистой воды фейковая функция.
Кстати, не забывайте, к SAS-контроллерам можно подцепить SATA-винты.

Рэйды на южномостных решениях (ICH, nVidia...), контроллерах на SiL и им подобным (какого бы бренда сама карта не была) - это чистой воды фейк, собирать массивы на таких как минимум опасно. Также, приготовьтесь, что нормальных контроллеров под шины PCI и PCIex1 не делают, как правило они на шинах PCI-X и PCIex4-8.

Также, не забывайте, что ресурс дисков очень сильно зависит от средней температуры, при которых они работают, в нормальных rack-mount корпусах этому уделяется большое внимание (практически весь воздух сосётся через морду из "холодного коридора", равномерно проходит через харды, проходит через дырки в back-plane дисковой корзинки и далее через всю комплектуху, после этого выплевывается в "горячий коридор" через дырки сзади сервера и б.п.)
UFO just landed and posted this here
Да, и даже работают. Но не более того, все вкусности шины PCI-X сразу пропадают ((
Ресурс дисков очень слабо зависит от средней температуры. Другое дело что 15-тысячник может и до 80 градусов нагреться без приличного охлаждения - а это уже критично.

PCI-X платы вставляются в PCI, PCI-Express x4-x8 - в PCI-Express x1 (при наличии лобзика).
По поводу ресурса дисков - личные наблюдения, когда температура выше 60-ти, диски через три года начинают ремапить сектора, а это уже однозначный сигнал для замены. Тем более в дата-центрах не всегда тепличные условия, вот, сколько московских дата-центров страдало от перебоев с кондиционированием прошлым летом...

"PCI-Express x4-x8 - в PCI-Express x1 (при наличии лобзика)" - ужас какой О_О. На подобный самопал нагляделся вдоволь, правда укорачивание PCIe лобзиком еще не видел...
Там не укарачивание, а распиливание слота. Сейчас даже продают готовые материнки с незакрытыми слотами. В результате туда можно поставить карту с PCI-E x4. Хотя работать она будет на x1.
Собственно результатом является парадоксальный факт: для малого сервера лучше всего простой softraid.
а можно узнать точные названия всех комплектующих?
а то "ASUS c SVGA, Gb LAN и RAID" звучит как-то слишком абстрактно...
А смысл? Приди в магазин, открой каталог - там будет пяток материнок, которые этому определению удовлетворяют. Бери любую (собственно ту, которая подешевле).
"Поэтому не покупайте процессор в поставке BOX, и сразу докупайте серверный радитор, примерно такой"

а что, коробочные серверные процессоры с пассивным охлаждением в коробке отменили? O_o
К сожалению да. "Коробочные серверные процессоры" - это Xeon'ы. Если вы их два ставите, то в них есть смысл, но одиночный Xeon будет иметь только два отличия от десктопного проца: он будет иметь "правильный" радиатор и он будет заметно дороже. Лучше купить OEM проц и отдельно - радиатор...
Значит, Вы утверждаете, что нет смысла в multicore-Xeon 3000-й серии (LGA-775), которые работают в одноголовом режиме? Тогда зачем Intel их делает? А по поводу multicore-Xeon 5000-й серии (LGA-771): я согласен, раз есть такая возможность, надо ставить две головы, тогда получается восемь полноценных ядер. Только в случае с Ксеонами - тут уже матери нужны на подходящих чипсетах, да и память с коррекцией, а под 5000 - буферированную FBDIMM, а это уже другие цены, тут уже и корпус нормальный купить можно, тот же Intel SR-1530 или SR-1500
В 2U входят большинство бюджетных куллеров, а так же боксовые куллеры. Это тут товарищ слукавил.

PS У меня за плечами сборка около десятка таких серверов. Пришествие SATA избавила от основного геммороя, укадки шлейфов.
А Core Quad с таким маленьким радиатором и сомнительным обдувом не греется? Если тролинг срабатывает, то, возможно, лучше взять Core2Duo на меньшей частоте, зато он будет работать под нагрузкой 100%.
уважаемый, там вот пачка промышленных кулеров в середине корпуса жрет по десятку ватт каждый и работают на 15000rpm. Все это дело сосздаёт огромный поток воздуха, способный даже 2-4 горячих четырехядерника остужать.

Правда это всё к брендовым серверам, я в своё время сановские очень кропотливо рассматривал. А насколько проивзодительные кулеры в корпусе Chieftec сказать сложно - ибо по уму каждый из кулеров 30$ стоит =)
Хорошая статья. В Киеве все это можно и дешевле собрать. Если у колокола корпуса брать.
Впрочем у _http://onix.kiev.ua/product.asp?id=SVR5015M-Tplus примерно теже деньги получаются.

ЗАчем так много ОЗУ? Держу пари, что Ваши проекты больше двух гб не займут, раньше CPU юсадж замучает...
Лучше брать не у Колокола, а "Индустриального компьютера" (www.inpc.kiev.ua). Ценовая политика примерно одинаковая, выбор намного больше, сертификаты, да и качество намного лучше (у Колокола оно, к сожалению, на уровне консервной банки).
Собственно, делать свои корпуса и стойки Колокол начал ввиду отсутствия желания продолжать покупать их у INPC (длительное время он был у них крупнейшим клиентом).
На четырёх-то ядрах? У меня и на одном были проблемы с нехваткой 2GiB памяти. Запас карман не тянет - пусть будет...
...и загибаем не влазиющую верхнюю часть...


Если «не влазиющую», то надо писать «загинаем».
хорошая рекламу венивиди делаете, мне нравится, честно.

Ну и по делу, надо же выпендрится.
Чтобы не говорили, но делы и хп стоят тех денег, что за них просят (я про их настоящую цену, а не бесбожные накрутки в России). Открываешь корпус и глаз радуется: все на своем месте, легко достается, меняется, устанливается. Кстати, то что вы показали это называется сервер от агавы за 40 бачей в месяц, которые собираются на декстопных асусах студентами по ночам. Впринципе пойдет, но только для начала.

переходники типа такого, называются райсер. Бывает под pci, pcie всех размеров, левые правые и так далее.

Встроенный рейд, тем более на таких материнках это в 99% hostraid, не имеющий своего процессора, поэтому за рейд все равно будет отвечать ОС, а в 50% ОС может вообще проигнорировать созданный этим всевдо рейдом массив, это так, для успокоения. Кто действительно дорожит данными, ставит нормальные "железные" карты рейдовские.
Салазки тоже не угадаешь какие брать, в каждом дц стойки собраны по-разному. У меня 12 пар уже валяется, не знаю кому отдать.

А вообще в России беда с серверным оборудованием. Максимально что могут поставить — это ширпотребный супермикро, только богатенькие конторы могут позволить себе тот же hp или делл.
Ну и на бюджетные деньги могут себе стойку укомплектованную айбиэмовскую купить.
Хорошая статья, как раз тему - тоже себе сервер подбираю.
Но собирать конечно не буду. На мой взгляд не имеет смысла - no name сервера российской сборки стоят на пару сотен дороже, а свое время тоже не дармовое. (пару дней то на сборку потратили?)

В связи с этим вопрос - есть где-нибудь в сети обзоры/тесты одно юнитных серверов начального уровня от dell/hp/ibm?

В рунете я ничего не нашел, может кто на английском видел.
Собирал в таком же корпусе, только купил за 150 или 200 зеленых, не помню уже.
И вообще все существенно дешевле, даже оценочная стоимость при постановке в ДЦ $600.
Последний сервер просто купили б/у HP Proliant уже на площадке.
К слову об 1юнитовых кулерах, вот навскидку 2:


$47.50
CPU: Intel® Core™ 2 Extreme, Core™ 2 Duo, Selected Pentium® D Dual-Core Solution and all Single-Core socket 775 for 1U server

Specification:
Overall Dimension: 83 x 94 x 28 mm
Weight: 453g

Heat Sink:
Material: Copper
Dimension: 83.0 x 90.8 x 11.3 mm

Fan:
Dimension: 70 x 70 x 16 mm
Speed: 7000 rpm
Bearing: 2xBall
Rated Voltage: 12 V
Power: 8.4 W
Air Flow: 12.833 cfm
Noise Level: 54.4 dBA
Air Pressure: 1.70 inch-H2O


$45.60
CPU: Intel®LGA775 1U server active cooler up to 3.4GHz for 630 / 640 /650 / 520 / 520j / 530 / 530j / 540 / 540j / 550j

Specification:
Overall Dimension: 83 x 87.0 x 26.5 mm
Weight: 420g
RoHS Compliance

Heat Sink:
Material: Copper
Dimension: 83.0 x 84.0 x 26.5 mm

Fan:
Dimension: Blower 60x60x15 mm
Speed: 6000 rpm
Bearing: 2 Ball
Rated Voltage: 12 V
Power: 5.64 W
Air Flow: 7.4 cfm
Noise Level: 49.8 dBA
Air Pressure: 1.12 inch-H2O

Дабы не было рекламы ссылок не даю, но в путях к картинкам все есть. ;) У них и китайские дешевые сервера рековые есть. :)
Не надо таких зверей ставить! Они могут решить любую из проблем:
1. Влезть в 1U корпус.
2. Охладить проц.
Но есть одна маааленькая беда: они не могут сделать этого одновременно! Забор воздуха в них сверху - а там в 1U-корпусе нет воздуха, там железная стенка!
а может там дырку в крышке вырезать надобно? :))
UFO just landed and posted this here
блин. Внатуре. Посчитал - расстояние между направляющими юнитов от 2мм до 4мм (взял два шкафа в инете наугад, у обоих - 3мм примерно).

Значит это актуально для двухюнитовых и выше серверов может быть только.
UFO just landed and posted this here
ну это видимо в тех случаях когда с туннелями проблематично.. )
вот еще вспомнил, кстати - надо быть внимательным при выборе материнки (если решили сэкономить и взять "хомячную").
моя неосмотрительность однажды привела к тому, что я сидел и выпиливал напильником в низкопрофильных радиаторах отверстия для конденсаторов, оказавшихся на материнке в самом неподходящем месте :)
Отличная статья, спасибо!

P.S. На сайте в разделе ? опечатка "ТИП МАТЕРАИЛА"
если уж собирать такие сервера - то явно не для "собираем хороший сервак за дешево". Если корпус за две сотни - то набор компл. которые туда безопасно запихать должен стоить баксов 500 в сумме.

Дело в том, что очень легко объяснить как у вас могут рассыпаться винты. Кулеры которых много скорее всего без всяких водных подушек или резиновых подложек. Если один из них сдохнет, то он по всему корпусу такую дрожь сделает, что в течении пары месяцев объёт винты (сначала сдохнут именно они).

Вот ентот мч http://www.casemods.ru/section10/item265… в статье исследовал просто дофига таких нюансов. Блок 350w в сервере - сродни самоубийству.
UFO just landed and posted this here
Я вот один раз где-то читал как какой-то там дядька взял купил сервер Sun и распотрошил его целиком рассказывая что как и зачем. Цель была как раз научится себе серваки собирать =). Так вот я как почитал, сразу понял - что все эти корпуса стоят настолько много совсем не просто так. Конечно, можно то же самое собрать самому и дешевле, но вряд ли сам будешь тестировать его по сотне тысяч часов =). К сожалению, оригинал статьи как то не найти :(. А жалько.
Спасибо, очень познавательно и важно для меня сейчас
UFO just landed and posted this here
В целом написано правильно,надо брать только фирменные или кому удобнее брэндовые комплекты.
НО по нескольким пунктам хочется прокомментировать ( в данном случае возьму Супермайкро) :
1.Абсолютно верно заметил,НО у того ж типового http://www.supermicro.com/products/chassis/1U/811/SC811T-300.cfm
можно крутить как хочешь,в рамках модельного ряда,например PDSML,c целью снижения издержек и.т.п.,просто прежде чем брать,читаем докуху.
2.Для этого умные компании придумали другие корпусы,какие - ноу-хау,но есть и для бокового обдува,но опыте страрого ДЦ,могу сказать,что если у тебя в рабочей зоне 19-21 градус на входе - поверь пофигу,не одна сотня серверов была сделана по образу и подобию.
3. На "диком западе" этого не бывает :).
4.На 50 % согласна,опять таки,существует масса "специализированых кулеров,но к сожалению у нас были 2-3 % отказов их,после года работы.
5.КВМ - в большинстве случаев лучше ставить внешний,как и Ремот-ребут,не будет проблем с унификацией...IPMI - слот во многих матерях - имхо барсто,при наличии внешнего доступа,просто хорошо оборудованный ДЦ,обязательно имеет обвяз.
А в целом абсолютно зравая мысль,об использовании специализиорованного оборудования.

2 Автор топика,идея хороша,но ...
Несколько раз был на вашем сайте и заметил, что подтормаживает на загрузке больших фоток. Раз уж вы здесь :), предложу вариант взять дешевый plain хостинг на mh (к примеру) и выкладывать (дублировать) часть фоток (например за последние N дней) туда.

Спасибо :)
Sign up to leave a comment.

Articles