Серверны стойки vs шкафы и вобще что брать?

Selena

Если для кого глупые вопросы - не гнобите сильно.
В чем принципиальная разница между серверными шкафами и стойками.
Я в основном со шкафами имел дело.
А сейчас думаю стойку взять - доступ со всех сторон удобнее.
Кондей в серверной на потолке висит, соотвественно в стойке теплообмен будет лучше.
Какой бренд брать тоже не понятно. В инете глянул - много вариантов. Или сдесь особо не стоит заморачиваться? И где брать тоже посоветуйте :grin:

sergey_m

Шкафы берут для ограничения физического доступа. Во всё остальном стойки лучше. Если серверная своя - брать стойки.

Selena

фигасе!
Псосветуй, плиз, чего брать-то?
Мне вот по типу такого понравилось. Думаю удобно на колесиках будет.

sergey_m

> Псосветуй, плиз, чего брать-то?
Я вообще не сильно в этой теме разбираюсь. ИМХО, надо брать конструктор и собирать из него стойки, причём фиксировать их к полу/потолку. Только конструктор надо брать хороший, чтобы без кувалды собирался.
А зачем вообще колёсики? Реально часто нужно передвигать стойку? Набитая стойка весит несколько сот кг, она не будет нормально катиться, а "перешагивать" её через любой порожек двери просто опасно.

Selena

Дык стойка врядли будет набита.
Планирую разместить в ней хозяйство небольшой компании:
Три-четыре сервера, комутатор, ибп рековый и пачпанель опять же.
Особо тяжко не будет.
А вот так как опять же компания небольшая, то и серверная небольшая.
В итоге что бы не извиваться вокруг зафиксированной стойки как вокруг шеста :grin:, думаю взять все -таки на колесах. Ну по типу подвинул на полметра - в одному углу поколупался, подвинул обратно - в другом поколбасил.
P.S. какушками не кидать - не датацентр нифига :)

Angelika_900

ну посчитай, сколько кг вышло?
со 100кг такие стойки обычно не ездят, у них колеса отваливаются :)
хотя может есть и качественные

sergey_m

Надо так продумать серверную, чтобы не нужно было стойку двигать.

krishtaf

К стойке/шкафу провода всякие(электро,телефонные,сетевые) идут - так что все равно особо не покатаешь.
Если уж брать что-то на колесиках - то лучше имхо шкаф, причем поменьше, чтобы влезло только то что запланировано. Иначе засунут туда еще что-нибудь - катить будет гораздо сложнее :)

stalker33rus10

Шкафы берут для ограничения физического доступа. Во всё остальном стойки лучше. Если серверная своя - брать стойки.

Еще один плюс шкафа - в закрытом состоянии от него шуму порядком меньше.

kazak878

Шкафы и стойки отличаются следующим:
1. позиционирование. Первые нужны для железа, вторые скорее для кроссового оборудования
2. Цена - стойка выбор бедных :p
3. Система охлаждения - в шкафах ее можно более правильно организовать (!)
4. Эстетический внешний вид - стойка с кучей проводов это "ужос"
5. В стойках могут возникнуть проблемы с установкой множества оборудования (например с нагрузкой при монтаже туда ИБП)
ну и много чего еще
По вендорам/поставщикам:
Мидл-енд ZPAS(АБН www.abn.ru) Conteg (БТК)
Хайенд APC (www.apc.ru дистрибьюторы rrc.ru ocs.ru marvel.ru lanit.ru) HP (www.ics.ru) Rittal Knuer
Вообщем если денег много рекомендую АРС http://www.apc.com/resource/include/techspec_index.cfm?base_...
мало - ZPAS (маленькое замечание: если нагрузка в стойке более 2 кВт - то дверь обязательно брать перфорированную)

kazak878

конструктор например defem - реально смишное решение :lol:

sergey_m

Много понтов вижу в этом посте. Мидл-енд, хай-енд... Стойки - выбор бедных, хуё-моё...
Есть реальный опыт работы шкафа с сорока пятью 1U машинами, в каждой из которых 4 винта?

kazak878

>>Есть реальный опыт работы шкафа с сорока пятью 1U машинами, в каждой из которых 4 винта?
и к чему это чудовище?
Есть реальный опыт по созданию инженерной обвязки центров обработки данных - устроит?

sergey_m

Опять понты.
Можешь ответить на поставленный вопрос? Может быть 45 машин не доводилось запускать в одном шкафу, но какое-то близкое к этом количество? Или ещё проще: скажи сколько кВт удавалось уместить в один шкаф так, чтобы температура в нём не поднималась выше 30 C?

AlexV769

(в своей серверной) шкаф со снятыми боковыми крышками и дверьми. по функционалу получается схож со стойкой, но кабели получаются не снаружи, а внутри.

sergey_m

> и к чему это чудовище?
Чтобы занимать одной стойкоместо вместо двух, трёх, пяти... или сколько там выйдет если в шкафах?

kazak878

у кого понты? у тебя? :p
И чего что 45 машин - каких? Погорит все нафиг и будешь себя героем чувствовать?
Рекомендуется (без экстрима и битья себя пяткой в грудь под чесслово) - 5/6 кВт на стойку при НОРМАЛЬНОМ охлаждении, далее - НИКТО не гарантирует работоспособность - хотя встречаются ИНДИВИДУМЫ сующие по 20 кВт на стойку и кричащие, что все ништяк - только когда все раком встанет они куда то быстро исчезают.
Да кстати дай фотку своих 45 машин.

AlexV769

ZPAS: где-то +10-13" к базе

kazak878

открой для себя шкафы 45-48U

AlexV769

Да кстати дай фотку своих 45 машин.
Стойка 48U(? забитая 1U-серверами по 800Вт кажный?

kazak878

ну бла всякие экстремалы бывают ;)

AlexV769

открой для себя шкафы 45-48U
Я подозреваю, что в стойку 32U никак не получится впихнуть 45 1U серверов. Разве что сендвичем сверху

AlexV769

Достаточно типичная задача, когда надо много думать. Например, какой-нить поисковый движок :)

kazak878

ZPAS разные бывают. Ниче так серия SE, но там могут быть проблемы с 19" профилями при установке серваков IBM.
Общие принципы при выборе стоек:
для серваков - длина 1000 мм
для кроссового оборудования - ширина 750/800 мм

Angelika_900

>>хотя встречаются ИНДИВИДУМЫ сующие по 20 кВт на стойку и кричащие, что все ништяк - только когда все раком встанет они куда то быстро исчезают.
найди фотки датацентра яндекс, рамблера и тогда поймешь, о чем говорит Глеб :)

AlexV769

Нам приходится пилить салазки от DELL %)

kazak878

найди плз если видел, было бы реально интересно.

Marinavo_0507

> Чтобы занимать одной стойкоместо вместо двух, трёх, пяти... или сколько там выйдет если в шкафах?
Ну у меня понты типа ваших брать неоткуда, но в общем когда я был на msk-ix peering forum, там была тема про ДЦ. Так вот утверждалось, что с площадями в Москве нет проблем, а есть с электричеством.
Пустой ДЦ в Курчатнике наблюдал сам (о, вставлю понты: мне сказали, что вообще-то туда никого не пускают так вот, утверждалось, что оно так и осталось - электричества не хватило.

kazak878

все верно с электричеством дикие траблы :crazy:

kazak878


сразу видны ошибки в системе охлаждения
1. не хватает заглушек для закрытия пустых мест для препятствия рециркуляции воздуха
2. оборудование находится вверху (последня я стойка хотя холодный воздух подается из-под фальшпола
3. не все плитки перфорированы - в холодный коридор может попадать недостаточное кол-во воздуха
было бы побольше фоток еще чего нибудь нарыл :p

bestpilot8

хотя холодный воздух подается из-под фальшпола
Холодный воздух снизу подавать бессмысленно — не будет конвекции. Я полагаю, что они додумались холодный воздух из вон тех кондиционеров в углу под потолком пустить.

kazak878

:lol: пацтулом

sergey_m

было бы побольше фоток еще чего нибудь нарыл :p
Когда делали, то тебя забыли пригласить. :lol: Ты ж ещё сегодня не верил в существование стоек заполненных 1U машинами. А уже теперь начал критиковать.

Marinavo_0507

Ты ж ещё сегодня не верил в существование стоек заполненных 1U машинами.
А они летом не выключаются от перегрева?

sergey_m

Ну у меня понты типа ваших брать неоткуда, но в общем когда я был на msk-ix peering forum, там была тема про ДЦ. Так вот утверждалось, что с площадями в Москве нет проблем, а есть с электричеством.
Это звучит примерно как: "В России проблем с жильём нет - страна большая, места хватит всем." Действительно, землю в области под сельхоз угодья можно купить за дешёво. А вот за квартиру в хорошем районе придётся заплатить большую сумму.
Так же и с площадями под ДЦ. Если рассматривать только площадки подходящие под построение ДЦ (наличие мощного ввода - одно из условий то их не так уж и много и сдаются вовсе не по ценам складов. Расходы на аренду помещений - одна из первых статей расходов у больших IT компаний. Поэтому экономия rack space - вопрос большой важности.

sergey_m

А они летом не выключаются от перегрева?
Когда выходят из строя кондиционеры, то выключаются.

Marinavo_0507

> А вот за квартиру в хорошем районе придётся заплатить большую сумму.
Ну вот я арендую квартиру в хорошем районе.
В принципе, ввести сюда оптику - решаемая задача.
Но даже одну стойку на 20кВт здесь нельзя поставить - нет столько электричества. :(

krishtaf

кстати, ты уж точно давно заметил, что самый популярный формат стоечного сервера - это 1U :)

Marinavo_0507

Что? Причём здесь я?

sergey_m

Ну вот я арендую квартиру в хорошем районе.
Перечитай ещё раз мой пост!
То, что у тебя в квартире можно расположить стойку не делает её ДЦ. Так же как на земле под сельхоз угодья можно поставить палатку, но это не делает её жильём.

Marinavo_0507

> Перечитай ещё раз мой пост!
Ну а что ты хотел сказать-то? Что если достаточно много заплатить, то найдётся электричество?
Ну в общем да, по той дискуссии у меня и сложилось такое впечатление, но при этом найдётся оно в замкадье. И туда настолько много сейчас ринулось инвесторов, что походу ожидается перепроизводтво (то есть так никто не сказал, но мне показалось, что намекали).
А в Москве таки проблема с электричеством.

kazak878

я верил в существование стоек содержащих 4 блейд шасси в максимальном конфиге :lol:
только я не верю, что это будет ОТКАЗОУСТОЙЧИВО работать с обычными схемами охлаждения.

Marinavo_0507

> Когда выходят из строя кондиционеры, то выключаются.
Ну вот прошлым летом злые языки говорили, что вот _у_всех_ крупных ДЦ одновременно выходили, и _ни_у_кого_ не было резерва. То есть типа некуда тачку на колокейшн поставить.

kazak878

кстати где именно у тебя температура 30 градусов?

kazak878

резерв "был", но большинство коммерческих цодов из-за необходимости окупаемости собираются с минимально необходимыми резервами и из оборудования фирм-производителей второго эшелона

sergey_m

Злые языки на то и злые, чтобы преувеличивать. :) Не думаю, что у всех. Прошлым летом, это 2007? Могу заверить, что стековский M1 только заполнялся и проблем у них не наблюдалось.
На самом деле во всём виноваты производители и поставщики промышленных кондиционеров (ну примерно как во всём виновато электричество :) ). Не умеют делать надёжное оборудование, или хоты бы оперативно его чинить. Мы в течение этой зимы полностью заменили кондиционеры на самой горячей серверной. Посмотрим что покажет лето 2008.

sergey_m

кстати где именно у тебя температура 30 градусов?
Там, где меряют температуру в серверных помещениях.

kazak878

ну и где именно ты меришь температуру в среднем по больнице?
АРС, например, рекомендует мерить температуру на входе в стойку и на выходе -1,5м
Также по неплохо бы знать температуры в других точках :p

sergey_m

Ну и как ты думаешь, где я говорю про 30 C на входе или на выходе?

kazak878

без понятия :p

sergey_m

То есть курсы APC прошёл, а о температурных границах в голове ничего не отложилось? Вообще незачем. Хай-енд оборудование само запищит, когда температура будет неправильной.

AlexV769

Кстати в том самом стековском М1 уже сейчас по моим ощущениям слишком тепло - и это при пустых стойках.

Angelika_900

уже сейчас по моим ощущениям слишком тепло

всё, им срочно надо брать на работу мурзика, он им сделает холодно из самых хайенд комплектующих :)

family

Так уж они и виноваты - имхо, тут ещё и наши условия, 2 раза в году резкая смена климата.

family

сующие по 20 кВт на стойку и кричащие, что все ништяк

Ну, 20 - не 20, но вон HP вообще обещает от стойки отводить по 35 киловатт(HP Modular Cooling System G2). И вроде не индивидумы, а вполне себе Tier-1 вендоры.

kazak878

нет я мысли до сих пор не научился читать :p или тебе так тяжело на вопрос ответить?
На входе многовато (особенно если внизу при подаче из-под фальшпола или вверху при подаче сверху бытовиком на выходе - нафиг не нужно без входа - вот подиж догадайся.

kazak878

во первых это не стандартная система охлаждения
во вторых у других производителей есть решения до 40 кВт
в третьих это решение срисовано с АРС и в некоторой степени риттал
в четвертых оно насколько я знаю было представлено только в этом году на цебите
и вообще что такое тиер 1 вендоры? Мне всю жизнь казалось, что тиер это классификация цодов, а не вендоров :lol:

kazak878

а у меня ноутбук ровер и все ништяк :grin:

family

А кстати, интересно, а что нужно такого в стойку набить, чтобы 40 киловатт получилось? В голову приходят только супермикровские твины, но оно вроде не настолько распространено.

A tier 1 vendor is one of the largest and most well known in its field — often enjoying national or international recognition and acceptance. Vendors may be both manufacturers and value-added resellers (VARs). For example, Cisco Systems Inc. is regarded as a tier 1 vendor in storage area network switching equipment and related technical certifications. Tier 1 vendors may also be a "preferred" vendor that provides products and services to you at appealing prices or other favorable terms.

Tier-1 операторы - тоже вроде вполне устоявшееся наименование.

kazak878

На самом деле во всём виноваты производители и поставщики промышленных кондиционеров (ну примерно как во всём виновато электричество ). Не умеют делать надёжное оборудование, или хоты бы оперативно его чинить.

А может вы виноваты сами: ДХ системы не любят перегруза :shocked:

Aleksandr27

Добрый день! Если вам нужен, качественный то как вариант можете посмотреть, возможно сможете для себя подобрать что-то подходящее серверный шкаф 19 https://shkafi-stoiki.com/ там имеется разнообразный выбор , также по доступным ценам. Сам также, там приобретал когда была необходимость.
Оставить комментарий
Имя или ник:
Комментарий: