Серверны стойки vs шкафы и вобще что брать?
Шкафы берут для ограничения физического доступа. Во всё остальном стойки лучше. Если серверная своя - брать стойки.
Псосветуй, плиз, чего брать-то?
Мне вот по типу такого понравилось. Думаю удобно на колесиках будет.
Я вообще не сильно в этой теме разбираюсь. ИМХО, надо брать конструктор и собирать из него стойки, причём фиксировать их к полу/потолку. Только конструктор надо брать хороший, чтобы без кувалды собирался.
А зачем вообще колёсики? Реально часто нужно передвигать стойку? Набитая стойка весит несколько сот кг, она не будет нормально катиться, а "перешагивать" её через любой порожек двери просто опасно.
Планирую разместить в ней хозяйство небольшой компании:
Три-четыре сервера, комутатор, ибп рековый и пачпанель опять же.
Особо тяжко не будет.
А вот так как опять же компания небольшая, то и серверная небольшая.
В итоге что бы не извиваться вокруг зафиксированной стойки как вокруг шеста , думаю взять все -таки на колесах. Ну по типу подвинул на полметра - в одному углу поколупался, подвинул обратно - в другом поколбасил.
P.S. какушками не кидать - не датацентр нифига
со 100кг такие стойки обычно не ездят, у них колеса отваливаются
хотя может есть и качественные
Надо так продумать серверную, чтобы не нужно было стойку двигать.
Если уж брать что-то на колесиках - то лучше имхо шкаф, причем поменьше, чтобы влезло только то что запланировано. Иначе засунут туда еще что-нибудь - катить будет гораздо сложнее
Шкафы берут для ограничения физического доступа. Во всё остальном стойки лучше. Если серверная своя - брать стойки.
Еще один плюс шкафа - в закрытом состоянии от него шуму порядком меньше.
1. позиционирование. Первые нужны для железа, вторые скорее для кроссового оборудования
2. Цена - стойка выбор бедных
3. Система охлаждения - в шкафах ее можно более правильно организовать (!)
4. Эстетический внешний вид - стойка с кучей проводов это "ужос"
5. В стойках могут возникнуть проблемы с установкой множества оборудования (например с нагрузкой при монтаже туда ИБП)
ну и много чего еще
По вендорам/поставщикам:
Мидл-енд ZPAS(АБН www.abn.ru) Conteg (БТК)
Хайенд APC (www.apc.ru дистрибьюторы rrc.ru ocs.ru marvel.ru lanit.ru) HP (www.ics.ru) Rittal Knuer
Вообщем если денег много рекомендую АРС http://www.apc.com/resource/include/techspec_index.cfm?base_...
мало - ZPAS (маленькое замечание: если нагрузка в стойке более 2 кВт - то дверь обязательно брать перфорированную)
конструктор например defem - реально смишное решение
Есть реальный опыт работы шкафа с сорока пятью 1U машинами, в каждой из которых 4 винта?
и к чему это чудовище?
Есть реальный опыт по созданию инженерной обвязки центров обработки данных - устроит?
Можешь ответить на поставленный вопрос? Может быть 45 машин не доводилось запускать в одном шкафу, но какое-то близкое к этом количество? Или ещё проще: скажи сколько кВт удавалось уместить в один шкаф так, чтобы температура в нём не поднималась выше 30 C?
(в своей серверной) шкаф со снятыми боковыми крышками и дверьми. по функционалу получается схож со стойкой, но кабели получаются не снаружи, а внутри.
Чтобы занимать одной стойкоместо вместо двух, трёх, пяти... или сколько там выйдет если в шкафах?
И чего что 45 машин - каких? Погорит все нафиг и будешь себя героем чувствовать?
Рекомендуется (без экстрима и битья себя пяткой в грудь под чесслово) - 5/6 кВт на стойку при НОРМАЛЬНОМ охлаждении, далее - НИКТО не гарантирует работоспособность - хотя встречаются ИНДИВИДУМЫ сующие по 20 кВт на стойку и кричащие, что все ништяк - только когда все раком встанет они куда то быстро исчезают.
Да кстати дай фотку своих 45 машин.
ZPAS: где-то +10-13" к базе
открой для себя шкафы 45-48U
Да кстати дай фотку своих 45 машин.Стойка 48U(? забитая 1U-серверами по 800Вт кажный?
ну бла всякие экстремалы бывают
открой для себя шкафы 45-48UЯ подозреваю, что в стойку 32U никак не получится впихнуть 45 1U серверов. Разве что сендвичем сверху
Достаточно типичная задача, когда надо много думать. Например, какой-нить поисковый движок
Общие принципы при выборе стоек:
для серваков - длина 1000 мм
для кроссового оборудования - ширина 750/800 мм
найди фотки датацентра яндекс, рамблера и тогда поймешь, о чем говорит Глеб
Нам приходится пилить салазки от DELL %)
найди плз если видел, было бы реально интересно.
http://www.rtcomm.ru/data_center/dc_photos/stack/index.html
http://www.rtcomm.ru/data_center/dc_photos/m10/index.html
http://www.rtcomm.ru/data_center/dc_photos/m10/index.html
Ну у меня понты типа ваших брать неоткуда, но в общем когда я был на msk-ix peering forum, там была тема про ДЦ. Так вот утверждалось, что с площадями в Москве нет проблем, а есть с электричеством.
Пустой ДЦ в Курчатнике наблюдал сам (о, вставлю понты: мне сказали, что вообще-то туда никого не пускают так вот, утверждалось, что оно так и осталось - электричества не хватило.
все верно с электричеством дикие траблы
сразу видны ошибки в системе охлаждения
1. не хватает заглушек для закрытия пустых мест для препятствия рециркуляции воздуха
2. оборудование находится вверху (последня я стойка хотя холодный воздух подается из-под фальшпола
3. не все плитки перфорированы - в холодный коридор может попадать недостаточное кол-во воздуха
было бы побольше фоток еще чего нибудь нарыл
хотя холодный воздух подается из-под фальшполаХолодный воздух снизу подавать бессмысленно — не будет конвекции. Я полагаю, что они додумались холодный воздух из вон тех кондиционеров в углу под потолком пустить.
пацтулом
было бы побольше фоток еще чего нибудь нарылКогда делали, то тебя забыли пригласить. Ты ж ещё сегодня не верил в существование стоек заполненных 1U машинами. А уже теперь начал критиковать.
Ты ж ещё сегодня не верил в существование стоек заполненных 1U машинами.А они летом не выключаются от перегрева?
Ну у меня понты типа ваших брать неоткуда, но в общем когда я был на msk-ix peering forum, там была тема про ДЦ. Так вот утверждалось, что с площадями в Москве нет проблем, а есть с электричеством.Это звучит примерно как: "В России проблем с жильём нет - страна большая, места хватит всем." Действительно, землю в области под сельхоз угодья можно купить за дешёво. А вот за квартиру в хорошем районе придётся заплатить большую сумму.
Так же и с площадями под ДЦ. Если рассматривать только площадки подходящие под построение ДЦ (наличие мощного ввода - одно из условий то их не так уж и много и сдаются вовсе не по ценам складов. Расходы на аренду помещений - одна из первых статей расходов у больших IT компаний. Поэтому экономия rack space - вопрос большой важности.
А они летом не выключаются от перегрева?Когда выходят из строя кондиционеры, то выключаются.
Ну вот я арендую квартиру в хорошем районе.
В принципе, ввести сюда оптику - решаемая задача.
Но даже одну стойку на 20кВт здесь нельзя поставить - нет столько электричества.
кстати, ты уж точно давно заметил, что самый популярный формат стоечного сервера - это 1U
Что? Причём здесь я?
Ну вот я арендую квартиру в хорошем районе.Перечитай ещё раз мой пост!
То, что у тебя в квартире можно расположить стойку не делает её ДЦ. Так же как на земле под сельхоз угодья можно поставить палатку, но это не делает её жильём.
Ну а что ты хотел сказать-то? Что если достаточно много заплатить, то найдётся электричество?
Ну в общем да, по той дискуссии у меня и сложилось такое впечатление, но при этом найдётся оно в замкадье. И туда настолько много сейчас ринулось инвесторов, что походу ожидается перепроизводтво (то есть так никто не сказал, но мне показалось, что намекали).
А в Москве таки проблема с электричеством.
только я не верю, что это будет ОТКАЗОУСТОЙЧИВО работать с обычными схемами охлаждения.
Ну вот прошлым летом злые языки говорили, что вот _у_всех_ крупных ДЦ одновременно выходили, и _ни_у_кого_ не было резерва. То есть типа некуда тачку на колокейшн поставить.
кстати где именно у тебя температура 30 градусов?
резерв "был", но большинство коммерческих цодов из-за необходимости окупаемости собираются с минимально необходимыми резервами и из оборудования фирм-производителей второго эшелона
На самом деле во всём виноваты производители и поставщики промышленных кондиционеров (ну примерно как во всём виновато электричество ). Не умеют делать надёжное оборудование, или хоты бы оперативно его чинить. Мы в течение этой зимы полностью заменили кондиционеры на самой горячей серверной. Посмотрим что покажет лето 2008.
кстати где именно у тебя температура 30 градусов?Там, где меряют температуру в серверных помещениях.
АРС, например, рекомендует мерить температуру на входе в стойку и на выходе -1,5м
Также по неплохо бы знать температуры в других точках
Ну и как ты думаешь, где я говорю про 30 C на входе или на выходе?
без понятия
То есть курсы APC прошёл, а о температурных границах в голове ничего не отложилось? Вообще незачем. Хай-енд оборудование само запищит, когда температура будет неправильной.
Кстати в том самом стековском М1 уже сейчас по моим ощущениям слишком тепло - и это при пустых стойках.
уже сейчас по моим ощущениям слишком тепло
всё, им срочно надо брать на работу мурзика, он им сделает холодно из самых хайенд комплектующих
Так уж они и виноваты - имхо, тут ещё и наши условия, 2 раза в году резкая смена климата.
сующие по 20 кВт на стойку и кричащие, что все ништяк
Ну, 20 - не 20, но вон HP вообще обещает от стойки отводить по 35 киловатт(HP Modular Cooling System G2). И вроде не индивидумы, а вполне себе Tier-1 вендоры.
На входе многовато (особенно если внизу при подаче из-под фальшпола или вверху при подаче сверху бытовиком на выходе - нафиг не нужно без входа - вот подиж догадайся.
во вторых у других производителей есть решения до 40 кВт
в третьих это решение срисовано с АРС и в некоторой степени риттал
в четвертых оно насколько я знаю было представлено только в этом году на цебите
и вообще что такое тиер 1 вендоры? Мне всю жизнь казалось, что тиер это классификация цодов, а не вендоров
а у меня ноутбук ровер и все ништяк
A tier 1 vendor is one of the largest and most well known in its field — often enjoying national or international recognition and acceptance. Vendors may be both manufacturers and value-added resellers (VARs). For example, Cisco Systems Inc. is regarded as a tier 1 vendor in storage area network switching equipment and related technical certifications. Tier 1 vendors may also be a "preferred" vendor that provides products and services to you at appealing prices or other favorable terms.
Tier-1 операторы - тоже вроде вполне устоявшееся наименование.
На самом деле во всём виноваты производители и поставщики промышленных кондиционеров (ну примерно как во всём виновато электричество ). Не умеют делать надёжное оборудование, или хоты бы оперативно его чинить.
А может вы виноваты сами: ДХ системы не любят перегруза
Добрый день! Если вам нужен, качественный то как вариант можете посмотреть, возможно сможете для себя подобрать что-то подходящее серверный шкаф 19 https://shkafi-stoiki.com/ там имеется разнообразный выбор , также по доступным ценам. Сам также, там приобретал когда была необходимость.
Оставить комментарий
Selena
Если для кого глупые вопросы - не гнобите сильно.В чем принципиальная разница между серверными шкафами и стойками.
Я в основном со шкафами имел дело.
А сейчас думаю стойку взять - доступ со всех сторон удобнее.
Кондей в серверной на потолке висит, соотвественно в стойке теплообмен будет лучше.
Какой бренд брать тоже не понятно. В инете глянул - много вариантов. Или сдесь особо не стоит заморачиваться? И где брать тоже посоветуйте