цены на storage area networks (SAN)

krishtaf

Где можно глянуть цены на оборудование Fibre Channel (или похожее) ?
Или может кто скажет по секрету ?

sobleb

Тут, например можно посмотреть немножко...

krishtaf

а где цены ?

ava3443

А какое именно оборудование интересует?
Вот тебе примерные цены на IBM-овские диски FC (за штуку):
72 GB, 10K RPM FC HDD ~ 750$
72 GB, 15K RPM FC HDD ~ 1400$
144 GB, 10K RPM FC HDD ~ 1450$

CapitanJack

лехко - сторадж двуконтроллерный на 14 дисков по 73 гб 10к - 30куе.
свич на 16 портов - 15куе
хостбас адаптер - 1куе
библиотека с двумя эфси драйвами - 25 куе.

все решение на два сервера 30+2х15+4х1+25 =89 куе

это все цены от брендов типа ибм, хп, сан, емс, хитачи.
если хочешь подробнее то пиши задачи. построение сэн ради сэн не имеет смысла.

CapitanJack

неверные цены. это скорее входящие для партнеров да еще и со скидкой.

CapitanJack

хотя чота я не так посмотрел это наоборот

krishtaf

о профи обнаружился )
есть задачка на обеспечение надежности ИС(инфрмационной системыкоторая сводится к обеспечению надежности оракла:
Есть два сервака(допустим там везде RHEL4 AS) - один - мастер, второй - бекап.
Как добиться того, чтобы при выходе из строя мастера - бекап поднимался в рабочее состояние, ну скажем, не более чем за 15 минут.
Рассморю все варианты от 1 до 3 (и не только):
1. Из корзины мастера перекладываюся нужные диски в корзину бекапа и т.д.
2. Вариант кластеризации на уровне самого оракла. Возможно такого нет, но вдруг. (не спец - ногами не пинать )
3. Кластеризация на уровне серверов. С использованием общего хранилища.
Допустим мастер и бекап имеют хотсвопные диски в своих рейд-массивах.
Как я понимаю - то вариант 3. наименее геморный в обслуживании. Хотелось бы узнать цену варианта 3.
Еще подвопрос:
Существующие SAN решения подразумевают функции RAID ?

CapitanJack

1 - так никто не делает
2а - можно, на первом оракл, на втором оракл в режиме стендбай. с первого на второй все время передаются и накатыватся логи. в обоих серверах должно быть дисковое пространство одинакового размера. время подема стендбая достаточно большое (пара часов)
2б - можно сделать RAC -Real Application Cluster. при этом нужен внешний сторадж, оба сервера работают парралельно - то есть разные транзакции на разные серверы попадают. при выходе из строя мы теряем только те транзакции которые не успели завершится до падения. время подъема очень маленькое (пара минут). но стоит этот RAC дороже самого оракла, оракл нужен только энтерпрайз, и может снизится производительность.
3 - сторонний кластер (например веритас кластер сервер) при этом используется внешний сторадж. на одном узле работает оракл, при его падении сторадж автоматом отдается второму, там стартует оракл. время восстановления - время старта оракла. примерно полчаса

CapitanJack

рейд - да. напиши что у тебя за сервера, объем базы, и бюджет

krishtaf

Какая цена внешнего хранилища ?
Требуется не большой обьем ~ 100 Гб. Желательно чтобы 100 Гб - это был уже RAID1
Можно в приват.

krishtaf

кстати кластер средсвами RHEL 4 AS можно будет сделать ? Ну или хотябы какими-нибудь добавками от RedHat

krishtaf

сервера еще не куплены
Можно выбрать наиболее подходящие

krishtaf

"другой взгляд на мир" от тебя будет ?

CapitanJack

бюджет не озвучил. можно делать полноценный сэн - то есть FC массив на FC дисках, два коммутатора, по два адаптера в каждый сервер. цена будет массив 15куе, свичи по 5куе, адаптеры опять по 1 куе, софт кластерный -думаю по 5 куе на узел, + работы. всего 39 + 10%работы - 45 куев

если денег мало то будет массив с прямым подключением обоих серверов. это минус 10куе за свичи.

если еще меньше - массив будет снаружи FC, внутри диски-скази. это еще минус 5 куе.

CapitanJack

вот кстати кластер от редхат - http://www.redhat.com/en_us/USA/home/solutions/clustersuite/
но я его не знаю и внедрять не возьмусь. про него я вообще не слышали ни разу до этого момента

ava3443

1 - так никто не делает
+1
2а - можно, на первом оракл, на втором оракл в режиме стендбай. с первого на второй все время передаются и накатыватся логи. в обоих серверах должно быть дисковое пространство одинакового размера. время подема стендбая достаточно большое (пара часов)
Откуда пара часов - непонятно. Время восстановления = время активации стендбая + время старта оракла. По моему опыту на совсем мелких базах (до 30 гигов) это всё меньше минуты занимает. На базах размером до 300 гигов больше 15 минут это не займёт.
Фича называется Data Guard, для неё нужен Enterprise Edition
2б - можно сделать RAC -Real Application Cluster. при этом нужен внешний сторадж, оба сервера работают парралельно - то есть разные транзакции на разные серверы попадают. при выходе из строя мы теряем только те транзакции которые не успели завершится до падения. время подъема очень маленькое (пара минут). но стоит этот RAC дороже самого оракла, оракл нужен только
энтерпрайз, и может снизится производительность.
Не дороже, а ровно половина цены EE. Если, конечно у вас не 2 двухголовые серверы (для 2 + 2 = 4 процессоров хватит и Standard Edition, в котором RAC включён бесплатно, если речь идёт об Oracle 10g)
А вообще, 2б я бы поставил на место 4 - по цене и по тому функционалу, который даёт этот вариант.
3 - сторонний кластер (например веритас кластер сервер) при этом используется внешний сторадж. на одном узле работает оракл, при его падении сторадж автоматом отдается второму, там стартует оракл. время восстановления - время старта оракла. примерно полчаса
Опять же, какой размер базы? Какие-то ты недетские базы поднимаешь ? Откуда полчаса на старт Оракла?

ava3443

"другой взгляд на мир" от тебя будет ?
Надо различать задачи:
1) обеспечение высокой доступности в рамках одного дата центра
2) обеспечение возможности восстановления на резервном дата центре при серьёзном сбое основного дата центра
Я так понял, тебя (1) интересует. Data Guard - это один из вариантов решения (2). Для (1) используются (локальные) кластеры.
Простейший и наиболее дешёвый вариант решения (1) - active/passive кластер на 2 узла: ставятся два сервера, к обоим подключается дисковый массив. В нормальном режиме запущены оба сервера, тома на дисковом массиве подключены к одному из них и на нём же запущен и работает Оракл. В случае сбоя Оракл опускается, тома дискового массива перекидываются на другой узел, там поднимается Оракл, всё продолжает работать (приложения естественно при переключении отваливаются, если в них нет специальной логики).
Важно что при этом варианте Оракл лицензируется только на первый узел, на второй лицензия не покупается. Enterprise Edition не требуется - да собвственно вообще пофигу какой Edition.
RAC - это уже более крутой вариант, я думаю тебе он вряд ли актуален.

ava3443

Вот тебе дешёвый вариант от IBM: дисковый массив подключаемый к 2 серверам по SCSI.
  Product           Description            Qty        Purchase          Maint   
2104-DS4 IBM TotalStorage Expandable 1 5397.00 211.00
Storage Plus 320 - Drawer Model
2642 Ultra320 Port, Second Port 1 653.00
3430 AC Power Supply 1 1421.00
3499 Fan Unit 1 327.00
4073 73.4 GB Ultra320 SCSI 10K rpm 14 10010.00
Disk Drive
5303 3m Ultra320 Cable 2 280.00
9300 U.S. English 1 N/C
========= ======
2104-DS4 Price 18088.00
Monthly Maintenance 211.00

krishtaf

Да, наверно 1).
Простейший и наиболее дешёвый вариант решения (1) - active/passive кластер на 2 узла: ставятся два сервера, к обоим подключается дисковый массив. В нормальном режиме запущены оба сервера, тома на дисковом массиве подключены к одному из них и на нём же запущен и работает Оракл. В случае сбоя Оракл опускается, тома дискового массива перекидываются на другой узел, там поднимается Оракл, всё продолжает работать (приложения естественно при переключении отваливаются, если в них нет специальной логики).
Какими средствами делается active/passive кластер на 2 узла ?
Один и тот же дисковый массив подключается к обоим серверам ? По SCSI, Fibre channel, что-то еще ?
Что перекидывает тома дискового массива ?
P.S.
Что такое дата-центр в твоем понимании ?

ava3443

неверные цены. это скорее входящие для партнеров да еще и со скидкой.
Фиг знает насчёт скидок и партнёров
Я квотации не делаю, мне конфигуратор нужен только для принятия решения о выборе того или иного варианта.

krishtaf

видимо то что нужно
а какие SCSI адаптеры нужны и по чем ?

ava3443

Какими средствами делается active/passive кластер на 2 узла ?
HP MC/ServiceGuard, IBM HACMP, Veritas Cluster, Microsoft Cluster Services, Redhat Cluster Suite, ну и другие. Сильно зависит от платформы в общем, хотя Veritas много на чём работает, да и Serviceguard на линуксе вроде есть.
Один и тот же дисковый массив подключается к обоим серверам ?
Да.
По SCSI, Fibre channel, что-то еще ?
Да, или SCSI (но тогда серверов больше 2 не получится подключить насколько я понимаю) или Fibre channel. Про другие варианты я не в курсе.
Что перекидывает тома дискового массива ?
Кластерный софт.
Что такое дата-центр в твоем понимании ?
Резервный дата-центр в моём понимании - это отдельное здание, удалённое хотя бы на несколько километров от основного.

ava3443

видимо то что нужно
Т.е. цена сильно решает?
а какие SCSI адаптеры нужны и по чем ?
Хороший вопрос
После разглядывания сайта Redhat у меня сложилось впечатление Redhat-овскому кластеру пофигу, лишь бы адаптер поддерживался RHEL.

CapitanJack

не вводи в заблуждение - это не массив а просто коробка _без контроллеров_. к тому же она только для писерий - у него же наверняка интел сервера.

CapitanJack

не связывайтесь со скази! надежность вы этим не повысите. будет единая точка отказа - сама скази шина.

ava3443

не вводи в заблуждение - это не массив а просто коробка _без контроллеров_.
А ты посмотри на неё внимательнее - там контроллеров и не предполагается.
к тому же она только для писерий - у него же наверняка интел сервера.
Вот тут ты прав

CapitanJack

рейд будешь как делать? на хост адаптерах? писец.

ava3443

не связывайтесь со скази! надежность вы этим не повысите. будет единая точка отказа - сама скази шина.
А я повышенной надёжности (по сравнению с FC) и не предлагал вроде
А единая точка отказа и так наверняка присутствует - питание в серверную ведь наверняка из одного источника подведено. Да и кондиционер наверное не задублирован

CapitanJack

ты не путай кондей, упсы и скази готовность у кластера на скази меньше чем готовность без кластера вообще

ava3443

Да не, это я так привёл, в качестве минимально варианта для кластера :-)
У нас такая байда где-то для развлечений с HACMP стоит
Реально конечно нормальный массив надо

ava3443

готовность у кластера на скази меньше чем готовность без кластера вообще
Где бы что-нибудь почитать на этот счёт... А то сдаётся мне, некоторые наши проекты, сделанные лет 5 назад, как раз на таком скази сделаны. Ещё один аргумент может поможет сподвигнуть клиента на апгрейд

krishtaf

лехко - сторадж двуконтроллерный на 14 дисков по 73 гб 10к - 30куе.
свич на 16 портов - 15куе
хостбас адаптер - 1куе
библиотека с двумя эфси драйвами - 25 куе.

все решение на два сервера 30+2х15+4х1+25 =89 куе
а самая минимальная конфигурация сколько будет в деньгах ?

CapitanJack

самый минимум - одноконтроллерный сторадж, по одному дешевому адаптеру в серверы, упертый софт, внедрение своими силами: 5куе массив + 4х400 скази диски +2х500 адаптеры + 2х50 кабели оптика 5 метров = 7700 баксов это все равно луче чем чисто скази да и не сильно дороже. поверх этого лучче делать оракл стендбай а не кластер.

ava3443

Библиотеку ленточную выкинь, которая за 25 - вот и будет минимальная FC конфигурация, исключающая единую точку отказа. Купить у IBM меньше 14 дисков, вероятно, не получится.

CapitanJack

почему не получицца? легко. хоть без дисков. и не только ибм кстати

ava3443

поверх этого лучче делать оракл стендбай а не кластер
Ага, а теперь посчитаем стоимость лицензии на Оракл для 2x двухголовых серверов:
Стендбай = 2 x 2 x Oracle Enteprise = 2 x 2 x 40.000 USD = 160.000 USD (list price если по процессорам считать)
Кластер = 1 x 2 x Oracle Standard = 1 x 2 x 15.000 USD = 30.000 USD
Если посчитать для 4-головых серверов, то получим 320.000 USD против 60.000 USD.

ava3443

а чего тогда квотатор говорит что меньше 14 нельзя?

krishtaf

упертый софт
что это значит ?
Я так понимаю, что если сдохнет сам массив - то все рухнет
По статистике, часто выходят из строя предложенный тобой массив за 5 куе ? Кто производитель ?
Блин, фигово. получается так что самые подходящие - это самый дешевый(1. С перетыканием дисков из сервера в вервер) и самый дорогой (3. С дорогим нешним хранилищем)
Чем грозит самый дешевый вариант ?

ava3443

Самый дешёвый вариант грозит тем что нужны специально обученные негры, постоянно сидящие у сервера наготове

krishtaf

они дешевле
а еще какие минусы ?

CapitanJack

негры диск уронили - базе хана. негры диск криво воткнули - базе хана. негры жирными пальцами ткнули в плату на диске - базе опять же хана. кароче этот вариант неприемлем совсем.

я приводил стоимость решения на ибме.

CapitanJack

незнаю что там у тебя за "квотатор" а оба конфигуратора от ибм (еконфиг и экселевский для хсерии) позволяют ставить любое количество дисков

CapitanJack

упертый это значит не купленный. оракл качаецца с оракл.ком лицензия - просто бумажка ( ну и доступ на металинк)

ava3443

Ае! Нашёл мазу - оказывается надо было читать что пишет еконфиг. Ultra320 Disk Bay Filler в достаточном количестве решают проблему

krishtaf

я приводил стоимость решения на ибме.
да но если сам массив сдохнет или начнет терять диски - то диски уже не перевоткнешь в другой сервак.
Допустим мастер-сервер выходит из строя 3 раза за 2 года --> соответственно неграм придется дотрагиваться до дисков совсем не часто.
Как должно быть аргументировано начальство, чтобы оно дало согласие на покупку предложенного тобой решения на железках от IBM, если у начальства есть дешевый, железобетонный вариант с неграми ?
Решение на покупку принимает начальство

CapitanJack

спроси у начальства сколько стоит день простоя базы, и сколько стоит полная потеря этой самой базы. можешь еще спросить сколько стоит сама контора целиком

krishtaf

в том то и дело что простой при твоем решении потенциально может быть больше суток, при выходе из строя фибры
а при варианте с неграми - скорее всего будет все хорошо. (ну например начальство скажет что у них есть высокоаккуратные негры или, что еще хуже, начальство будет само перетыкать диски )

krishtaf

Кстати, как обходят ситуации, когда ломается фибра ?

ava3443

в том то и дело что простой при твоем решении потенциально может быть больше суток, при выходе из строя фибры
Это при каком из них? Если про то, в котором 2 контроллера, 2 FC свича и по 2 FC адаптера в каждом сервере, так мы поставляем на таких SANах решения с доступностью 99.95% (считай, это не более 1 дня простоя в сумме за год)

ava3443

Кстати, как обходят ситуации, когда ломается фибра ?
Дублированием?

krishtaf

Это при каком из них?
это про самый последний от Ивана, который 7ххх куе

krishtaf

а как инфа будет сразу на два массива растекаться ?

ava3443

Массив один, все звенья задублированы: FC адаптеры, свичи, контроллеры...

CapitanJack

там не два массива а два контроллера. и есть спец дрова для адаптеров. кароче голову не забивай сейчас. обычно сэн строится без единой точки отказа, то есть дублируются свичи, адаптеры, и массивы. либо в массив сам строится без единой точки отказа - то есть в нем два контроллера, два блока питания, к каждому диску два пути да и сами диски с двумя портами ну и рейд на всем этом и зеркалирование кешей контроллеров.

krishtaf

и все за 7.ххх куе ?

CapitanJack

в моем последнем варианте вообще нету дублирования с дублированием я уже писал - получается массив 10куе, 4 адаптера если дешевые то по 500, провода. итого 12куе - это уже у нас надежность достаточная

krishtaf

и все за 7.ххх куе ?

ava3443

krishtaf

получается массив 10куе, 4 адаптера если дешевые то по 500, провода. итого 12куе
1. Что входит в массив ? FC свитчи, диски ?
2. Такое железо только у интеграторов можно купить ?
3. Какая процедура получения оффициального прайса от интегратора ?

CapitanJack

1 - в массив входят диски и на каждом контроллере массива по два FC порта - таким образом можно подключать два сервера по дублированным каналам.
2 - нет не только. например на прайс ру легко все ищецца.
3 - у интегратора нету прайса - звони и манагер тебя слопает

CapitanJack

это за 70куе

krishtaf

12 куе и 70 куе - почему такая разница ?

CapitanJack

надежность, производительность, масштабируемость.

krishtaf

итого 12куе - это уже у нас надежность достаточная
тогда можешь подробно написать еще раз про этот вариант ?
Какие компоненты и сколько стоит каждый компонент ?
Как обеспечивается надежность самого массива в данном варианте оборудования ?

CapitanJack

значит у нас будет массив на скази дисках. наружу у него будет выход на 4 FC порта. в массиве дублированы все компоненты - то есть единой точки отказа нет. для FC портов покупаются оптический трансиверы - 4 шт. в массиве будет 4 диска по 73 ГБ 10000 оборотов - на них будет сделан рейд 10 - в принципе еще хорошо бы один диск поставить в качестве hot-spare ака горячего резерва. в серверах будет по два адаптера FC, еще будут 4 оптических провода по 5 метров. разъемы на них LC.

итого :























32P0724IBM 73.4GB 10K-rpm Ultra320 SCSI SL HDD4$374.00$1,496.00
13N1873IBM 2 Gbps FC Host Bus Adapter4$786.00$3,144.00
19K1248IBM 5M LC-LC Fibre Channel Cable4$96.00$384.00
17002RDIBM TotalStorage DS400 2RD Dual Controller1$8,058.00$8,058.00
22R0483IBM Short Wave SFP Transceiver 4 Pack1$550.00$550.00
Total$13,632.00


все цены конфигураторские. в принципе там можно оптимизировать цену

krishtaf

кстати, а как резервируют сетевые адаптеры ?

CapitanJack

тупым дублированием - в каждом сервере два адаптера, дальше ставицца драйвер массива. каждый логический диск массива будет видицца дважды, и над этой парой взводится виртуальный диск, видимый операционке.

krishtaf

это было понятно,
вопрос про NIC был.

CapitanJack

езерченел. он может по разному называцца - типа teaming, транкинг и прочее.

CapitanJack

ну и если есть кластерный софт то как правило он сам IP поднимает на другом адаптере если первый издох.
Оставить комментарий
Имя или ник:
Комментарий: