цены на storage area networks (SAN)
Тут, например можно посмотреть немножко...
а где цены ?
Вот тебе примерные цены на IBM-овские диски FC (за штуку):
72 GB, 10K RPM FC HDD ~ 750$
72 GB, 15K RPM FC HDD ~ 1400$
144 GB, 10K RPM FC HDD ~ 1450$
свич на 16 портов - 15куе
хостбас адаптер - 1куе
библиотека с двумя эфси драйвами - 25 куе.
все решение на два сервера 30+2х15+4х1+25 =89 куе
это все цены от брендов типа ибм, хп, сан, емс, хитачи.
если хочешь подробнее то пиши задачи. построение сэн ради сэн не имеет смысла.
неверные цены. это скорее входящие для партнеров да еще и со скидкой.
хотя чота я не так посмотрел это наоборот
есть задачка на обеспечение надежности ИС(инфрмационной системыкоторая сводится к обеспечению надежности оракла:
Есть два сервака(допустим там везде RHEL4 AS) - один - мастер, второй - бекап.
Как добиться того, чтобы при выходе из строя мастера - бекап поднимался в рабочее состояние, ну скажем, не более чем за 15 минут.
Рассморю все варианты от 1 до 3 (и не только):
1. Из корзины мастера перекладываюся нужные диски в корзину бекапа и т.д.
2. Вариант кластеризации на уровне самого оракла. Возможно такого нет, но вдруг. (не спец - ногами не пинать )
3. Кластеризация на уровне серверов. С использованием общего хранилища.
Допустим мастер и бекап имеют хотсвопные диски в своих рейд-массивах.
Как я понимаю - то вариант 3. наименее геморный в обслуживании. Хотелось бы узнать цену варианта 3.
Еще подвопрос:
Существующие SAN решения подразумевают функции RAID ?
2а - можно, на первом оракл, на втором оракл в режиме стендбай. с первого на второй все время передаются и накатыватся логи. в обоих серверах должно быть дисковое пространство одинакового размера. время подема стендбая достаточно большое (пара часов)
2б - можно сделать RAC -Real Application Cluster. при этом нужен внешний сторадж, оба сервера работают парралельно - то есть разные транзакции на разные серверы попадают. при выходе из строя мы теряем только те транзакции которые не успели завершится до падения. время подъема очень маленькое (пара минут). но стоит этот RAC дороже самого оракла, оракл нужен только энтерпрайз, и может снизится производительность.
3 - сторонний кластер (например веритас кластер сервер) при этом используется внешний сторадж. на одном узле работает оракл, при его падении сторадж автоматом отдается второму, там стартует оракл. время восстановления - время старта оракла. примерно полчаса
рейд - да. напиши что у тебя за сервера, объем базы, и бюджет
Требуется не большой обьем ~ 100 Гб. Желательно чтобы 100 Гб - это был уже RAID1
Можно в приват.
кстати кластер средсвами RHEL 4 AS можно будет сделать ? Ну или хотябы какими-нибудь добавками от RedHat
Можно выбрать наиболее подходящие
"другой взгляд на мир" от тебя будет ?
если денег мало то будет массив с прямым подключением обоих серверов. это минус 10куе за свичи.
если еще меньше - массив будет снаружи FC, внутри диски-скази. это еще минус 5 куе.
http://www.redhat.com/en_us/USA/home/solutions/clustersuite/
но я его не знаю и внедрять не возьмусь. про него я вообще не слышали ни разу до этого момента
вот кстати кластер от редхат - но я его не знаю и внедрять не возьмусь. про него я вообще не слышали ни разу до этого момента
1 - так никто не делает+1
2а - можно, на первом оракл, на втором оракл в режиме стендбай. с первого на второй все время передаются и накатыватся логи. в обоих серверах должно быть дисковое пространство одинакового размера. время подема стендбая достаточно большое (пара часов)Откуда пара часов - непонятно. Время восстановления = время активации стендбая + время старта оракла. По моему опыту на совсем мелких базах (до 30 гигов) это всё меньше минуты занимает. На базах размером до 300 гигов больше 15 минут это не займёт.
Фича называется Data Guard, для неё нужен Enterprise Edition
2б - можно сделать RAC -Real Application Cluster. при этом нужен внешний сторадж, оба сервера работают парралельно - то есть разные транзакции на разные серверы попадают. при выходе из строя мы теряем только те транзакции которые не успели завершится до падения. время подъема очень маленькое (пара минут). но стоит этот RAC дороже самого оракла, оракл нужен толькоНе дороже, а ровно половина цены EE. Если, конечно у вас не 2 двухголовые серверы (для 2 + 2 = 4 процессоров хватит и Standard Edition, в котором RAC включён бесплатно, если речь идёт об Oracle 10g)
энтерпрайз, и может снизится производительность.
А вообще, 2б я бы поставил на место 4 - по цене и по тому функционалу, который даёт этот вариант.
3 - сторонний кластер (например веритас кластер сервер) при этом используется внешний сторадж. на одном узле работает оракл, при его падении сторадж автоматом отдается второму, там стартует оракл. время восстановления - время старта оракла. примерно полчасаОпять же, какой размер базы? Какие-то ты недетские базы поднимаешь ? Откуда полчаса на старт Оракла?
"другой взгляд на мир" от тебя будет ?Надо различать задачи:
1) обеспечение высокой доступности в рамках одного дата центра
2) обеспечение возможности восстановления на резервном дата центре при серьёзном сбое основного дата центра
Я так понял, тебя (1) интересует. Data Guard - это один из вариантов решения (2). Для (1) используются (локальные) кластеры.
Простейший и наиболее дешёвый вариант решения (1) - active/passive кластер на 2 узла: ставятся два сервера, к обоим подключается дисковый массив. В нормальном режиме запущены оба сервера, тома на дисковом массиве подключены к одному из них и на нём же запущен и работает Оракл. В случае сбоя Оракл опускается, тома дискового массива перекидываются на другой узел, там поднимается Оракл, всё продолжает работать (приложения естественно при переключении отваливаются, если в них нет специальной логики).
Важно что при этом варианте Оракл лицензируется только на первый узел, на второй лицензия не покупается. Enterprise Edition не требуется - да собвственно вообще пофигу какой Edition.
RAC - это уже более крутой вариант, я думаю тебе он вряд ли актуален.
Product Description Qty Purchase Maint
2104-DS4 IBM TotalStorage Expandable 1 5397.00 211.00
Storage Plus 320 - Drawer Model
2642 Ultra320 Port, Second Port 1 653.00
3430 AC Power Supply 1 1421.00
3499 Fan Unit 1 327.00
4073 73.4 GB Ultra320 SCSI 10K rpm 14 10010.00
Disk Drive
5303 3m Ultra320 Cable 2 280.00
9300 U.S. English 1 N/C
========= ======
2104-DS4 Price 18088.00
Monthly Maintenance 211.00
Простейший и наиболее дешёвый вариант решения (1) - active/passive кластер на 2 узла: ставятся два сервера, к обоим подключается дисковый массив. В нормальном режиме запущены оба сервера, тома на дисковом массиве подключены к одному из них и на нём же запущен и работает Оракл. В случае сбоя Оракл опускается, тома дискового массива перекидываются на другой узел, там поднимается Оракл, всё продолжает работать (приложения естественно при переключении отваливаются, если в них нет специальной логики).Какими средствами делается active/passive кластер на 2 узла ?
Один и тот же дисковый массив подключается к обоим серверам ? По SCSI, Fibre channel, что-то еще ?
Что перекидывает тома дискового массива ?
P.S.
Что такое дата-центр в твоем понимании ?
неверные цены. это скорее входящие для партнеров да еще и со скидкой.Фиг знает насчёт скидок и партнёров
Я квотации не делаю, мне конфигуратор нужен только для принятия решения о выборе того или иного варианта.
а какие SCSI адаптеры нужны и по чем ?
Какими средствами делается active/passive кластер на 2 узла ?HP MC/ServiceGuard, IBM HACMP, Veritas Cluster, Microsoft Cluster Services, Redhat Cluster Suite, ну и другие. Сильно зависит от платформы в общем, хотя Veritas много на чём работает, да и Serviceguard на линуксе вроде есть.
Один и тот же дисковый массив подключается к обоим серверам ?Да.
По SCSI, Fibre channel, что-то еще ?Да, или SCSI (но тогда серверов больше 2 не получится подключить насколько я понимаю) или Fibre channel. Про другие варианты я не в курсе.
Что перекидывает тома дискового массива ?Кластерный софт.
Что такое дата-центр в твоем понимании ?Резервный дата-центр в моём понимании - это отдельное здание, удалённое хотя бы на несколько километров от основного.
видимо то что нужноТ.е. цена сильно решает?
а какие SCSI адаптеры нужны и по чем ?Хороший вопрос
После разглядывания сайта Redhat у меня сложилось впечатление Redhat-овскому кластеру пофигу, лишь бы адаптер поддерживался RHEL.
не вводи в заблуждение - это не массив а просто коробка _без контроллеров_. к тому же она только для писерий - у него же наверняка интел сервера.
не связывайтесь со скази! надежность вы этим не повысите. будет единая точка отказа - сама скази шина.
не вводи в заблуждение - это не массив а просто коробка _без контроллеров_.А ты посмотри на неё внимательнее - там контроллеров и не предполагается.
к тому же она только для писерий - у него же наверняка интел сервера.Вот тут ты прав
рейд будешь как делать? на хост адаптерах? писец.
не связывайтесь со скази! надежность вы этим не повысите. будет единая точка отказа - сама скази шина.А я повышенной надёжности (по сравнению с FC) и не предлагал вроде
А единая точка отказа и так наверняка присутствует - питание в серверную ведь наверняка из одного источника подведено. Да и кондиционер наверное не задублирован
ты не путай кондей, упсы и скази готовность у кластера на скази меньше чем готовность без кластера вообще
У нас такая байда где-то для развлечений с HACMP стоит
Реально конечно нормальный массив надо
готовность у кластера на скази меньше чем готовность без кластера вообщеГде бы что-нибудь почитать на этот счёт... А то сдаётся мне, некоторые наши проекты, сделанные лет 5 назад, как раз на таком скази сделаны. Ещё один аргумент может поможет сподвигнуть клиента на апгрейд
лехко - сторадж двуконтроллерный на 14 дисков по 73 гб 10к - 30куе.а самая минимальная конфигурация сколько будет в деньгах ?
свич на 16 портов - 15куе
хостбас адаптер - 1куе
библиотека с двумя эфси драйвами - 25 куе.
все решение на два сервера 30+2х15+4х1+25 =89 куе
самый минимум - одноконтроллерный сторадж, по одному дешевому адаптеру в серверы, упертый софт, внедрение своими силами: 5куе массив + 4х400 скази диски +2х500 адаптеры + 2х50 кабели оптика 5 метров = 7700 баксов это все равно луче чем чисто скази да и не сильно дороже. поверх этого лучче делать оракл стендбай а не кластер.
Библиотеку ленточную выкинь, которая за 25 - вот и будет минимальная FC конфигурация, исключающая единую точку отказа. Купить у IBM меньше 14 дисков, вероятно, не получится.
почему не получицца? легко. хоть без дисков. и не только ибм кстати
поверх этого лучче делать оракл стендбай а не кластерАга, а теперь посчитаем стоимость лицензии на Оракл для 2x двухголовых серверов:
Стендбай = 2 x 2 x Oracle Enteprise = 2 x 2 x 40.000 USD = 160.000 USD (list price если по процессорам считать)
Кластер = 1 x 2 x Oracle Standard = 1 x 2 x 15.000 USD = 30.000 USD
Если посчитать для 4-головых серверов, то получим 320.000 USD против 60.000 USD.
а чего тогда квотатор говорит что меньше 14 нельзя?
упертый софтчто это значит ?
Я так понимаю, что если сдохнет сам массив - то все рухнет
По статистике, часто выходят из строя предложенный тобой массив за 5 куе ? Кто производитель ?
Блин, фигово. получается так что самые подходящие - это самый дешевый(1. С перетыканием дисков из сервера в вервер) и самый дорогой (3. С дорогим нешним хранилищем)
Чем грозит самый дешевый вариант ?
Самый дешёвый вариант грозит тем что нужны специально обученные негры, постоянно сидящие у сервера наготове
а еще какие минусы ?
я приводил стоимость решения на ибме.
незнаю что там у тебя за "квотатор" а оба конфигуратора от ибм (еконфиг и экселевский для хсерии) позволяют ставить любое количество дисков
упертый это значит не купленный. оракл качаецца с оракл.ком лицензия - просто бумажка ( ну и доступ на металинк)
Ае! Нашёл мазу - оказывается надо было читать что пишет еконфиг. Ultra320 Disk Bay Filler в достаточном количестве решают проблему
я приводил стоимость решения на ибме.да но если сам массив сдохнет или начнет терять диски - то диски уже не перевоткнешь в другой сервак.
Допустим мастер-сервер выходит из строя 3 раза за 2 года --> соответственно неграм придется дотрагиваться до дисков совсем не часто.
Как должно быть аргументировано начальство, чтобы оно дало согласие на покупку предложенного тобой решения на железках от IBM, если у начальства есть дешевый, железобетонный вариант с неграми ?
Решение на покупку принимает начальство
спроси у начальства сколько стоит день простоя базы, и сколько стоит полная потеря этой самой базы. можешь еще спросить сколько стоит сама контора целиком
а при варианте с неграми - скорее всего будет все хорошо. (ну например начальство скажет что у них есть высокоаккуратные негры или, что еще хуже, начальство будет само перетыкать диски )
Кстати, как обходят ситуации, когда ломается фибра ?
в том то и дело что простой при твоем решении потенциально может быть больше суток, при выходе из строя фибрыЭто при каком из них? Если про то, в котором 2 контроллера, 2 FC свича и по 2 FC адаптера в каждом сервере, так мы поставляем на таких SANах решения с доступностью 99.95% (считай, это не более 1 дня простоя в сумме за год)
Кстати, как обходят ситуации, когда ломается фибра ?Дублированием?
Это при каком из них?это про самый последний от Ивана, который 7ххх куе
а как инфа будет сразу на два массива растекаться ?
Массив один, все звенья задублированы: FC адаптеры, свичи, контроллеры...
там не два массива а два контроллера. и есть спец дрова для адаптеров. кароче голову не забивай сейчас. обычно сэн строится без единой точки отказа, то есть дублируются свичи, адаптеры, и массивы. либо в массив сам строится без единой точки отказа - то есть в нем два контроллера, два блока питания, к каждому диску два пути да и сами диски с двумя портами ну и рейд на всем этом и зеркалирование кешей контроллеров.
и все за 7.ххх куе ?
в моем последнем варианте вообще нету дублирования с дублированием я уже писал - получается массив 10куе, 4 адаптера если дешевые то по 500, провода. итого 12куе - это уже у нас надежность достаточная
и все за 7.ххх куе ?
получается массив 10куе, 4 адаптера если дешевые то по 500, провода. итого 12куе1. Что входит в массив ? FC свитчи, диски ?
2. Такое железо только у интеграторов можно купить ?
3. Какая процедура получения оффициального прайса от интегратора ?
2 - нет не только. например на прайс ру легко все ищецца.
3 - у интегратора нету прайса - звони и манагер тебя слопает
это за 70куе
12 куе и 70 куе - почему такая разница ?
надежность, производительность, масштабируемость.
итого 12куе - это уже у нас надежность достаточнаятогда можешь подробно написать еще раз про этот вариант ?
Какие компоненты и сколько стоит каждый компонент ?
Как обеспечивается надежность самого массива в данном варианте оборудования ?
итого :
32P0724 | IBM 73.4GB 10K-rpm Ultra320 SCSI SL HDD | 4 | $374.00 | $1,496.00 |
13N1873 | IBM 2 Gbps FC Host Bus Adapter | 4 | $786.00 | $3,144.00 |
19K1248 | IBM 5M LC-LC Fibre Channel Cable | 4 | $96.00 | $384.00 |
17002RD | IBM TotalStorage DS400 2RD Dual Controller | 1 | $8,058.00 | $8,058.00 |
22R0483 | IBM Short Wave SFP Transceiver 4 Pack | 1 | $550.00 | $550.00 |
Total | $13,632.00 |
все цены конфигураторские. в принципе там можно оптимизировать цену
кстати, а как резервируют сетевые адаптеры ?
тупым дублированием - в каждом сервере два адаптера, дальше ставицца драйвер массива. каждый логический диск массива будет видицца дважды, и над этой парой взводится виртуальный диск, видимый операционке.
вопрос про NIC был.
езерченел. он может по разному называцца - типа teaming, транкинг и прочее.
ну и если есть кластерный софт то как правило он сам IP поднимает на другом адаптере если первый издох.
Оставить комментарий
krishtaf
Где можно глянуть цены на оборудование Fibre Channel (или похожее) ?Или может кто скажет по секрету ?