cluster building

krishtaf

Интересует правильная методология для построения HighAvailability и NLB Clusters на базе opensource OS (BSD и Linux).
Хочется знать как правильно строить:
1. HighAvailability Cluster-ы:
- если нужна кластеризация только для сетевых сервисов (без синхроизации данных)
- если нужны кластеризация и сетевых сервисов и синхронизация данных этих сервисов(между node-master и node-slave)
2. Network Load Balancing (NLB) Cluster-ы:
- если нужна кластеризация только для сетевых сервисов (без синхроизации данных)
- если нужны кластеризация и сетевых сервисов и синхронизация данных этих сервисов(между равноправными нодами)
Для построения HighAvailability кластеров используются:
VRRP, HSRP, CARP реализации - FreeVRRPd, HeartBeat, KeepAlived, uCARP
1. Что лучше (надежнее и функциональнее) ?
2. Есть ли еще что-нибудь ?
Для синхронизации данных используются:
DRDB, ggatec/ggated
1. Насколько безглючно они работают ? для production использования готовы ?
2. Есть ли еще что-нибудь ?
Для построения NLB кластеров кроме вышеперечисленного должен присутствовать компонент под названием Load Balancer
1. Какие существуют ?
2. Какие лучше и для каких целей ?
P.S.
Есть понимание "как построить и зачем это нужно".
Интересует статистика по использованию того или иного ПО.
Интересует как ведут себя указанные компоненты в различных комбинациях. Например: FreeVRRPd + DRDB vs uCARP + ggatec/ggated и т.д.
Интересует в сравнении решения под Linux и решения под BSD.
Еще один вопрос:
Какие типы кластеров еще выделяют ? 

CapitanJack

а не проще тебе упертую версию веритас кластер сервера заюзать?

krishtaf

она бесплатная ?

CapitanJack

нет. я же написал - упертую. крякнутую

krishtaf

под фрю она есть ?

CapitanJack

под линукс. под фрю врядли.

krishtaf

поэтому не подходит

CapitanJack

подумал я тут - а что народ на опенсорсе заморачивается HA? что-то я не вижу смысла

krishtaf

открой глаза

CapitanJack

ну ты мне ткни в куданить где есть такой кластер.

krishtaf

какой именно ?

CapitanJack

ха опенсорс причом в продакшене

CapitanJack

я в шоке даже в банках

CapitanJack

ну епта - вэтом проекте ибм заправляет как я понимаю

CapitanJack

я почитал - там идеология один в один как в ибмовском кластере. в любом случае люой кластер перед запуском в продакш долго и нудно тестируется. ставь и проверяй

sergey_m

> ну ты мне ткни в куданить где есть такой кластер.
http://www.rambler.ru

krishtaf

читай первый пост.

krishtaf

оооо
вливайся

CapitanJack

и что там за кластер/что делает?

krishtaf

www.rambler.ru - много много reverse http-proxy + много много web-server-ов + много много всего остального ?

sergey_m

> и что там за кластер/что делает?
Очевидно, что есть кластер, который занимается поиском.
Есть фермы фронтендов, нагрузка на которые распределяется балансировщиком нагрузки, который следит за состоянием каждого фронтенда. Сам балансировщик зарезервирован вторым таким же.

CapitanJack

но они все опенсорс? часто фэйловеры происходят?

sergey_m

> но они все опенсорс?
Да.
> часто фэйловеры происходят?
Про поиск я не знаю. В мою зону ответственности входят балансировщики. За последний год было два внештатных failover.

krishtaf

с помощью чего реализовано ?
какие будут рекомендации по использованию ?

sergey_m

> с помощью чего реализовано ?
У меня с помощью CARP.

krishtaf

ucarp ?

krishtaf

упс, во фре оказывается в ядре есть
и похоже это поделие рук глебиуса

krishtaf

Кстати как мониторить failover-ы по сети ?

sergey_m

> Кстати как мониторить failover-ы по сети?
Не понял вопрос.

ava3443


я в шоке даже в банках
Ага, а если посмотреть, что именно защищают, то видно только intranet DNS, web, mail, webmail, proxy, FTP and LPD queuing proxies
В общем, самодельные кластеры - это или для некоммерческих организаций, или для компаний типа Рамблера, у которых такое недетское число серверов, что коммерческие кластерные решения или не рулят, или слишком дороги.
P.S. Вот мне интересно, Red Hat Cluster Suite - под какой лицензией идёт?

CapitanJack

одни хрен. у нас по моему такого быть не может - чтоб в банках был левый софт

krishtaf

это коммерческий продукт

ava3443


это коммерческий продукт
И что с того? Большинство продуктов Red Hat - вполне себе коммерческие, но под Open Source лицензиями. Вот мне и интересно, кластерный софт у них Open Source или как?

sergey_m

Ага, а если посмотреть, что именно защищают, то видно только intranet DNS, web, mail, webmail, proxy, FTP and LPD queuing proxies
В общем, самодельные кластеры - это или для некоммерческих организаций, или для компаний типа Рамблера, у которых такое недетское число серверов, что коммерческие кластерные решения или не рулят, или слишком дороги.
По-моему ты в последнее время всё больше отравлен тем же вирусом, что и Иесус. Я знаю человека, который внедрил FreeBSD как основную операционную систему в банке.

CapitanJack

ты его хочешь заразить своим вирусом?

krishtaf

блин
так никто по делу и не написал

CapitanJack

ты хочешь сравнения разных кластеров? даже для коммерчесих продуктов нету такого

krishtaf

по крайней мере глебиус мог бы быть более информативным

CapitanJack

ну бери его и пытай

krishtaf

иван, ты от флудерастии лечиться не пробовал ?

CapitanJack

нет, вова, не пробовал. не жалуюсь

krishtaf

а заболевание прогрессирует

krishtaf

Что делать если мастер-сервер живой, а критичный сервис упал ?
Как в этом случае положить сервер, тобы слейв подхватил адрес и запустил у себя нужный сервис ?

CapitanJack

а что, опенсорс кластеры не мониторят сами сервисы? а что они тогда мониторят?

Sharp

это тебе надо в сторону sysutils/daemontools смотреть - может тебе и не нужен кластер, а просто демонов вовремя перезапускать?

CapitanJack

кстати да. при падении сервиса нафига его запускать на другом узле? быстрее будет на этом же.

krishtaf

чтобы не заморачиваться от чего сдох сервис.
Например место на винте кончилось или что то подобное.
Хотя мониторить локально сервисы тоже вариант.

Dasar

> чтобы не заморачиваться от чего сдох сервис.
> Например место на винте кончилось или что то подобное.
Лучше тогда использовать более сложную стратегию.
Сначала "оптимистично" считаем, что сервис упал "просто так", и поднимаем его на той же машине.
Если сервис "подряд" три (например) раза навернулся, тогда "пессимистично" считаем, что виновата машина и запускаем на другой машине.

CapitanJack

нуда. в ибмовском HACMP так делается по умолчанию. ну и все параметры ясное дело настраиваются. при падении сервиса нужно еще запускать клин-ап скрипты.

Sharp

Ага, по интернету заказывает еще одну машину к своему кластеру, сама на нее ставит систему, и т.д.
А самое главное - ни слова не говорит администратору! Ибо нефиг ему лезть в дела внутрикластерные.
Оставить комментарий
Имя или ник:
Комментарий: