cluster building
а не проще тебе упертую версию веритас кластер сервера заюзать?
она бесплатная ?
нет. я же написал - упертую. крякнутую
под фрю она есть ?
под линукс. под фрю врядли.
поэтому не подходит
подумал я тут - а что народ на опенсорсе заморачивается HA? что-то я не вижу смысла
открой глаза
ну ты мне ткни в куданить где есть такой кластер.
какой именно ?
ха опенсорс причом в продакшене
я в шоке даже в банках
ну епта - вэтом проекте ибм заправляет как я понимаю
я почитал - там идеология один в один как в ибмовском кластере. в любом случае люой кластер перед запуском в продакш долго и нудно тестируется. ставь и проверяй
> ну ты мне ткни в куданить где есть такой кластер.
читай первый пост.
вливайся
и что там за кластер/что делает?
www.rambler.ru - много много reverse http-proxy + много много web-server-ов + много много всего остального ?
Очевидно, что есть кластер, который занимается поиском.
Есть фермы фронтендов, нагрузка на которые распределяется балансировщиком нагрузки, который следит за состоянием каждого фронтенда. Сам балансировщик зарезервирован вторым таким же.
но они все опенсорс? часто фэйловеры происходят?
Да.
> часто фэйловеры происходят?
Про поиск я не знаю. В мою зону ответственности входят балансировщики. За последний год было два внештатных failover.
какие будут рекомендации по использованию ?
У меня с помощью CARP.
ucarp ?
и похоже это поделие рук глебиуса
Кстати как мониторить failover-ы по сети ?
Не понял вопрос.
Ага, а если посмотреть, что именно защищают, то видно только intranet DNS, web, mail, webmail, proxy, FTP and LPD queuing proxies
я в шоке даже в банках
В общем, самодельные кластеры - это или для некоммерческих организаций, или для компаний типа Рамблера, у которых такое недетское число серверов, что коммерческие кластерные решения или не рулят, или слишком дороги.
P.S. Вот мне интересно, Red Hat Cluster Suite - под какой лицензией идёт?
одни хрен. у нас по моему такого быть не может - чтоб в банках был левый софт
это коммерческий продукт
И что с того? Большинство продуктов Red Hat - вполне себе коммерческие, но под Open Source лицензиями. Вот мне и интересно, кластерный софт у них Open Source или как?
это коммерческий продукт
Ага, а если посмотреть, что именно защищают, то видно только intranet DNS, web, mail, webmail, proxy, FTP and LPD queuing proxiesПо-моему ты в последнее время всё больше отравлен тем же вирусом, что и Иесус. Я знаю человека, который внедрил FreeBSD как основную операционную систему в банке.
В общем, самодельные кластеры - это или для некоммерческих организаций, или для компаний типа Рамблера, у которых такое недетское число серверов, что коммерческие кластерные решения или не рулят, или слишком дороги.
ты его хочешь заразить своим вирусом?
так никто по делу и не написал
ты хочешь сравнения разных кластеров? даже для коммерчесих продуктов нету такого
по крайней мере глебиус мог бы быть более информативным
ну бери его и пытай
иван, ты от флудерастии лечиться не пробовал ?
нет, вова, не пробовал. не жалуюсь
а заболевание прогрессирует
Как в этом случае положить сервер, тобы слейв подхватил адрес и запустил у себя нужный сервис ?
а что, опенсорс кластеры не мониторят сами сервисы? а что они тогда мониторят?
это тебе надо в сторону sysutils/daemontools смотреть - может тебе и не нужен кластер, а просто демонов вовремя перезапускать?
кстати да. при падении сервиса нафига его запускать на другом узле? быстрее будет на этом же.
Например место на винте кончилось или что то подобное.
Хотя мониторить локально сервисы тоже вариант.
> Например место на винте кончилось или что то подобное.
Лучше тогда использовать более сложную стратегию.
Сначала "оптимистично" считаем, что сервис упал "просто так", и поднимаем его на той же машине.
Если сервис "подряд" три (например) раза навернулся, тогда "пессимистично" считаем, что виновата машина и запускаем на другой машине.
нуда. в ибмовском HACMP так делается по умолчанию. ну и все параметры ясное дело настраиваются. при падении сервиса нужно еще запускать клин-ап скрипты.
А самое главное - ни слова не говорит администратору! Ибо нефиг ему лезть в дела внутрикластерные.
Оставить комментарий
krishtaf
Интересует правильная методология для построения HighAvailability и NLB Clusters на базе opensource OS (BSD и Linux).Хочется знать как правильно строить:
1. HighAvailability Cluster-ы:
- если нужна кластеризация только для сетевых сервисов (без синхроизации данных)
- если нужны кластеризация и сетевых сервисов и синхронизация данных этих сервисов(между node-master и node-slave)
2. Network Load Balancing (NLB) Cluster-ы:
- если нужна кластеризация только для сетевых сервисов (без синхроизации данных)
- если нужны кластеризация и сетевых сервисов и синхронизация данных этих сервисов(между равноправными нодами)
Для построения HighAvailability кластеров используются:
VRRP, HSRP, CARP реализации - FreeVRRPd, HeartBeat, KeepAlived, uCARP
1. Что лучше (надежнее и функциональнее) ?
2. Есть ли еще что-нибудь ?
Для синхронизации данных используются:
DRDB, ggatec/ggated
1. Насколько безглючно они работают ? для production использования готовы ?
2. Есть ли еще что-нибудь ?
Для построения NLB кластеров кроме вышеперечисленного должен присутствовать компонент под названием Load Balancer
1. Какие существуют ?
2. Какие лучше и для каких целей ?
P.S.
Есть понимание "как построить и зачем это нужно".
Интересует статистика по использованию того или иного ПО.
Интересует как ведут себя указанные компоненты в различных комбинациях. Например: FreeVRRPd + DRDB vs uCARP + ggatec/ggated и т.д.
Интересует в сравнении решения под Linux и решения под BSD.
Еще один вопрос:
Какие типы кластеров еще выделяют ?