Historique de la page
Sv translation | ||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| ||||||||||||||||||||||||||
PrésentationII est possible de mettre en place un système de haute disponibilité logicielle (HA pour High Availability en anglais) s'intégrant avec BlueMind. Le présent document donne les recommandations et informations sur le système BlueMind nécessaire pour pouvoir intégrer la solution de messagerie dans une infrastructure de haute disponibilité.
Préparation du systèmeNote : les deux serveurs en jeu doivent respecter les recommandations de dimensionnement matériel définies dans le document suivant : Dimensionnement matériel Espace de stockageLe contenu à partager entre les deux serveurs peut l'être soit sur un espace de stockage partagé comme par exemple un SAN (Storage Area Network), soit via une réplication de données entre deux espaces de stockages séparés.
Données à rendre disponible entre les deux serveursLes données situées dans les répertoires suivants sont celles qui doivent être visibles par les deux serveurs et dont l'accès doit être géré par le système de gestion de la HA :
À ces derniers doit être ajoutée la base de données cyrus située dans le répertoire suivant :
RéseauAfin de fonctionner correctement, BlueMind doit être accessible via une seule URL/IP, il est donc recommandé d'utiliser un système pouvant gérer des adresses IP flottantes (ou virtuelles).
Scripts de supervisionVoir la page dédiée Supervision Configuration de la Haute disponibilité
Données et services à gérerConfiguration de BlueMind à synchroniserLes fichiers de configurations BlueMind à synchroniser en temps réel par le système de gestion de la HA sont situés dans le répertoire /etc. Il faut également synchroniser les fichiers :
Gestion de la mise à jour de BlueMindLes grandes étapes de la mise à jour d'un déploiement en Haute Disponibilité de BlueMind sont décrites ci-après :
STONITHSTONITH, pour Shoot The Other Node In The Head, est une technique de fencing, ou isolement, dans la gestion de clusters. Le principe est de pouvoir éteindre le serveur défaillant d'un cluster à distance, soit logiciellement, soit directement en lui coupant son alimentation électrique. Ce type de fonctionnement se situe au niveau de l'infrastructure matérielle.
Cette technique peut par exemple être mise en place avec des outils IPMI (Intelligent Platform Management Interface). IPMI est une spécification d'interfaces de gestion de machines, mais il est possible d'en trouver des implémentations, comme par exemple freeIPMI, OpenIPMI, ipmitool, ... L'implémentation côté matériel peut se faire par un matériel dédié ou simplement par l'utilisation par exemple des cartes iDRAC pour du matériel du constructeur DELL. |
Sv translation | ||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| ||||||||||||||||||||
Getting the system readyNote: the two servers involved must follow the hardware sizing recommendations defined in the section: Hardware Sizing Storage spaceThe contents you want to share between the two servers can be shared either on a separate shared storage space such as a SAN (Storage Area Network), or through data replication between two separate storage spaces.
Data to be made available between both serversThe data located in the following directories must be made visible by both servers and its access must be managed by the HA handling system:
The cyrus database located in the following directory must also be added to this data:
NetworkTo work properly, BlueMind must be accessible through a single URL/IP. We therefore recommend that you use a system that is capable of handling floating (or virtual) IP addresses.
Monitoring scriptsPlease see our Supervision page. Setting Up High Availability
Data and services that need to be managed by HAHigh availability-based synchronization of BlueMind configuration filesBlueMind's configuration files that must be synchronized in real time by the HA handling system are located under /etc The following files must also be synchronized:
Managing the BlueMind updateThe key steps for updating a High Availability-based deployment of BlueMind are described below:
STONITHSTONITH, which stands for Shoot The Other Node In The Head, is a fencing or node isolation technique in cluster management. Its purpose is to shut down a server's failed cluster remotely – either through software or by directly cutting off its power supply. This is done at the hardware infrastructure level.
This technique can for instance be implemented using IPMI tools (Intelligent Platform Management Interface). IPMI is a server management interface specification whose implementations include freeIPMI, OpenIPMI, ipmitool, ... As far as hardware is concerned, implementation can be done on dedicated hardware or using iDRAC cards for DELL equipment. |
Sv translation | ||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| ||||||||||||||||||||||||||
PräsentationEs ist möglich, ein High Availability-Softwaresystem einzurichten, das mit BlueMind integriert wird. Dieses Dokument enthält die Empfehlungen und Informationen über das BlueMind-System, die für die Integration der Messaging-Lösung in eine Hochverfügbarkeitsinfrastruktur erforderlich sind.
Vorbereitung des SystemsHinweis: Die beiden betreffenden Server müssen den im folgenden Dokument definierten Hardware-Sizing-Empfehlungen entsprechen: Materialdimensionierung SpeicherplatzDie Inhalte, die zwischen den beiden Servern ausgetauscht werden sollen, können entweder auf einem gemeinsamen Speicherplatz wie einem SAN (Storage Area Network) oder über eine Datenreplikation zwischen zwei getrennten Speicherplätzen ausgetauscht werden.
Daten, die zwischen den beiden Servern zur Verfügung gestellt werden sollenIn den folgenden Verzeichnissen befinden sich die Daten, die für beide Server sichtbar sein müssen und deren Zugriff durch das HA-Management-System verwaltet werden muss:
Zu diesen muss die cyrus-Datenbank hinzugefügt werden, die sich im folgenden Verzeichnis befindet:
NetzwerkDamit BlueMind ordnungsgemäß funktioniert, muss es über eine einzige URL/IP erreichbar sein. Es wird daher empfohlen, ein System zu verwenden, das schwebende (oder virtuelle) IP-Adressen verwalten kann.
SupervisionsskripteSiehe die entsprechende Seite Supervision Konfigurieren der Hochverfügbarkeit
Zu verwaltende Daten und DiensteKonfiguration der BlueMind-SynchronisierungDie BlueMind-Konfigurationsdateien, die vom HA-Management-System in Echtzeit synchronisiert werden sollen, befinden sich im Verzeichnis /etc. Außerdem müssen die folgenden Dateien synchronisiert werden:
BlueMind Aktualisierung-VerwaltungDie wichtigsten Schritte zur Aktualisierung einer BlueMind High Availability-Bereitstellung werden im Folgenden beschrieben:
STONITHSTONITH, für Shoot The Other Node In The Head, ist eine Fencing-Technik, also eine Isolierung, im Cluster-Management. Das Prinzip besteht darin, den fehlerhaften Server eines Clusters aus der Ferne herunterfahren zu können, entweder per Software oder direkt durch Abschalten seiner Stromversorgung. Diese Funktionsweise findet auf Ebene der physischen Infrastruktur statt.
Diese Technik kann zum Beispiel mit IPMI-Tools (Intelligent Platform Management Interface) realisiert werden. IPMI ist eine Spezifikation von Maschinenverwaltungsschnittstellen, aber es gibt auch Implementierungen, wie freeIPMI, OpenIPMI, ipmitool, ... Die Implementierung auf der Hardwareseite kann durch dedizierte Hardware oder einfach durch den Einsatz von z.B. iDRAC-Karten für Hardware des Herstellers DELL erfolgen. |