Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite - Red Hat Cluster Suite de Red Hat Enterprise Linux 5 Édition 3 Landmann
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Red Hat Cluster Suite de Red Hat Enterprise Linux 5 Édition 3 Landmann
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Red Hat Cluster Suite de Red Hat Enterprise Linux 5 Édition 3 Landmann rlandmann@redhat.co m
Note légale Copyright © 2009 Red Hat, Inc. T his document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed. Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law. Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries. Linux ® is the registered trademark of Linus T orvalds in the United States and other countries. Java ® is a registered trademark of Oracle and/or its affiliates. XFS ® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries. MySQL ® is a registered trademark of MySQL AB in the United States, the European Union and other countries. Node.js ® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project. T he OpenStack ® Word Mark and OpenStack Logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community. All other trademarks are the property of their respective owners. Résumé L'aperçu de Red Hat Cluster Suite fournit un résumé de Red Hat Cluster Suite pour Red Hat Enterprise Linux 5.3
Table des matières Table des matières .Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . . 1. Conventions d'écriture 4 1.1. Conventions typographiques 5 1.2. Conventions pour citations mises en avant 6 1.3. Notes et avertissements 7 2. Commentaire 8 .Chapitre . . . . . . . . .1. . . Aperçu . . . . . . . . de . . . Red . . . . .Hat . . . . Cluster . . . . . . . . Suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9. . . . . . . . . . 1.1. Les bases d'un cluster 9 1.2. Red Hat Cluster Suite Introduction 10 1.3. Cluster Infrastructure 11 1.3.1. Gestion du cluster 11 1.3.2. Gestion du verrouillage 12 1.3.3. Fencing 13 1.3.4. Système de configuration du cluster 16 1.4. Gestion des services à haute disponibilité 17 1.5. Red Hat GFS 20 1.5.1. Performance et évolutivité supérieures 21 1.5.2. Performance, évolutivité, prix modéré 22 1.5.3. Économie et performance 22 1.6. Gestionnaire de volumes logiques du cluster 23 1.7. Périphérique bloc du réseau global (GNBD) 25 1.8. Serveur virtuel Linux 26 1.8.1. T wo-T ier LVS T opology 28 1.8.2. T hree-T ier LVS T opology 30 1.8.3. Méthodes de routage 31 1.8.3.1. Routage NAT 31 1.8.3.2. Routage direct 32 1.8.4. La persistance et les marques de pare-feu 34 1.8.4.1. Persistence 34 1.8.4.2. Marques de pare-feu 34 1.9. Outils d'administration du cluster 34 1.9.1. Conga 35 1.9.2. Interface graphique d'administration du cluster 37 1.9.2.1. Cluster Configuration T ool 37 1.9.2.2. Cluster Status T ool 39 1.9.3. Outils d'administration en ligne de commande 40 1.10. Interface utilisateur graphique d'administration du serveur virtuel Linux 41 1.10.1. CONT ROL/MONIT ORING 42 1.10.2. GLOBAL SET T INGS 43 1.10.3. REDUNDANCY 44 1.10.4. VIRT UAL SERVERS 45 1.10.4.1. La sous-section VIRT UAL SERVER 46 1.10.4.2. La sous-section REAL SERVER 48 1.10.4.3. EDIT MONIT ORING SCRIPT S Subsection 50 .Chapitre . . . . . . . . .2. . . Résumé . . . . . . . . . des . . . . composants . . . . . . . . . . . . . de . . . .Red . . . . Hat . . . . Cluster . . . . . . . . Suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 ............ 2.1. Composants de cluster 52 2.2. Pages de manuel 57 2.3. Matériel compatible 59 . . . . . . . . . . . .de Historique . . .révision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 ............ 1
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite .Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 ............ C 60 F 60 I 60 L 61 M 61 N 61 O 61 P 61 R 62 T 62 2
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Introduction Ce document fournit un aperçu de haut niveau de Red Hat Cluster Suite pour Red Hat Enterprise Linux 5 et est organisé de la manière suivante : Chapitre 1, Aperçu de Red Hat Cluster Suite Chapitre 2, Résumé des composants de Red Hat Cluster Suite Bien qu'il s'agisse d'un aperçu, vous devriez avoir des connaissances pratiques avancées de Red Hat Enterprise Linux et comprendre les concepts de serveur informatique pour obtenir une bonne compréhension du contenu de ce document. Pour davantage d'informations sur l'utilisation de Red Hat Enterprise Linux, reportez-vous aux ressources suivantes : Guide d'installation de Red Hat Enterprise Linux — Fournit des informations à propos de l'installation de Red Hat Enterprise Linux 5. Guide de déploiement de Red Hat Enterprise Linux — Fournit des informations à propos du déploiement, de la configuration et de l'administration de Red Hat Enterprise Linux 5. Pour davantage d'informations à propos de Red Hat Cluster Suite pour Red Hat Enterprise Linux 5, reportez-vous aux ressources suivantes : Configuration et gestion d'un cluster Red Hat — Fournit des informations à propos de l'installation, la configuration et la gestion des composants Red hat Cluster. LVM Administrator's Guide: Configuration and Administration — Provides a description of the Logical Volume Manager (LVM), including information on running LVM in a clustered environment. Système de fichiers GFS : configuration et administration — Fournit des informations à propos de l'installation, la configuration et la maintenance de Red Hat GFS (Red Hat Global File System). Système de fichiers GFS 2 : configuration et administration — Fournit des informations à propos de l'installation, la configuration et la maintenance de Red Hat GFS (Red Hat Global File System 2). Utilisation de "Device-Mapper Multipath" — Fournit des informations à propos de l'utilisation de la fonctionnalité "Device-Mapper Multipath" de Red Hat Enterprise Linux 5. Utilisation de GNBD avec le système de fichiers GFS — Fournit un aperçu de l'utilisation de GNBD (de l'anglais Global Network Block Device) avec Red Hat GFS. Administration du serveur virtuel Linux — Fournit des informations à propos de la configuration de systèmes et services à hautes performances avec le serveur virtuel Linux (LVS de l'anglais Linux Virtual Server). Notes de mise à jour de Red Hat Cluster Suite — Fournit des informations à propos de la version courante de Red Hat Cluster Suite. La documentation de Red Hat Cluster Suite et les autres documents de Red Hat sont disponibles en version HT ML, PDF et RPM sur le CD-ROM de documentation de Red Hat Enterprise Linux et en ligne à l'adresse suivante : http://www.redhat.com/docs/. 1. Conventions d'écriture Ce manuel utilise plusieurs conventions pour souligner l'importance de certains mots ou expressions, mais aussi en vue d'attirer l'attention sur certains passages d'informations précis. Pour les éditions sur support papier et numérique (PDF), ce manuel utilise des caractères issus de Liberation Fonts. La police de caractères Liberation Fonts est également utilisée pour les éditions HT ML si elle est installée sur votre système. Sinon, des polices de caractères alternatives équivalentes sont 4
Introduction utilisées. Notez que Red Hat Enterprise Linux 5 et versions supérieures contiennent la police Liberation Fonts par défaut. 1.1. Conventions typographiques Quatre conventions typographiques sont utilisées pour attirer l'attention sur certains mots et expressions. Ces conventions et les circonstances auxquelles elles s'appliquent sont les suivantes. Caractères gras à espacem ent fixe Utilisé pour surligner certaines entrées du système, y compris les commandes shell, les noms de fichiers et les chemins d'accès. Également utilisé pour surligner les touches et les combinaisons de touches. Par exemple : Pour consulter le contenu du fichier m on_nouvel_ouvrage_littéraire qui se situe dans votre dossier courant, saisissez la commande cat m on_nouvel_ouvrage_littéraire à la demande du terminal et appuyez sur Entrée pour exécuter la commande. L'exemple ci-dessus contient un nom de fichier, une commande shell et une touche, tous présentés sous forme de caractères gras à espacement fixe et tous bien distincts grâce au contexte. Les combinaisons de touches se distinguent des touches individuelles par le signe « plus », qui connecte les différentes parties de la combinaison. Par exemple : Appuyez sur Entrée pour exécuter la commande. Appuyez sur Ctrl+Alt+F2 pour basculer sur un terminal virtuel. Le premier exemple présente une touche particulière sur laquelle appuyer. Le second exemple affiche une combinaison de touches : un ensemble de trois touches sur lesquelles il faut appuyer simultanément. Si le code source est mentionné, les noms de classes, les méthodes, les fonctions, les noms de variables et les valeurs de retour citées dans un paragraphe seront présentées comme ci-dessus, en caractères gras à espacem ent fixe. Par exemple : Les classes de fichiers comprennent le nom de classe filesystem pour les noms de fichier, file pour les fichiers et dir pour les dossiers. Chaque classe correspond à un ensemble de permissions associées. Caractères gras proportionnels Cette convention marque le surlignage des mots ou phrases que l'on rencontre sur un système, comprenant des noms d'application, des boîtes de dialogue textuelles, des boutons étiquettés, des cases à cocher et des boutons d'options mais aussi des intitulés de menus et de sous-menus. Par exemple : Sélectionnez Système → Préférences → Souris à partir de la barre du menu principal pour lancer les Préférences de la souris. À partir de l'onglet Boutons, cliquez sur la case à cocher Pour gaucher puis cliquez sur Ferm er pour faire passer le bouton principal de la souris de la gauche vers la droite (ce qui permet l'utilisation de la souris par la main gauche). Pour insérer un caractère spécial dans un fichier gedit, choisissez Applications → Accessoires → T able des caractères depuis la barre du menu principal. Ensuite, 5
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite choisissez Recherche → T rouver… depuis la barre du menu T able des caractères, saisissez le nom du caractère dans le champ Recherche puis cliquez sur Suivant. Le caractère recherché sera surligné dans la T able des caractères. Double-cliquez sur le caractère surligné pour le placer dans le champ T exte à copier, puis cliquez sur le bouton Copier. Vous pouvez désormais revenir à votre document et choisir Modifier → Coller depuis la barre du menu gedit. Le texte ci-dessus contient des noms d'applications, des noms de menus et d'autres éléments s'appliquant à l'ensemble du système, des boutons et textes que l'on trouve dans une interface graphique. Ils sont tous présentés sous la forme gras proportionnel et identifiables en fonction du contexte. Italique gras à espacement fixe ou Italique gras proportionnel Qu'ils soient en caractères gras à espacement fixe ou à caractères gras proportionnels, l'ajout de l'italique indique la présence de texte remplaçable ou variable. Les caractères en italique indiquent la présence de texte que vous ne saisissez pas littéralement ou de texte affiché qui change en fonction des circonstances. Par exemple : Pour se connecter à une machine distante en utilisant ssh, saisissez ssh nom d'utilisateur@ domain.name (nom.domaine) après l'invite de commande de la console. Si la machine distante est exem ple.com et que votre nom d'utilisateur pour cette machine est john, saisissez ssh john@ exam ple.com . La commande m ount -o rem ount système de fichiers monte le système de fichiers nommé. Ainsi, pour monter /hom e dans le système de fichiers, la commande est m ount -o rem ount /hom e. Pour connaître la version d'un paquet actuellement installé, utilisez la commande rpm -q paquet. Elle vous permettra de retourner le résultat suivant : version-de-paquet. Remarquez que les mots en gras italique ci-dessus — username (nom d'utilisateur), domain.name (nom.domaine), file-system (système de fichiers), package (paquetage), version et release (sortie commerciale). Chaque mot est un espace réservé au texte, soit pour le texte que vous entrez lors de la saisie d'une commande, soit pour le texte affiché par le système. Mis à part l'utilisation habituelle de présentation du titre d'un ouvrage, les caractères italiques indiquent l'utilisation initiale d'un terme nouveau et important. Ainsi : Publican est un système de publication DocBook. 1.2. Conventions pour citations mises en avant Les sorties de terminaux et les citations de code source sont mis en avant par rapport au texte avoisinant. Les sorties envoyées vers un terminal sont en caractères Rom ains à espacem ent fixe et présentées ainsi : books Desktop documentation drafts mss photos stuff svn books_tests Desktop1 downloads images notes scripts svgs Les citations de code source sont également présentées en rom ains à espacem ent fixe mais sont présentés et surlignés comme suit : 6
Introduction static int kvm_vm_ioctl_deassign_device(struct kvm *kvm, struct kvm_assigned_pci_dev *assigned_dev) { int r = 0; struct kvm_assigned_dev_kernel *match; mutex_lock(&kvm->lock); match = kvm_find_assigned_dev(&kvm->arch.assigned_dev_head, assigned_dev->assigned_dev_id); if (!match) { printk(KERN_INFO "%s: device hasn't been assigned before, " "so cannot be deassigned\n", __func__); r = -EINVAL; goto out; } kvm_deassign_device(kvm, match); kvm_free_assigned_device(kvm, match); out: mutex_unlock(&kvm->lock); return r; } 1.3. Notes et avertissements Enfin, nous utilisons trois styles visuels pour attirer l'attention sur des informations qui auraient pu être normalement négligées : Note Une remarque est une forme de conseil, un raccourci ou une approche alternative par rapport à une tâche à entreprendre. L'ignorer ne devrait pas provoquer de conséquences négatives, mais vous pourriez passer à côté d'une astuce qui vous aurait simplifiée la vie. Important Les blocs d'informations importantes détaillent des éléments qui pourraient être facilement négligés : des modifications de configurations qui s'appliquent uniquement à la session actuelle ou des services qui ont besoin d'être redémarrés avant toute mise à jour. Si vous ignorez une case étiquetée « Important », vous ne perdrez aucunes données mais cela pourrait être source de frustration et d'irritation. Avertissement Un avertissement ne devrait pas être ignoré. Ignorer des avertissements risque fortement d'entrainer des pertes de données. 7
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite 2. Commentaire Si vous trouvez des fautes de frappe ou si vous avez des suggestions pour améliorer ce manuel, n'hésitez surtout pas à nous en faire part ! Veuillez envoyer vos remarques par l'entremise de Bugzilla (http://bugzilla.redhat.com/bugzilla/) dans la rubrique Docum entation-cluster. Be sure to mention the document's identifier: Cluster_Suite_Overview(EN)-5 (2008-12-11T15:49) By mentioning this document's identifier, we know exactly which version of the guide you have. Si vous avez une suggestion afin d'améliorer cette documentation, essayez d'être le plus précis possible. Si vous avez trouvé une erreur, veuillez inclure le numéro de section et quelques passages du texte pour que nous puissions retrouver l'erreur facilement. 8
Chapitre 1. Aperçu de Red Hat Cluster Suite Chapitre 1. Aperçu de Red Hat Cluster Suite Les systèmes en clusters offrent de la fiabilité, de l'évolutivité et de la disponibilité aux services de production critiques. À l'aide de Red Hat Cluster Suite, vous pouvez créer un cluster en fonction de vos besoins en matière de performance, haute disponibilité, répartition de charge, évolutivité, partage de fichiers et économie. Ce chapitre fournit un aperçu des composants et fonctions de Red Hat Cluster Suite à travers les sections suivantes : Section 1.1, « Les bases d'un cluster » Section 1.2, « Red Hat Cluster Suite Introduction » Section 1.3, « Cluster Infrastructure » Section 1.4, « Gestion des services à haute disponibilité » Section 1.5, « Red Hat GFS » Section 1.6, « Gestionnaire de volumes logiques du cluster » Section 1.7, « Périphérique bloc du réseau global (GNBD) » Section 1.8, « Serveur virtuel Linux » Section 1.9, « Outils d'administration du cluster » Section 1.10, « Interface utilisateur graphique d'administration du serveur virtuel Linux » 1.1. Les bases d'un cluster Un cluster se compose d'un ou plusieurs ordinateurs (appelés noeuds ou membres) qui travaillent ensemble afin d'effectuer une tâche. Il y a quatre types majeurs de cluster : Stockage Haute disponibilité Répartition de charge Haute performance Les clusters de stockage fournissent une image consistante d'un système de fichiers à travers les serveurs d'un cluster, permettant aux serveurs de lire et d'écrire de façon simultanée sur un système de fichiers partagé. Un cluster de stockage simplifie l'administration du stockage en limitant l'installation et l'application de correctifs à un seul système de fichiers. De plus, avec un système de fichiers au niveau du cluster, les copies redondantes de données de l'application sont éliminées et la récupération de sauvegardes et de pertes de données est simplifiée. Red Hat Cluster Suite fournit la mise en cluster du stockage à travers Red Hat GFS. Les clusters à haute disponibilité fournissent une disponibilité permanente des services en éliminant les points de défaillance uniques et en passant les services d'un noeud du cluster à un autre lors de l'échec d'un noeud. En règle générale, les services dans un cluster à haute disponibilité lisent et écrivent les données (à partir de systèmes de fichiers montés en lecture-écriture). Par conséquent, un cluster à haute disponibilité doit conserver l'intégrité des données étant donné qu'un noeud du cluster prend le contrôle d'un service à partir d'un autre noeud. Les échecs de noeuds au sein d'un cluster à haute disponibilité ne sont pas visibles par les clients en dehors du cluster (les clusters à haute disponibilité sont parfois appelés des clusters failover). Red Hat Cluster Suite fournit la mise en cluster à haute disponibilité à travers son composant de gestion des services à haute disponibilité. Les clusters de répartition de charge distribuent les requêtes de service réseau vers plusieurs noeuds du cluster afin de répartir la charge de ces requêtes. La répartition de charge fournit une évolutivité rentable car vous pouvez faire correspondre le nombre de nœuds conformément aux exigences de charge. Si le noeud d'un cluster de répartition de charge devient inopérant, le logiciel de répartition de charge détecte l'échec et redirige les requêtes vers d'autres noeuds du cluster. Les échecs de noeuds 9
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite dans un cluster de répartition de charge ne sont pas visibles par les clients en dehors du cluster. Red Hat Cluster Suite fournit la répartition de charge à travers LVS (de l'anglais Linux Virtual Server). Les clusters à haute performance utilisent les nœuds du cluster pour effectuer des calculs simultanés. Un cluster à haute performance permet aux applications de travailler en parallèle, ce qui accroît les performances de l'application (les clusters à haute performance sont également appelés des clusters de calcul ou des grilles informatique). Remarque Les types de cluster résumés dans le texte précédent reflètent les configurations de base ; vos besoins pourraient exiger une combinaison des différents clusters décrits. 1.2. Red Hat Cluster Suite Introduction Red Hat Cluster Suite (RHCS) est un ensemble intégré de composants logiciels pouvant être déployés dans diverses configurations afin de répondre à vos besoins en termes de performance, haute disponibilité, répartition de charge, évolutivité, partage de fichiers et économie. RHCS consists of the following major components (refer to Figure 1.1, « Red Hat Cluster Suite Introduction »): Infrastructure de cluster — Fournit des fonctions fondamentales pour que les noeuds puissent travailler ensemble afin de former un cluster : gestion des fichiers de configuration, gestion des adhésions, gestion du verrouillage et fencing. Gestion de services à haute disponibilité — Fournit un failover de services à partir du noeud d'un cluster vers un autre lorsqu'un noeud devient inopérant. Outils d'administration du cluster — Outils de configuration et de gestion pour le paramétrage, la configuration et la gestion d'un cluster Red Hat. Les outils sont utilisés avec les composants d'infrastructure de cluster, les composants à haute disponibilité et de gestion des services, et le stockage. Serveur virtuel Linux (LVS de l'anglais Linux Virtual Server) — Logiciel de routage qui fournit une adresse IP de répartition de charge. LVS s'exécute dans une paire de serveurs redondants qui distribuent les demandes des clients de façon égale vers des serveurs réels situés derrière les serveurs LVS. Vous pouvez compléter Red Hat Cluster Suite avec les composants suivants, qui font partie d'un paquetage optionnel (ils ne font donc pas partie de Red Hat Cluster Suite) : Red Hat GFS (de l'anglais Global File System) — Fournit un système de fichiers en cluster à utiliser avec Red Hat Cluster Suite. GFS permet à plusieurs noeuds de partager le stockage au niveau bloc comme si le stockage était connecté localement à chaque noeud du cluster. Gestionnaire de volumes logiques en cluster (CLVM de l'anglais Cluster Logical Volume Manager) — Fournit une gestion de volumes du stockage en cluster. Note When you create or modify a CLVM volume for a clustered environment, you must ensure that you are running the clvm d daemon. For further information, refer to Section 1.6, « Gestionnaire de volumes logiques du cluster ». 10
Chapitre 1. Aperçu de Red Hat Cluster Suite Périphérique bloc du réseau global (GNBD de l'anglais Global Network Block Device) — Un composant auxiliaire de GFS qui exporte le stockage de niveau bloc vers Ethernet. Ceci est un moyen économique permettant de rendre le stockage de niveau bloc disponible à Red Hat GFS. For a lower level summary of Red Hat Cluster Suite components and optional software, refer to Chapitre 2, Résumé des composants de Red Hat Cluster Suite. Figure 1.1. Red Hat Cluster Suite Introduction Remarque Figure 1.1, « Red Hat Cluster Suite Introduction » includes GFS, CLVM, and GNBD, which are components that are part of an optional package and not part of Red Hat Cluster Suite. 1.3. Cluster Infrastructure L'infrastructure de cluster de Red Hat Cluster Suite fournit les fonctions de base pour que les ordinateurs d'un groupe (appelés noeuds ou membres) travaillent ensemble afin de former un cluster. Une fois qu'un cluster est établi en utilisant l'infrastructure de cluster, vous pouvez utiliser d'autres composants de Red Hat Cluster Suite pour répondre à vos besoins en matière d'utilisation du cluster (par exemple afin de configurer un cluster pour le partage de fichiers sur un système de fichiers GFS ou pour paramétrer un service failover). L'infrastructure de cluster effectue les fonctions suivantes : Gestion du cluster Gestion du verrouillage Fencing Gestion de la configuration du cluster 1.3.1. Gestion du cluster Cluster management manages cluster quorum and cluster membership. CMAN (an abbreviation for cluster manager) performs cluster management in Red Hat Cluster Suite for Red Hat Enterprise Linux 5. 11
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite CMAN is a distributed cluster manager and runs in each cluster node; cluster management is distributed across all nodes in the cluster (refer to Figure 1.2, « CMAN/DLM Overview »). CMAN keeps track of cluster quorum by monitoring the count of cluster nodes. If more than half the nodes are active, the cluster has quorum. If half the nodes (or fewer) are active, the cluster does not have quorum, and all cluster activity is stopped. Cluster quorum prevents the occurrence of a "split- brain" condition — a condition where two instances of the same cluster are running. A split-brain condition would allow each cluster instance to access cluster resources without knowledge of the other cluster instance, resulting in corrupted cluster integrity. Le quorum est déterminé par le biais de messages de communication entre les noeuds du cluster via Ethernet. De façon facultative, le quorum peut être déterminé par une combinaison de messages qui communiquent via Ethernet et à travers un disque quorum. Pour le quorum via Ethernet, le quorum se compose de 50 pourcent des noeuds plus 1. Pour le quorum via le disque quorum, le quorum se compose de conditions spécifiées par l'utilisateur. Remarque Par défaut, chaque noeud a un vote pour le quorum. De façon facultative, vous pouvez configurer les noeuds du cluster afin qu'ils aient plus d'un vote. CMAN assure le suivi des adhésions en analysant les messages des autres noeuds du cluster. Lorsque les adhésions au cluster changent, le gestionnaire de cluster notifie les autres composants d'infrastructure, qui ensuite effectuent une action appropriée. Par exemple, si le noeud A joint un cluster et monte un système de fichiers GFS que les noeuds B et C ont déjà monté, un journal supplémentaire et une gestion du verrouillage sont requis pour que le noeud A puisse utiliser ce système de fichiers. Si un noeud du cluster ne transmet pas de message pendant une période de temps définie, le gestionaire de cluster supprime le noeud du cluster et indique aux autres composants de l'infrastructure de cluster que le noeud n'est plus un membre. Encore une fois, d'autres composants d'infrastructure de cluster déterminent quelles sont les actions à effectuer suite à la notification indiquant que le noeud ne fait plus partie du cluster. Par exemple, le composant Fencing déconnecterait le noeud qui n'est plus membre. Figure 1.2. CMAN/DLM Overview 1.3.2. Gestion du verrouillage Lock management is a common cluster-infrastructure service that provides a mechanism for other cluster infrastructure components to synchronize their access to shared resources. In a Red Hat cluster, 12
Chapitre 1. Aperçu de Red Hat Cluster Suite DLM (Distributed Lock Manager) is the lock manager. As implied in its name, DLM is a distributed lock manager and runs in each cluster node; lock management is distributed across all nodes in the cluster (refer to Figure 1.2, « CMAN/DLM Overview »). GFS and CLVM use locks from the lock manager. GFS uses locks from the lock manager to synchronize access to file system metadata (on shared storage). CLVM uses locks from the lock manager to synchronize updates to LVM volumes and volume groups (also on shared storage). 1.3.3. Fencing Fencing is the disconnection of a node from the cluster's shared storage. Fencing cuts off I/O from shared storage, thus ensuring data integrity. T he cluster infrastructure performs fencing through the fence daemon, fenced. Lorsque CMAN détermine l'échec d'un noeud, il le communique aux autres composants de l'infrastructure de cluster. Lorsque fenced est averti de l'échec, il déconnecte le noeud qui a échoué. D'autres composants d'infrastructure de cluster déterminent les actions à effectuer — autrement dit, ils effectuent les récupérations qui doivent être faites. Par exemple, DLM et GFS, lorsqu'ils sont informés d'un échec, suspendent toute activité jusqu'à ce que fenced ait terminé la déconnexion du noeud qui a échoué. Suite à la confirmation de la déconnexion du noeud, DLM et GFS effectuent la récupération. DLM libère les verrous du noeud ayant échoué et GFS récupère le fichier journal. Le programme fencing détermine à partir du fichier de configuration du cluster le mode fencing à utiliser. Deux éléments clés dans le fichier de configuration du cluster définissent le mode fencing : l'agent fence et le périphérique fence. Le programme fencing effectue un appel sur l'agent fence spécifié dans le fichier de configuration du cluster. L'agent fence, pour sa part, déconnecte le noeud via le périphérique fence. Lorsque la déconnexion est terminée, le programme fencing notifie le gestionnaire de cluster. Red Hat Cluster Suite fournit une grande variété de méthodes fencing : Power fencing — Une méthode fencing qui utilise un contrôleur de courant pour éteindre un noeud inopérant. Fibre Channel switch fencing — Une méthode fencing qui désactive le port Fibre Channel connectant le stockage à un noeud inopérant. GNBD fencing — A fencing method that disables an inoperable node's access to a GNBD server. Other fencing — D'autres méthodes fencing qui désactivent les E/S ou le courant d'un noeud inopérant, y compris IBM Bladecenters, PAP, DRAC/MC, HP ILO, IPMI, IBM RSA II et autres. Figure 1.3, « Power Fencing Example » shows an example of power fencing. In the example, the fencing program in node A causes the power controller to power off node D. Figure 1.4, « Fibre Channel Switch Fencing Example » shows an example of Fibre Channel switch fencing. In the example, the fencing program in node A causes the Fibre Channel switch to disable the port for node D, disconnecting node D from storage. 13
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Figure 1.3. Power Fencing Example Figure 1.4 . Fibre Channel Switch Fencing Example Spécifier une méthode fencing consiste à éditer le fichier de configuration du cluster pour lui assigner le nom d'une méthode fencing, l'agent fence et le périphérique fence de chaque noeud du cluster. T he way in which a fencing method is specified depends on if a node has either dual power supplies or multiple paths to storage. If a node has dual power supplies, then the fencing method for the node must specify at least two fencing devices — one fencing device for each power supply (refer to Figure 1.5, « Fencing a Node with Dual Power Supplies »). Similarly, if a node has multiple paths to Fibre Channel 14
Chapitre 1. Aperçu de Red Hat Cluster Suite storage, then the fencing method for the node must specify one fencing device for each path to Fibre Channel storage. For example, if a node has two paths to Fibre Channel storage, the fencing method should specify two fencing devices — one for each path to Fibre Channel storage (refer to Figure 1.6, « Fencing a Node with Dual Fibre Channel Connections »). Figure 1.5. Fencing a Node with Dual Power Supplies Figure 1.6. Fencing a Node with Dual Fibre Channel Connections 15
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Vous pouvez configurer un noeud avec une ou plusieurs méthodes fencing. Lorsque vous configurez un noeud avec une méthode fencing, il s'agit de la seule méthode fencing disponible pour déconnecter ce noeud. Lorsque vous configurez un noeud avec plusieurs méthodes fencing, les méthodes fencing sont disposées en cascade, les unes après les autres, en fonction de l'ordre dans lequel elles apparaissent dans le fichier de configuration du cluster. Si un noeud échoue, il est déconnecté en utilisant la première méthode fencing spécifiée dans le fichier de configuration. Si la première méthode fencing ne réussit pas, la méthode fencing suivante spécifiée pour ce noeud est utilisée. Si aucune des méthodes fencing ne réussit, le processus recommence avec la première méthode fencing spécifiée et continue à parcourir les autres méthodes fencing, en fonction de l'ordre dans lequel elles apparaissent dans le fichier de configuration, jusqu'à ce qu'un des noeuds soit déconnecté. 1.3.4. Système de configuration du cluster T he Cluster Configuration System (CCS) manages the cluster configuration and provides configuration information to other cluster components in a Red Hat cluster. CCS runs in each cluster node and makes sure that the cluster configuration file in each cluster node is up to date. For example, if a cluster system administrator updates the configuration file in Node A, CCS propagates the update from Node A to the other nodes in the cluster (refer to Figure 1.7, « CCS Overview »). Figure 1.7. CCS Overview Other cluster components (for example, CMAN) access configuration information from the configuration file through CCS (refer to Figure 1.7, « CCS Overview »). 16
Chapitre 1. Aperçu de Red Hat Cluster Suite Figure 1.8. Accessing Configuration Information Le fichier de configuration du cluster (/etc/cluster/cluster.conf) est un fichier XML qui décrit les caractéristiques suivantes du cluster : Nom du cluster — Affiche le nom du cluster, le niveau de révision du fichier de configuration et des propriétés de base du minutage fence utilisées lorsqu'un noeud joint un cluster ou qu'il est déconnecté. Cluster — Affiche chaque noeud du cluster, en spécifiant le nom du noeud, l'ID du noeud, le nombre de votes du quorum et la méthode fencing pour ce noeud. Périphérique fence — Affiche les périphériques fence du cluster. Les paramètres varient en fonction du type de périphérique fence. Par exemple, pour un contrôleur de courant utilisé comme périphérique fence, la configuration du cluster définit le nom du contrôleur de courant, son adresse IP, son identifiant de connexion et son mot de passe. Ressources gérées — Affiche les ressources nécessaires afin de créer les services cluster. Les ressources gérées inclues la définition de domaines failover, les ressources (par exemple une adresse IP) et les services. Ensemble, les ressources gérées définissent les services cluster et le comportement failover des services cluster. 1.4. Gestion des services à haute disponibilité La gestion de services à haute disponibilité permet de créer et gérer des services cluster à haute disponibilité dans un cluster Red Hat. Le composant clé pour la gestion de services à haute disponibilité dans un cluster Red Hat, rgm anager, implémente un failover "à froid" ("cold failover") pour les applications "off-the-shelf". Dans un cluster Red Hat, une application est configurée avec d'autres ressources de cluster pour former un service cluster à haute disponibilité. Un service cluster à haute disponibilité peut, en cas d'échec, passer d'un noeud du cluster à un autre sans interruption apparente pour les clients du cluster. Un failover de service cluster peut se produire si le noeud d'un cluster échoue ou si un administrateur système de clusters déplace le service d'un noeud à un autre (par exemple, en vue de l'arrêt d'un noeud du cluster). Pour créer un service à haute disponibilité, vous devez le configurer dans le fichier de configuration du cluster. Un service cluster comprend les ressources du cluster. Les ressource du cluster sont des blocs 17
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite de construction que vous créez et gérez dans le fichier de configuration du cluster — Par exemple, une adresse IP, un script d'initialisation d'applications ou une partition partagée Red Hat GFS. You can associate a cluster service with a failover domain. A failover domain is a subset of cluster nodes that are eligible to run a particular cluster service (refer to Figure 1.9, « Les domaines failover »). Remarque Les domaines failover ne sont pas requis pour l'opération. Un service cluster peut être démarré sur un seul noeud du cluster à la fois afin de maintenir l'intégrité des données. Vous pouvez spécifier des priorités failover dans un domaine failover. La spécification des priorités failover consiste à assigner un niveau de priorité à chaque noeud du domaine failover. Le niveau de priorité détermine l'ordre failover — il détermine ainsi le noeud vers lequel un service cluster devrait être dirigé. Si vous ne spécifiez pas de priorité failover, un service cluster peut, en cas d'échec, être dirigé vers n'importe quel noeud de son domaine failover. Vous pouvez également spécifier si un service cluster est restreint à démarrer seulement sur les noeuds de son domaine failover associé (lorsqu'il est associé à un domaine failover sans restriction, un service cluster peut être démarré sur n'importe quel noeud du cluster si aucun membre du domaine failover n'est disponible). In Figure 1.9, « Les domaines failover », Failover Domain 1 is configured to restrict failover within that domain; therefore, Cluster Service X can only fail over between Node A and Node B. Failover Domain 2 is also configured to restrict failover with its domain; additionally, it is configured for failover priority. Failover Domain 2 priority is configured with Node C as priority 1, Node B as priority 2, and Node D as priority 3. If Node C fails, Cluster Service Y fails over to Node B next. If it cannot fail over to Node B, it tries failing over to Node D. Failover Domain 3 is configured with no priority and no restrictions. If the node that Cluster Service Z is running on fails, Cluster Service Z tries failing over to one of the nodes in Failover Domain 3. However, if none of those nodes is available, Cluster Service Z can fail over to any node in the cluster. 18
Chapitre 1. Aperçu de Red Hat Cluster Suite Figure 1.9. Les domaines failover Figure 1.10, « Web Server Cluster Service Example » shows an example of a high-availability cluster service that is a web server named "content-webserver". It is running in cluster node B and is in a failover domain that consists of nodes A, B, and D. In addition, the failover domain is configured with a failover priority to fail over to node D before node A and to restrict failover to nodes only in that failover domain. T he cluster service comprises these cluster resources: Une ressource pour l'adresse IP — Adresse IP 10.10.10.201. An application resource named "httpd-content" — a web server application init script /etc/init.d/httpd (specifying httpd). A file system resource — Red Hat GFS named "gfs-content-webserver". 19
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Figure 1.10. Web Server Cluster Service Example Les clients accèdent au service cluster à travers l'adresse IP 10.10.10.201, permettant l'interaction avec l'application du serveur Web, httpd-content. L'application httpd-content utilise le système de fichiers gfs- content-webserver. Si le noeud B échoue, le service cluster content-webserver passe au noeud D. Si le noeud D n'est pas disponible ou s'il échoue aussi, le service passe au noeud A. Le failover se produira sans interruption apparente pour les clients du cluster. Le service cluster sera accessible à partir d'un autre noeud du cluster à travers la même adresse IP que celle utilisée avant le failover. 1.5. Red Hat GFS Red Hat GFS est un système de fichiers en cluster qui permet aux noeuds d'un cluster d'accéder en même temps à un périphérique bloc partagé entre les noeuds. GFS est un système de fichiers natif qui s'interface directement avec la couche VFS de l'interface du système de fichiers du noyau Linux. GFS utilise des métadonnées distribuées et plusieurs fichiers journaux afin d'optimiser les opérations au sein d'un cluster. Pour maintenir l'intégrité du système de fichiers, GFS utilise un gestionnaire de verrouillage afin de coordonner les E/S. Lorsqu'un noeud change les données d'un système de fichiers GFS, ce changement est immédiatement visible aux autres noeuds du cluster utilisant ce système de fichiers. En utilisant Red Hat GFS, vous pouvez atteindre une disponibilité maximale de l'application avec les avantages suivants : Simplification de votre infrastructure de données. Installation et application de correctifs, une seule fois, pour l'ensemble du cluster. Élimine le besoin de copies redondantes des données de l'application (duplication). Active l'accès concurrent aux données en lecture/écriture par plusieurs clients. Simplifie la récupération des sauvegardes et de pertes de données (un seul système de fichiers 20
Chapitre 1. Aperçu de Red Hat Cluster Suite à sauvegarder ou à restaurer). Maximise l'utilisation des ressources de stockage ; minimise les coûts d'administration du stockage. Permet de gérer le stockage dans sa globalité plutôt que par partition. Diminue dans l'ensemble le stockage en éliminant le besoin de réplication des données. Varie la dimension du cluster en ajoutant, à la volée, des serveurs ou du stockage. Plus de stockage du partitionnement via des techniques complexes. Ajoute, à la volée, des serveurs au cluster en les montant sur le système de fichiers commun. Les noeuds qui démarrent Red Hat GFS sont configurés et gérés avec les outils de gestion et de configuration de Red Hat Cluster Suite. La gestion de volumes est gérée par le biais du gestionnaire de volumes logiques du cluster (CLVM de l'anglais Cluster Logical Volume Manager). Red Hat GFS fournit le partage de fichiers entre les noeuds GFS d'un cluster Red Hat. GFS fournit une vue unique et cohérente de l'espace de noms du système de fichiers sur les noeuds GFS d'un cluster Red Hat. GFS permet aux applications d'être installées et démarrées sans trop de connaissances quant à l'infrastructure de stockage sous-jacente. De plus, GFS fournit des fonctionnalités qui sont généralement requises dans les environnements d'entreprise, telles que les quotas, de multiples fichiers journaux et la prise en charge de "multipath". GFS fournit une méthode versatile de stockage en réseau en fonction de vos besoins en matière de performance, évolutivité et économie pour votre environnement de stockage. Ce chapitre fournit des informations de base, concises pour vous aider à comprendre GFS. You can deploy GFS in a variety of configurations to suit your needs for performance, scalability, and economy. For superior performance and scalability, you can deploy GFS in a cluster that is connected directly to a SAN. For more economical needs, you can deploy GFS in a cluster that is connected to a LAN with servers that use GNBD (Global Network Block Device) or to iSCSI (Internet Small Computer System Interface) devices. (For more information about GNBD, refer to Section 1.7, « Périphérique bloc du réseau global (GNBD) ».) Les sections suivantes fournissent des exemples sur la façon dont GFS peut être déployé afin de répondre à vos besoins en matière de performance, évolutivité et économie : Section 1.5.1, « Performance et évolutivité supérieures » Section 1.5.2, « Performance, évolutivité, prix modéré » Section 1.5.3, « Économie et performance » Remarque Les exemples de déploiement de GFS reflètent les configurations de base ; vos besoins peuvent nécessiter une combinaison des configurations illustrées dans ces exemples. 1.5.1. Performance et évolutivité supérieures You can obtain the highest shared-file performance when applications access storage directly. T he GFS SAN configuration in Figure 1.11, « GFS with a SAN » provides superior file performance for shared files and file systems. Linux applications run directly on cluster nodes using GFS. Without file protocols or storage servers to slow data access, performance is similar to individual Linux servers with directly connected storage; yet, each GFS application node has equal access to all data files. GFS supports over 300 GFS nodes. 21
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Figure 1.11. GFS with a SAN 1.5.2. Performance, évolutivité, prix modéré Multiple Linux client applications on a LAN can share the same SAN-based data as shown in Figure 1.12, « GFS and GNBD with a SAN ». SAN block storage is presented to network clients as block storage devices by GNBD servers. From the perspective of a client application, storage is accessed as if it were directly attached to the server in which the application is running. Stored data is actually on the SAN. Storage devices and data can be equally shared by network client applications. File locking and sharing functions are handled by GFS for each network client. Figure 1.12. GFS and GNBD with a SAN 1.5.3. Économie et performance Figure 1.13, « GFS et GNBD avec un stockage directement connecté » shows how Linux client applications can take advantage of an existing Ethernet topology to gain shared access to all block storage devices. Client data files and file systems can be shared with GFS on each client. Application 22
Chapitre 1. Aperçu de Red Hat Cluster Suite failover can be fully automated with Red Hat Cluster Suite. Figure 1.13. GFS et GNBD avec un stockage directement connecté 1.6. Gestionnaire de volumes logiques du cluster Le gestionnaire de volumes logiques du cluster (CLVM de l'anglais Cluster Logical Volume Manager) fournit une version de LVM2 à l'échelle du cluster. CLVM fournit les mêmes capacités que LVM2 sur un noeud unique mais rend les volumes disponibles à tous les noeuds d'un cluster Red Hat. Les volumes logiques créés avec CLVM sont disponibles à tous les noeuds d'un cluster. T he key component in CLVM is clvm d. clvm d is a daemon that provides clustering extensions to the standard LVM2 tool set and allows LVM2 commands to manage shared storage. clvm d runs in each cluster node and distributes LVM metadata updates in a cluster, thereby presenting each cluster node with the same view of the logical volumes (refer to Figure 1.14, « CLVM Overview »). Logical volumes created with CLVM on shared storage are visible to all nodes that have access to the shared storage. CLVM allows a user to configure logical volumes on shared storage by locking access to physical storage while a logical volume is being configured. CLVM uses the lock-management service provided by the cluster infrastructure (refer to Section 1.3, « Cluster Infrastructure »). Remarque Le stockage partagé utilisé dans Red Hat Cluster Suite exige que vous exécutiez le démon du gestionnaire de volume logique du cluster (clvm d) or bien lesagents High Availability Logical Volume Management (HA-LVM). Si vous n'êtes pas en mesure d'utiliser le démon clvm d, ni HA- LVM pour des raisons opérationnelles, ou parce que vous ne possédez pas d'accès, vous ne pouvez pas utiliser un instance-simple LVM sur le disque partagé, car cela pourrait aboutir à une corruption des données. Si vous avez des questions, veuillez contacter votre représentant commercial Red Hat. 23
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite Remarque L'utilisation de CLVM requiert de mineurs changements dans /etc/lvm /lvm .conf afin de gérer le verrouillage à l'échelle du cluster. Figure 1.14 . CLVM Overview You can configure CLVM using the same commands as LVM2, using the LVM graphical user interface (refer to Figure 1.15, « LVM Graphical User Interface »), or using the storage configuration function of the Conga cluster configuration graphical user interface (refer to Figure 1.16, « Conga LVM Graphical User Interface ») . Figure 1.17, « Creating Logical Volumes » shows the basic concept of creating logical volumes from Linux partitions and shows the commands used to create logical volumes. Figure 1.15. LVM Graphical User Interface 24
Chapitre 1. Aperçu de Red Hat Cluster Suite Figure 1.16. Conga LVM Graphical User Interface Figure 1.17. Creating Logical Volumes 1.7. Périphérique bloc du réseau global (GNBD) 25
Red Hat Enterprise Linux 5 Aperçu général de la Cluster Suite GNBD fournit un accès aux périphériques blocs à Red Hat GFS à travers T CP/IP. GNBD est similaire dans son concept à NBD ; cependant, GNBD est spécifique à GFS et personnalisé pour être utilisé exclusivement avec GFS. GNBD est utile lorsque le besoin de technologies plus robustes, telles que Fibre Channel ou un seul initiateur SCSI, n'est pas nécessaire ou à des prix excessifs. GNBD consists of two major components: a GNBD client and a GNBD server. A GNBD client runs in a node with GFS and imports a block device exported by a GNBD server. A GNBD server runs in another node and exports block-level storage from its local storage (either directly attached storage or SAN storage). Refer to Figure 1.18, « Aperçu de GNBD ». Multiple GNBD clients can access a device exported by a GNBD server, thus making a GNBD suitable for use by a group of nodes running GFS. Figure 1.18. Aperçu de GNBD 1.8. Serveur virtuel Linux LVS (de l'anglais Linux Virtual Server) est un ensemble de composants logiciels intégrés permettant de répartir la charge IP à travers un ensemble de serveurs réels. LVS s'exécute sur une paire d'ordinateurs ayant la même configuration : un routeur LVS actif et un routeur LVS de sauvegarde. Le routeur LVS actif joue deux rôles : Il répartit la charge à travers les serveurs réels. Il vérifie l'intégrité des services sur chaque serveur réel. Le routeur LVS de sauvegarde surveille le routeur LVS actif et prend le pas sur ce dernier s'il échoue. Figure 1.19, « Components of a Running LVS Cluster » provides an overview of the LVS components and their interrelationship. 26
Vous pouvez aussi lire