• Nenhum resultado encontrado

Configurar as restrições de colocação para garantir que os grupos de recursos vg1 e vg2 comecem no mesmo nó que o grupo de recursos locking.

No documento Red Hat Enterprise Linux 8 (páginas 59-63)

CAPÍTULO 7. SISTEMAS DE ARQUIVO GFS2 EM UM CLUSTER

14. Configurar as restrições de colocação para garantir que os grupos de recursos vg1 e vg2 comecem no mesmo nó que o grupo de recursos locking.

[root@z1 ~]# pcs constraint colocation add shared_vg1-clone with locking-clone

[root@z1 ~]# pcs constraint colocation add shared_vg2-clone with locking-clone

15. Em ambos os nós do agrupamento, verificar se os volumes lógicos estão ativos. Pode haver um atraso de alguns segundos.

[root@z1 ~]# lvs

LV VG Attr LSize

shared_lv1 shared_vg1 -wi-a--- 5.00g shared_lv2 shared_vg1 -wi-a--- 5.00g shared_lv1 shared_vg2 -wi-a--- 5.00g [root@z2 ~]# lvs

LV VG Attr LSize

shared_lv1 shared_vg1 -wi-a--- 5.00g shared_lv2 shared_vg1 -wi-a--- 5.00g shared_lv1 shared_vg2 -wi-a--- 5.00g

16. Criar um recurso de sistema de arquivo para montar automaticamente cada sistema de arquivo GFS2 em todos os nós.

Você não deve adicionar o sistema de arquivo ao arquivo /etc/fstab porque ele será gerenciado como um recurso de cluster Pacemaker. As opções de montagem podem ser especificadas como parte da configuração do recurso com options=options. Execute o comando pcs

resource describe Filesystem para opções de configuração completa.

Os seguintes comandos criam os recursos do sistema de arquivos. Estes comandos adicionam cada recurso ao grupo de recursos que inclui o recurso de volume lógico para aquele sistema de arquivo.

[root@z1 ~]# pcs resource create sharedfs1 --group shared_vg1

ocf:heartbeat:Filesystem device="/dev/shared_vg1/shared_lv1" directory="/mnt/gfs1" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence

[root@z1 ~]# pcs resource create sharedfs2 --group shared_vg1

ocf:heartbeat:Filesystem device="/dev/shared_vg1/shared_lv2" directory="/mnt/gfs2" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence

[root@z1 ~]# pcs resource create sharedfs3 --group shared_vg2

ocf:heartbeat:Filesystem device="/dev/shared_vg2/shared_lv1" directory="/mnt/gfs3" fstype="gfs2" options=noatime op monitor interval=10s on-fail=fence

17. Verificar se os sistemas de arquivo GFS2 estão montados em ambos os nós do cluster. [root@z1 ~]# mount | grep gfs2

/dev/mapper/shared_vg1-shared_lv1 on /mnt/gfs1 type gfs2 (rw,noatime,seclabel) /dev/mapper/shared_vg1-shared_lv2 on /mnt/gfs2 type gfs2 (rw,noatime,seclabel) /dev/mapper/shared_vg2-shared_lv1 on /mnt/gfs3 type gfs2 (rw,noatime,seclabel) [root@z2 ~]# mount | grep gfs2

/dev/mapper/shared_vg1-shared_lv1 on /mnt/gfs1 type gfs2 (rw,noatime,seclabel) /dev/mapper/shared_vg1-shared_lv2 on /mnt/gfs2 type gfs2 (rw,noatime,seclabel) /dev/mapper/shared_vg2-shared_lv1 on /mnt/gfs3 type gfs2 (rw,noatime,seclabel) 18. Verifique o status do agrupamento.

[root@z1 ~]# pcs status --full

Cluster name: my_cluster [...1

Full list of resources:

smoke-apc (stonith:fence_apc): Started z1.example.com Clone Set: locking-clone [locking]

Resource Group: locking:0

dlm (ocf::pacemaker:controld): Started z2.example.com lvmlockd (ocf::heartbeat:lvmlockd): Started z2.example.com Resource Group: locking:1

dlm (ocf::pacemaker:controld): Started z1.example.com lvmlockd (ocf::heartbeat:lvmlockd): Started z1.example.com Started: [ z1.example.com z2.example.com ]

Clone Set: shared_vg1-clone [shared_vg1] Resource Group: shared_vg1:0

sharedlv1 (ocf::heartbeat:LVM-activate): Started z2.example.com sharedlv2 (ocf::heartbeat:LVM-activate): Started z2.example.com sharedfs1 (ocf::heartbeat:Filesystem): Started z2.example.com sharedfs2 (ocf::heartbeat:Filesystem): Started z2.example.com Resource Group: shared_vg1:1

sharedlv1 (ocf::heartbeat:LVM-activate): Started z1.example.com sharedlv2 (ocf::heartbeat:LVM-activate): Started z1.example.com sharedfs1 (ocf::heartbeat:Filesystem): Started z1.example.com sharedfs2 (ocf::heartbeat:Filesystem): Started example.co Started: [ z1.example.com z2.example.com ]

Clone Set: shared_vg2-clone [shared_vg2] Resource Group: shared_vg2:0

sharedlv3 (ocf::heartbeat:LVM-activate): Started z2.example.com sharedfs3 (ocf::heartbeat:Filesystem): Started z2.example.com

Resource Group: shared_vg2:1

sharedlv3 (ocf::heartbeat:LVM-activate): Started z1.example.com sharedfs3 (ocf::heartbeat:Filesystem): Started z1.example.com Started: [ z1.example.com z2.example.com ]

...

Recursos adicionais

Para informações sobre a configuração do armazenamento em bloco compartilhado para um cluster Red Hat High Availability com discos compartilhados Microsoft Azure, consulte

Configuração do armazenamento em bloco compartilhado.

Para informações sobre a configuração do armazenamento em bloco compartilhado para um cluster Red Hat High Availability com volumes Amazon EBS Multi-Attach, consulte

Configuração do armazenamento em bloco compartilhado.

Para informações sobre como configurar o armazenamento em blocos compartilhados para um cluster de alta disponibilidade da Red Hat em Alibaba Cloud, veja Configurando o

armazenamento em blocos compartilhados para um cluster de alta disponibilidade da Red Hat em Alibaba Cloud.

7.2. MIGRAÇÃO DE UM SISTEMA DE ARQUIVOS GFS2 DE RHEL7 PARA

RHEL8

No Red Hat Enterprise Linux 8, o LVM usa o daemon LVM lock lvmlockd ao invés de clvmd para gerenciar dispositivos de armazenamento compartilhado em um cluster ativo/ativo. Isto requer que você configure os volumes lógicos que seu cluster ativo/ativo irá requerer como volumes lógicos

compartilhados. Além disso, isto requer que você use o recurso LVM-activate para gerenciar um volume LVM e que você use o agente de recursos lvmlockd para gerenciar o daemon lvmlockd. Veja

Configurando um sistema de arquivos GFS2 em um cluster para um procedimento completo de configuração de um cluster Pacemaker que inclui sistemas de arquivos GFS2 usando volumes lógicos compartilhados.

Para usar seus volumes lógicos existentes do Red Hat Enterprise Linux 7 ao configurar um cluster RHEL8 que inclui sistemas de arquivo GFS2, execute o seguinte procedimento a partir do cluster RHEL8. Neste exemplo, o volume lógico do cluster RHEL 7 faz parte do grupo de volume

upgrade_gfs_vg.

NOTA

O cluster RHEL8 deve ter o mesmo nome que o cluster RHEL7 que inclui o sistema de arquivos GFS2 para que o sistema de arquivos existente seja válido.

1. Certifique-se de que os volumes lógicos contendo os sistemas de arquivo GFS2 estejam atualmente inativos. Este procedimento é seguro somente se todos os nós tiverem parado de usar o grupo de volume.

2. A partir de um nó no aglomerado, mudar forçadamente o grupo de volume para ser local. [root@rhel8-01 ~]# vgchange --lock-type none --lock-opt force upgrade_gfs_vg

Forcibly change VG lock type to none? [y/n]: y

3. De um nó no agrupamento, mude o grupo de volume local para um grupo de volume compartilhado

[root@rhel8-01 ~]# vgchange --lock-type dlm upgrade_gfs_vg

Volume group "upgrade_gfs_vg" successfully changed

4. Em cada nó do aglomerado, comece a travar para o grupo de volume. [root@rhel8-01 ~]# vgchange --lock-start upgrade_gfs_vg

VG upgrade_gfs_vg starting dlm lockspace Starting locking. Waiting until locks are ready...

[root@rhel8-02 ~]# vgchange --lock-start upgrade_gfs_vg

VG upgrade_gfs_vg starting dlm lockspace Starting locking. Waiting until locks are ready...

No documento Red Hat Enterprise Linux 8 (páginas 59-63)