+ Responder ao Tópico



  1. #1

    Question Raid 10 configurar Grub2

    oi Pessoal,

    Recentemente instalei o Ubuntu 10.10 Server 64bits em um DELL PowerEdge T110 c/ 04 HD´s Satas, fiz o particionamento da seguinte maneira;

    Raid 1:
    /dev/md0 /boot

    No particionamento "boot" foram criados 04 partições (sda1, sdb1, sdd1 e sdc1)com 100mb cada.

    Raid 10:
    /dev/md1 /

    Raid 10:
    /dev/md2 /var

    Quando vou fazer o teste removendo o 1 hd, o servidor não funciona, só volta a funcionar se ligar o 1 hd, sei q grub fez instalação dele mesmo em cada partição criada acima, como faço p/ o grub reconheça os demais hd para dar boot independente de cada um?

    Grato,

  2. #2

    Padrão Re: Raid 10 configurar Grub2

    Está um pouco confuso de entender, detalha melhor a composição do seu RAID.

    Ex: RAID 1 = /dev/sda /dev/sdb /dev/sdc - Montado em /dev/md0 - 2 espelhos e 1 spare

    Desta forma posso entender qual a composição fisica do seu RAID e entender porque está havendo a falha.

  3. #3

    Padrão Re: Raid 10 configurar Grub2

    Oi srgnetwork,

    Segue mais detalhes como solicitado;

    # mdadm.conf
    #
    # Please refer to mdadm.conf(5) for information about this file.
    #
    # by default, scan all partitions (/proc/partitions) for MD superblocks.
    # alternatively, specify devices to scan, using wildcards if desired.
    DEVICE partitions
    # auto-create devices with Debian standard permissions
    CREATE owner=root group=disk mode=0660 auto=yes
    # automatically tag new arrays as belonging to the local system
    HOMEHOST <system>
    # instruct the monitoring daemon where to send mail alerts
    MAILADDR root
    # definitions of existing MD arrays
    ARRAY /dev/md0 level=raid1 num-devices=4 UUID=4445095c:ed3f6b52:9ce38e94:7e7ebd3b
    ARRAY /dev/md1 level=raid10 num-devices=4 UUID=c8e99170:8772fe34:81436167:dda501cd
    ARRAY /dev/md2 level=raid10 num-devices=4 UUID=dbd0135f:7a0c7c3d:6e0fbf0b:deb02f92
    # This file was auto-generated on Thu, 24 Mar 2011 10:09:30 -0300
    # by mkconf $Id$


    root@vmware1:~# df
    Filesystem 1K-blocks Used Available Use% Mounted on
    /dev/md1 28836732 2155604 25216304 8% /
    none 2016168 232 2015936 1% /dev
    none 2023016 0 2023016 0% /dev/shm
    none 2023016 52 2022964 1% /var/run
    none 2023016 0 2023016 0% /var/lock
    /dev/md0 93143 25706 62628 30% /boot
    /dev/md2 917037172 61564524 808889872 8% /var
    root@vmware1:~# cat /proc/mdstat
    Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
    md1 : active raid10 sda3[0] sdd3[3] sdb3[1] sdc3[2]
    29296512 blocks 64K chunks 2 near-copies [4/4] [UUUU]
    md2 : active raid10 sda4[0] sdd4[3] sdb4[1] sdc4[2]
    931655552 blocks 64K chunks 2 near-copies [4/4] [UUUU]
    [================>....] check = 83.1% (775122624/931655552) finish=254.3min speed=10256K/sec
    md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3]
    96192 blocks [4/4] [UUUU]
    unused devices: <none>

    root@vmware1:~# mdadm --detail /dev/md0
    /dev/md0:
    Version : 00.90
    Creation Time : Tue Mar 22 15:11:13 2011
    Raid Level : raid1
    Array Size : 96192 (93.95 MiB 98.50 MB)
    Used Dev Size : 96192 (93.95 MiB 98.50 MB)
    Raid Devices : 4
    Total Devices : 4
    Preferred Minor : 0
    Persistence : Superblock is persistent
    Update Time : Tue May 3 06:25:23 2011
    State : clean
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0
    UUID : 4445095c:ed3f6b52:9ce38e94:7e7ebd3b
    Events : 0.24
    Number Major Minor RaidDevice State
    0 8 1 0 active sync /dev/sda1
    1 8 17 1 active sync /dev/sdb1
    2 8 33 2 active sync /dev/sdc1
    3 8 49 3 active sync /dev/sdd1

    root@vmware1:~# mdadm --detail /dev/md1
    /dev/md1:
    Version : 00.90
    Creation Time : Tue Mar 22 15:11:43 2011
    Raid Level : raid10
    Array Size : 29296512 (27.94 GiB 30.00 GB)
    Used Dev Size : 14648256 (13.97 GiB 15.00 GB)
    Raid Devices : 4
    Total Devices : 4
    Preferred Minor : 1
    Persistence : Superblock is persistent
    Update Time : Tue May 3 08:20:24 2011
    State : clean
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0
    Layout : near=2, far=1
    Chunk Size : 64K
    UUID : c8e99170:8772fe34:81436167:dda501cd
    Events : 0.61
    Number Major Minor RaidDevice State
    0 8 3 0 active sync /dev/sda3
    1 8 19 1 active sync /dev/sdb3
    2 8 35 2 active sync /dev/sdc3
    3 8 51 3 active sync /dev/sdd3

    root@vmware1:~# mdadm --detail /dev/md2
    /dev/md2:
    Version : 00.90
    Creation Time : Tue Mar 22 15:11:57 2011
    Raid Level : raid10
    Array Size : 931655552 (888.50 GiB 954.02 GB)
    Used Dev Size : 465827776 (444.25 GiB 477.01 GB)
    Raid Devices : 4
    Total Devices : 4
    Preferred Minor : 2
    Persistence : Superblock is persistent
    Update Time : Tue May 3 08:20:44 2011
    State : clean, recovering
    Active Devices : 4
    Working Devices : 4
    Failed Devices : 0
    Spare Devices : 0
    Layout : near=2, far=1
    Chunk Size : 64K
    Rebuild Status : 83% complete
    UUID : dbd0135f:7a0c7c3d:6e0fbf0b:deb02f92
    Events : 0.57
    Number Major Minor RaidDevice State
    0 8 4 0 active sync /dev/sda4
    1 8 20 1 active sync /dev/sdb4
    2 8 36 2 active sync /dev/sdc4
    3 8 52 3 active sync /dev/sdd4

    Obrigado pela sua ajuda!!!

  4. #4

    Padrão Re: Raid 10 configurar Grub2

    agora está mais claro sua estrutura, vamos aos testes...
    para facilitar nossa tarefa, instala o splitvt pra ficar com o terminal dividido.
    Em um terminal
    #watch cat /proc/mdstat
    vai estar tudo rodando...
    agora vamos gerar uma falha em um dos discos para ver o que acontece...
    #mdadm /dev/md0 --fail /dev/sda1
    Por se tratar de um raid1, ele deveria apenas avisar o erro no terminal de cima, e mais nenhum problema (estou entendendo que este servidor ainda não está em operação). Faça o mesmo teste com os outros discos do md0. Minha recomendação para este raid é que vc utilize dois devices e 2 spare, assim ele tem opção de substuição em caso de falha.
    faz os teste e posta aqui, vamos testando para encontrar o problema