- Raid 10 configurar Grub2
+ Responder ao Tópico
-
Raid 10 configurar Grub2
oi Pessoal,
Recentemente instalei o Ubuntu 10.10 Server 64bits em um DELL PowerEdge T110 c/ 04 HD´s Satas, fiz o particionamento da seguinte maneira;
Raid 1:
/dev/md0 /boot
No particionamento "boot" foram criados 04 partições (sda1, sdb1, sdd1 e sdc1)com 100mb cada.
Raid 10:
/dev/md1 /
Raid 10:
/dev/md2 /var
Quando vou fazer o teste removendo o 1 hd, o servidor não funciona, só volta a funcionar se ligar o 1 hd, sei q grub fez instalação dele mesmo em cada partição criada acima, como faço p/ o grub reconheça os demais hd para dar boot independente de cada um?
Grato,
-
Re: Raid 10 configurar Grub2
Está um pouco confuso de entender, detalha melhor a composição do seu RAID.
Ex: RAID 1 = /dev/sda /dev/sdb /dev/sdc - Montado em /dev/md0 - 2 espelhos e 1 spare
Desta forma posso entender qual a composição fisica do seu RAID e entender porque está havendo a falha.
-
Re: Raid 10 configurar Grub2
Oi srgnetwork,
Segue mais detalhes como solicitado;
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=4 UUID=4445095c:ed3f6b52:9ce38e94:7e7ebd3b
ARRAY /dev/md1 level=raid10 num-devices=4 UUID=c8e99170:8772fe34:81436167:dda501cd
ARRAY /dev/md2 level=raid10 num-devices=4 UUID=dbd0135f:7a0c7c3d:6e0fbf0b:deb02f92
# This file was auto-generated on Thu, 24 Mar 2011 10:09:30 -0300
# by mkconf $Id$
root@vmware1:~# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md1 28836732 2155604 25216304 8% /
none 2016168 232 2015936 1% /dev
none 2023016 0 2023016 0% /dev/shm
none 2023016 52 2022964 1% /var/run
none 2023016 0 2023016 0% /var/lock
/dev/md0 93143 25706 62628 30% /boot
/dev/md2 917037172 61564524 808889872 8% /var
root@vmware1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid10 sda3[0] sdd3[3] sdb3[1] sdc3[2]
29296512 blocks 64K chunks 2 near-copies [4/4] [UUUU]
md2 : active raid10 sda4[0] sdd4[3] sdb4[1] sdc4[2]
931655552 blocks 64K chunks 2 near-copies [4/4] [UUUU]
[================>....] check = 83.1% (775122624/931655552) finish=254.3min speed=10256K/sec
md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3]
96192 blocks [4/4] [UUUU]
unused devices: <none>
root@vmware1:~# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90
Creation Time : Tue Mar 22 15:11:13 2011
Raid Level : raid1
Array Size : 96192 (93.95 MiB 98.50 MB)
Used Dev Size : 96192 (93.95 MiB 98.50 MB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Tue May 3 06:25:23 2011
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
UUID : 4445095c:ed3f6b52:9ce38e94:7e7ebd3b
Events : 0.24
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1
root@vmware1:~# mdadm --detail /dev/md1
/dev/md1:
Version : 00.90
Creation Time : Tue Mar 22 15:11:43 2011
Raid Level : raid10
Array Size : 29296512 (27.94 GiB 30.00 GB)
Used Dev Size : 14648256 (13.97 GiB 15.00 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Tue May 3 08:20:24 2011
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2, far=1
Chunk Size : 64K
UUID : c8e99170:8772fe34:81436167:dda501cd
Events : 0.61
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
3 8 51 3 active sync /dev/sdd3
root@vmware1:~# mdadm --detail /dev/md2
/dev/md2:
Version : 00.90
Creation Time : Tue Mar 22 15:11:57 2011
Raid Level : raid10
Array Size : 931655552 (888.50 GiB 954.02 GB)
Used Dev Size : 465827776 (444.25 GiB 477.01 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Tue May 3 08:20:44 2011
State : clean, recovering
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2, far=1
Chunk Size : 64K
Rebuild Status : 83% complete
UUID : dbd0135f:7a0c7c3d:6e0fbf0b:deb02f92
Events : 0.57
Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 20 1 active sync /dev/sdb4
2 8 36 2 active sync /dev/sdc4
3 8 52 3 active sync /dev/sdd4
Obrigado pela sua ajuda!!!
-
Re: Raid 10 configurar Grub2
agora está mais claro sua estrutura, vamos aos testes...
para facilitar nossa tarefa, instala o splitvt pra ficar com o terminal dividido.
Em um terminal
#watch cat /proc/mdstat
vai estar tudo rodando...
agora vamos gerar uma falha em um dos discos para ver o que acontece...
#mdadm /dev/md0 --fail /dev/sda1
Por se tratar de um raid1, ele deveria apenas avisar o erro no terminal de cima, e mais nenhum problema (estou entendendo que este servidor ainda não está em operação). Faça o mesmo teste com os outros discos do md0. Minha recomendação para este raid é que vc utilize dois devices e 2 spare, assim ele tem opção de substuição em caso de falha.
faz os teste e posta aqui, vamos testando para encontrar o problema