
 
		
		
    
-  Raid 10 configurar Grub2
 
	
	
 
 
 
		
			
	+ Responder ao Tópico
	
	
	
	
	
	
		
			
- 
	
	
		
		
			
				
				
				
					
 Raid 10 configurar Grub2
				
				
						
							
							
						
						
				
					
						
							oi Pessoal,
Recentemente instalei o Ubuntu 10.10 Server 64bits em um DELL PowerEdge T110 c/ 04 HD´s Satas, fiz o particionamento da seguinte maneira;
Raid 1:
/dev/md0 /boot 
No particionamento "boot" foram criados 04 partições (sda1, sdb1, sdd1 e sdc1)com 100mb cada.
Raid 10:
/dev/md1 /
Raid 10: 
/dev/md2 /var
Quando vou fazer o teste removendo o 1 hd, o servidor não funciona, só volta a funcionar se ligar o 1 hd, sei q grub fez instalação dele mesmo em cada partição criada acima, como faço p/ o grub reconheça os demais hd para dar boot independente de cada um?
Grato,
						
					 
					
				 
			 
			
			
		 
	 
		
	
 
- 
	
	
		
		
			
				
				
				
					
 Re: Raid 10 configurar Grub2
				
				
						
						
				
					
						
							Está um pouco confuso de entender, detalha melhor a composição do seu RAID.
Ex: RAID 1 = /dev/sda /dev/sdb /dev/sdc - Montado em /dev/md0 - 2 espelhos e 1 spare
Desta forma posso entender qual a composição fisica do seu RAID e entender porque está havendo a falha.
						
					 
					
				 
			 
			
			
		 
	 
		
	
 
- 
	
	
		
		
			
				
				
				
					
 Re: Raid 10 configurar Grub2
				
				
						
						
				
					
						
							Oi srgnetwork,
 
Segue mais detalhes como solicitado;
 
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=4 UUID=4445095c:ed3f6b52:9ce38e94:7e7ebd3b
ARRAY /dev/md1 level=raid10 num-devices=4 UUID=c8e99170:8772fe34:81436167:dda501cd
ARRAY /dev/md2 level=raid10 num-devices=4 UUID=dbd0135f:7a0c7c3d:6e0fbf0b:deb02f92
# This file was auto-generated on Thu, 24 Mar 2011 10:09:30 -0300
# by mkconf $Id$
 
root@vmware1:~# df
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/md1              28836732   2155604  25216304   8% /
none                   2016168       232   2015936   1% /dev
none                   2023016         0   2023016   0% /dev/shm
none                   2023016        52   2022964   1% /var/run
none                   2023016         0   2023016   0% /var/lock
/dev/md0                 93143     25706     62628  30% /boot
/dev/md2             917037172  61564524 808889872   8% /var
root@vmware1:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid10 sda3[0] sdd3[3] sdb3[1] sdc3[2]
      29296512 blocks 64K chunks 2 near-copies [4/4] [UUUU]
md2 : active raid10 sda4[0] sdd4[3] sdb4[1] sdc4[2]
      931655552 blocks 64K chunks 2 near-copies [4/4] [UUUU]
      [================>....]  check = 83.1% (775122624/931655552) finish=254.3min speed=10256K/sec
md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3]
      96192 blocks [4/4] [UUUU]
unused devices: <none>
root@vmware1:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Tue Mar 22 15:11:13 2011
     Raid Level : raid1
     Array Size : 96192 (93.95 MiB 98.50 MB)
  Used Dev Size : 96192 (93.95 MiB 98.50 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent
    Update Time : Tue May  3 06:25:23 2011
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
           UUID : 4445095c:ed3f6b52:9ce38e94:7e7ebd3b
         Events : 0.24
    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
root@vmware1:~# mdadm --detail /dev/md1
/dev/md1:
        Version : 00.90
  Creation Time : Tue Mar 22 15:11:43 2011
     Raid Level : raid10
     Array Size : 29296512 (27.94 GiB 30.00 GB)
  Used Dev Size : 14648256 (13.97 GiB 15.00 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1
    Persistence : Superblock is persistent
    Update Time : Tue May  3 08:20:24 2011
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : near=2, far=1
     Chunk Size : 64K
           UUID : c8e99170:8772fe34:81436167:dda501cd
         Events : 0.61
    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       19        1      active sync   /dev/sdb3
       2       8       35        2      active sync   /dev/sdc3
       3       8       51        3      active sync   /dev/sdd3
root@vmware1:~# mdadm --detail /dev/md2
/dev/md2:
        Version : 00.90
  Creation Time : Tue Mar 22 15:11:57 2011
     Raid Level : raid10
     Array Size : 931655552 (888.50 GiB 954.02 GB)
  Used Dev Size : 465827776 (444.25 GiB 477.01 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 2
    Persistence : Superblock is persistent
    Update Time : Tue May  3 08:20:44 2011
          State : clean, recovering
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : near=2, far=1
     Chunk Size : 64K
 Rebuild Status : 83% complete
           UUID : dbd0135f:7a0c7c3d:6e0fbf0b:deb02f92
         Events : 0.57
    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4
       2       8       36        2      active sync   /dev/sdc4
       3       8       52        3      active sync   /dev/sdd4
Obrigado pela sua ajuda!!!
						
					 
					
				 
			 
			
			
		 
	 
		
	
 
- 
	
	
		
		
			
				
				
				
					
 Re: Raid 10 configurar Grub2
				
				
						
						
							
						
				
					
						
							agora está mais claro sua estrutura, vamos aos testes...
para facilitar nossa tarefa, instala o splitvt pra ficar com o terminal dividido.
Em um terminal
#watch cat /proc/mdstat
vai estar tudo rodando...
agora vamos gerar uma falha em um dos discos para ver o que acontece...
#mdadm /dev/md0 --fail /dev/sda1
Por se tratar de um raid1, ele deveria apenas avisar o erro no terminal de cima, e mais nenhum problema (estou entendendo que este servidor ainda não está em operação). Faça o mesmo teste com os outros discos do md0. Minha recomendação para este raid é que vc utilize dois devices e 2 spare, assim ele tem opção de substuição em caso de falha.
faz os teste e posta aqui, vamos testando para encontrar o problema