LinuxParty

Ratio: 5 / 5

Inicio activadoInicio activadoInicio activadoInicio activadoInicio activado
 

RAID 6 es una versión actualizada de RAID 5 , donde tiene dos paridades distribuidas que proporcionan tolerancia a fallas incluso después de que fallan dos unidades. El sistema de misión crítica sigue operativo en caso de fallas simultáneas en dos discos. Es similar a RAID 5 , pero proporciona más robustez, ya que utiliza un disco más por paridad.

En nuestro artículo anterior, hemos visto paridad distribuida en RAID 5 , pero en este artículo veremos RAID 6 con doble paridad distribuida. No espere un rendimiento adicional que cualquier otro RAID, de ser así, también tenemos que instalar un controlador RAID dedicado. Aquí en RAID 6, incluso si perdemos nuestros 2 discos, podemos recuperar los datos al reemplazar una unidad de repuesto y construirla desde la paridad.

Configurar RAID 6 en Linux

Para configurar un RAID 6 , se requieren un mínimo de 4 números de discos o más en un conjunto. RAID 6 tiene múltiples discos, incluso en algunos conjuntos, puede tener algunos discos, mientras lee, leerá desde todas las unidades, por lo que la lectura sería más rápida, mientras que la escritura sería pobre porque tiene que dividir en varios discos.

Ahora, muchos de nosotros llegamos a la conclusión de por qué necesitamos usar RAID 6 , cuando no funciona como cualquier otro RAID. Mmm ... quienes plantean esta pregunta deben saber que, si necesitan una alta tolerancia a fallas, elijan RAID 6. En todos los entornos superiores con alta disponibilidad para la base de datos, usan RAID 6 porque la base de datos es la más importante y debe estar segura a cualquier costo , también puede ser útil para entornos de transmisión de video.

Pros y contras de RAID 6

  1. El rendimiento es bueno.
  2. RAID 6 es costoso, ya que requiere dos unidades independientes que se utilizan para funciones de paridad.
  3. Perderá una capacidad de dos discos para usar la información de paridad (doble paridad).
  4. Sin pérdida de datos, incluso después de que fallan dos discos. Podemos reconstruir desde la paridad después de reemplazar el disco fallido.
  5. La lectura será mejor que RAID 5, porque lee desde múltiples discos, pero el rendimiento de escritura será muy pobre sin un controlador RAID dedicado.

Requisitos

Se requieren un mínimo de 4 números de discos para crear un RAID 6 . Si desea agregar más discos, puede hacerlo, pero debe tener un controlador de incursión dedicado. En RAID de software, no obtendremos un mejor rendimiento en RAID 6. Por lo tanto, necesitamos un controlador RAID físico.

Aquellos que son nuevos en la configuración de RAID, recomendamos leer los artículos de RAID a continuación.

Configuración de mi servidor
Sistema operativo: CentOS 7.5 Final
Dirección IP: 192.168.0.228
Nombre de host: rd6.tecmintlocal.com
Disco 1 [20GB]: /dev/sdb
Disco 2 [20GB]: /dev/sdc
Disco 3 [20GB]: /dev/sdd
Disco 4 [20GB]: /dev/sde

Este artículo es una parte 5 de una serie RAID de 9 tutoriales, aquí veremos cómo podemos crear y configurar Software RAID 6 o Striping con paridad distribuida doble en sistemas o servidores Linux usando cuatro discos de 20GB llamados /dev/sdb, /dev/sdc, /dev/sdd y /dev/sde.

Paso 1: Instalar la herramienta mdadm y examinar unidades

1. Si está siguiendo nuestros dos últimos artículos de Raid ( Parte 2 y P art 3 ), donde ya hemos mostrado cómo instalar la herramienta ' mdadm '. Si es nuevo en este artículo, permítame explicarle que ' mdadm ' es una herramienta para crear y administrar Raid en sistemas Linux, instalemos la herramienta usando el siguiente comando de acuerdo con su distribución de Linux.

# yum install mdadm [en sistemas RedHat]
# apt-get install mdadm [en sistemas Debain]

2. Después de instalar la herramienta, ahora es el momento de verificar las cuatro unidades conectadas que vamos a utilizar para la creación de incursiones utilizando el siguiente comando ' fdisk '.

 # fdisk -l | grep sd

Comprobar discos en Linux

3. Antes de crear una unidad RAID, siempre examine nuestras unidades de disco si hay alguna RAID ya creada en los discos.

# mdadm -E /dev/sd [be]
# mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Comprobar incursión en disco

Nota: En la imagen de arriba se muestra que no se detecta ningún superbloque o que no se define RAID en cuatro unidades de disco. Podemos avanzar más para comenzar a crear RAID 6.

Paso 2: Particionamiento de unidades para RAID 6

4. Ahora cree particiones para raid en ' /dev/sdb ', ' /dev/sdc ', ' /dev/sdd ' y ' /dev/sde ' con la ayuda del siguiente comando fdisk . Aquí, le mostraremos cómo crear una partición en la unidad sdb y luego los mismos pasos a seguir para el resto de las unidades.

Crear /dev/partición sdb
 # fdisk /dev/sdb

Siga las instrucciones que se muestran a continuación para crear una partición.

  1. Presione ' n ' para crear una nueva partición.
  2. Luego elija ' P ' para Partición primaria.
  3. Luego elija el número de partición como 1 .
  4. Defina el valor predeterminado simplemente presionando dos veces la tecla Intro .
  5. Luego presione ' P ' para imprimir la partición definida.
  6. Presione ' L ' para enumerar todos los tipos disponibles.
  7. Escriba ' t ' para elegir las particiones.
  8. Elija ' fd ' para Linux raid auto y presione Enter para aplicar.
  9. Luego, nuevamente use ' P ' para imprimir los cambios que hemos realizado.
  10. Use ' w ' para escribir los cambios.

Crear /dev/partición sdb

Crear /dev/partición sdb
 # fdisk /dev/sdc

Crear /dev/partición sdc

Crear /dev/partición sdd
 # fdisk /dev/sdd

Crear /dev/partición sdd

Crear /dev/partición sde
 # fdisk /dev/sde

Crear /dev/partición sde

5. Después de crear particiones, siempre es una buena costumbre examinar las unidades en busca de superbloques. Si no existen superbloques, entonces podemos ir a crear una nueva configuración RAID.

 # mdadm -E /dev/sd[be]1
o
# mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Verificar incursiones en nuevas particiones

Paso 3: Crear un dispositivo md (RAID)

6. Ahora es el momento de crear el dispositivo Raid ' md0 ' (es decir, /dev/md0 ) y aplicar el nivel de banda en todas las particiones recién creadas y confirmar la banda usando los siguientes comandos.

# mdadm --create /dev/md0 --level = 6 --raid-devices = 4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
# cat /proc/mdstat

Crear dispositivo Raid 6

7. También puede verificar el proceso actual de incursión usando el comando watch como se muestra en la captura de pantalla a continuación.

 # watch -n1 cat /proc/mdstat

Verificación del proceso Raid 6

8. Verifique los dispositivos de incursión con el siguiente comando.

 # mdadm -E /dev/sd [be] 1

Nota: El comando anterior mostrará la información de los cuatro discos, que es bastante larga, por lo que no es posible publicar el resultado o la captura de pantalla aquí.

9. Luego, verifique la matriz RAID para confirmar que se inicia la resincronización.

 # mdadm --detail /dev/md0

Comprobar matriz de Raid 6

Paso 4: Crear FileSystem en un dispositivo Raid

10. Cree un sistema de archivos usando ext4 para ' /dev/md0 ' y móntelo en /mnt/raid6 . Aquí hemos usado ext4, pero puede usar cualquier tipo de sistema de archivos según su elección.

 # mkfs.ext4 /dev/md0

Crear sistema de archivos en Raid 6

11. Monte el sistema de archivos creado en /mnt/raid6 y verifique los archivos en el punto de montaje, podemos ver el directorio perdido + encontrado.

# mkdir /mnt/raid6
# mount /dev/md0 /mnt/raid6 /
# ls -l /mnt/raid6 /

12. Cree algunos archivos debajo del punto de montaje y agregue texto en cualquiera de los archivos para verificar el contenido.

# touch /mnt/raid6/raid6_test.txt
# ls -l /mnt/raid6 /
# echo "configuraciones de incursión tecmint"> /mnt/raid6/raid6_test.txt
# cat /mnt/raid6/raid6_test.txt

Verificar contenido de incursión

13. Agregue una entrada en /etc/fstab para montar automáticamente el dispositivo al inicio del sistema y agregue la entrada a continuación, el punto de montaje puede diferir según su entorno.

 # vim /etc/fstab

/dev/md0 /mnt/raid6 ext4 por defecto 0 0

Dispositivo Automount Raid 6

14. Luego, ejecute el comando ' mount -a ' para verificar si hay algún error en la entrada fstab.

 # mount -av

Verificar Raid Automount

Paso 5: Guardar la configuración de RAID 6

15. Tenga en cuenta que por defecto RAID no tiene un archivo de configuración. Tenemos que guardarlo manualmente usando el siguiente comando y luego verificar el estado del dispositivo ' /dev/md0 '.

# mdadm --detail --scan --verbose >> /etc/mdadm.conf
# mdadm --detail /dev/md0

Guardar configuración de Raid 6

Verificar estado de Raid 6

Paso 6: Agregar unidades de repuesto

16. Ahora tiene 4 discos y hay dos datos de paridad disponibles. En algunos casos, si alguno de los discos falla, podemos obtener los datos, porque hay una doble paridad en RAID 6.

Puede ser que si el segundo disco falla, podemos agregar uno nuevo antes de perder el tercer disco. Es posible agregar una unidad de repuesto al crear nuestro conjunto RAID, pero no he definido la unidad de repuesto al crear nuestro conjunto RAID. Pero, podemos agregar una unidad de repuesto después de cualquier falla de la unidad o al crear el conjunto RAID. Ahora ya hemos creado el conjunto RAID, ahora me permite agregar una unidad de repuesto para la demostración.

Para fines de demostración, he conectado en caliente un nuevo disco HDD (es decir, /dev/sdf ), verifiquemos el disco conectado.

 # ls -l /dev/ | grep sd

Comprobar nuevo disco

17. Ahora confirme nuevamente que el nuevo disco conectado para cualquier incursión ya está configurado o no está utilizando el mismo comando mdadm .

 # mdadm --examine /dev/sdf

Verificar incursión en disco nuevo

Nota: Como de costumbre, al igual que hemos creado particiones para cuatro discos anteriormente, de manera similar tenemos que crear una nueva partición en el nuevo disco conectado usando el comando fdisk .

 # fdisk /dev/sdf

Crear /dev/partición sdf

18. Nuevamente, después de crear una nueva partición en /dev/sdf , confirme la incursión en la partición, incluya la unidad de repuesto en el dispositivo de incursión /dev/md0 y verifique el dispositivo agregado.

# mdadm --examine /dev/sdf
# mdadm --examine /dev/sdf1
# mdadm --add /dev/md0 /dev/sdf1
# mdadm --detail /dev/md0

Verificar incursión en partición sdf

Agregar partición sdf a Raid

Verifique los detalles de la partición sdf

Paso 7: Verifique la tolerancia a fallos de la incursión 6

19. Ahora, verifiquemos si la unidad de repuesto funciona automáticamente, si alguno de los discos falla en nuestra matriz. Para las pruebas, he marcado personalmente que una de las unidades ha fallado.

Aquí, vamos a marcar /dev/sdd1 como unidad fallida.

 # mdadm --manage --fail /dev/md0 /dev/sdd1

Verifique la tolerancia de falla de la incursión 6

20. Permítanme obtener los detalles del conjunto RAID ahora y verificar si nuestro repuesto comenzó a sincronizarse.

 # mdadm --detail /dev/md0

Comprobar sincronización automática de incursiones

¡Hurra! Aquí, podemos ver que el repuesto se activó y comenzó el proceso de reconstrucción. En la parte inferior podemos ver la unidad defectuosa /dev/sdd1 listada como defectuosa. Podemos monitorear el proceso de compilación usando el siguiente comando.

 # cat /proc/mdstat

Raid 6 Sincronización automática

Configuración terminada.

Aquí, hemos visto cómo configurar RAID 6 usando cuatro discos. Este nivel RAID es una de las configuraciones costosas con alta redundancia. Veremos cómo configurar un RAID 10 anidado y mucho más en los próximos artículos. Hasta entonces, mantente conectado con TECMINT .

Pin It


Redes:



 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías

Nos obligan a moslestarte con la obviedad de que este sitio utiliza Cookies. Ver política