Aller au contenu

Volume Root,swap Degraded


Messages recommandés

Bonjour,

Je me permets d'ouvrir ce topic concernant un point qui suscite mon attention.

Je dispose d'un NAS 8baie avec un RAID 5 sur 3 disques (/dev/sd[abc]).

Après avoir rajouter un disque sur le slot 8 pour des tests, j'ai crée un volume contenant uniquement ce disque. A la fin de me tests, j'ai décidé de supprimer le volume, et de retiré le disque physiquement du slot 8.

Je m'aperçois des messages d'erreurs suivants :

468595121.jpg

Je sais bien que les disques sont découpés en 3 partitions : système, swap et datas.

Les partitions systèmes et swap sont copiés sur tous les disques présent sur le syno (raid 1).

Cependant, est-ce normal qu'après un retrait physique, je sois alerté d'un tel message et qu'il m'est impossible de lancer une "réparation via le gestionnaire".

D'après le gestionnaire, j'ai un système "SAIN", tous le status sont normaux.

Je suppose que le NAS peut continuer à tourner malgré les "dégradations" des partitions ROOT et SWAP (copiés sur tous les disques présents).

Malgré tout, en vérifiant de plus près, je m'aperçois de ceci :

- /dev/md0 (State : clean, degraded)

1813+ : mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Sat Jan  1 01:00:04 2000
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 8
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Jun 23 16:16:26 2014
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

           UUID : ab886365:954b667f:3017a5a8:c86610be
         Events : 0.131283

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8        1        1      active sync   /dev/hda1
       2       8       33        2      active sync   /dev/hdc1
       3       0        0        3      removed
       4       0        0        4      removed
       5       0        0        5      removed
       6       0        0        6      removed
       7       0        0        7      removed

- /dev/md1 (State : clean, degraded)

1813+ : mdadm --detail /dev/md1
/dev/md1:
        Version : 0.90
  Creation Time : Sat Jan  1 01:00:07 2000
     Raid Level : raid1
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 8
  Total Devices : 3
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Mon Jun 23 16:39:05 2014
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

           UUID : 8ab24b2e:3e4752ba:3017a5a8:c86610be
         Events : 0.177

    Number   Major   Minor   RaidDevice State
       0       8       18        0      active sync   /dev/hdb2
       1       8        2        1      active sync   /dev/sda2
       2       8       34        2      active sync   /dev/hdc2
       3       0        0        3      removed
       4       0        0        4      removed
       5       0        0        5      removed
       6       0        0        6      removed
       7       0        0        7      removed

Comme vous pouvez le voir, on trouve la ligne "State : clean, degraded" pour /dev/md0 et /dev/md1.

La partition raid 5 /dev/md2 est quant à elle clean.

Ma question est la suivante :

- Est-il possible de lancer une réparation, un resync, ou autre afin de faire disparaître ce "degraded" ?

- Pensez-vous que cela ne pose pas de problèmes majeures au bon fonctionnement du SYNO ?

- Dois-je laisser les choses telles quelles sont ? (il parait que le système effectue des tâches de réparations au redémarrage du NAS mais je ne vais pas redémarrer mon NAS avec mon raid 5 à chaque fois que je supprime un volume).

Pour finir, j'aurais une dernière question : pourquoi sur mes RAID, j'ai des partitions en "/dev/sdX[0-9]" et d'autres en "/dev/hdX[0-9]".

La nomenclature "hdX" n'est-elle pas pour les disques IDE et "sdX" pour les disques SATA ? (J'ai 3 WD RED).

Ce qui m'étonne également, c'est que j'ai un "mix" des deux sur chaque partition /dev/mdX.

Merci d'avance à ceux qui tenteront de m'éclaircir sur ces points.

Voici un complément d'informations :

1813+ : parted --list
Model: WDC WD30EFRX-68AX9N0 (scsi)
Disk /dev/hda: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  3001GB  2996GB                        raid


Model: WDC WD30EFRX-68AX9N0 (scsi)
Disk /dev/hdb: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  3001GB  2996GB                        raid


Model: WDC WD30EFRX-68EUZN0 (scsi)
Disk /dev/hdc: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  3001GB  2996GB                        raid


Model: WDC WD30EFRX-68AX9N0 (scsi)
Disk /dev/sda: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  3001GB  2996GB                        raid


Model: WDC WD30EFRX-68AX9N0 (scsi)
Disk /dev/sdb: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  3001GB  2996GB                        raid


Model: WDC WD30EFRX-68EUZN0 (scsi)
Disk /dev/sdc: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  3001GB  2996GB                        raid


Model: Linux Software RAID Array (md)
Disk /dev/md0: 2550MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  2550MB  2550MB  ext4


Model: Linux Software RAID Array (md)
Disk /dev/md1: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system     Flags
 1      0.00B  2147MB  2147MB  linux-swap(v1)


Error: /dev/zram0: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/zram0: 628MB
Sector size (logical/physical): 4096B/4096B
Partition Table: unknown
Disk Flags:

Error: /dev/zram1: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/zram1: 628MB
Sector size (logical/physical): 4096B/4096B
Partition Table: unknown
Disk Flags:

Model: Linux Software RAID Array (md)
Disk /dev/md2: 5992GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  5992GB  5992GB  ext4


Model: Synology Diskstation (scsi)
Disk /dev/synoboot: 126MB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name        Flags
 1      32.3kB  16.5MB  16.4MB  fat16        EFI System  boot
 2      16.5MB  115MB   98.7MB  fat16        EFI System  boot

Modifié par katse19
Lien vers le commentaire
Partager sur d’autres sites

Regarde si tu n'as pas la possibilité de réparer ton raid via le bouton "gérer" dans le gestionnaire de stockage > volume

Concernant la nomenclature, je pense (fortement) qu'il y a un distinguo entre les parties données et les parties redondances (http://fr.wikipedia.org/wiki/RAID_(informatique)#RAID_5_:_volume_agr.C3.A9g.C3.A9_par_bandes_.C3.A0_parit.C3.A9_r.C3.A9partie )

Lien vers le commentaire
Partager sur d’autres sites

Merci d'avoir répondu aussi vite.

Je n'ai pas la possibilité de réparer mon raid via le gestionnaire de stockage > volume.

La partition raid5 (datas) est clean, intacte d'après les logs.

J'ai néanmoins la possibilité de vérifier la cohérence de parité sur mon raid5 que j'ai lancé et qui devrait finir dans les 20 minutes.

Par contre c'est les partitions /dev/md0 (système) et /dev/md1(swap) qui sont dégradés et je n'ai pas la possibilité de les réparer via le gestionnaire.

Lien vers le commentaire
Partager sur d’autres sites

En fait pour swap et root tu avais un RAID1 de 8(?) disques qui est passé a un RAID1 sur 3 disques, du coup c'est assez normal que ces RAID1 soient marqués comme dégradés meme si ce n'est pas pertinent du tout.

Pour regler le probleme tu peux faire ceci (SSH avec l'utilisateur root)

mdadm /dev/md0 --grow --raid-devices=3
mdadm /dev/md1 --grow --raid-devices=3
Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

Effectivement Fravadona, ça marche beaucoup mieux en passant le nombre de disques à 3, le statut passe à CLEAN de suite.

Ce que je ne comprends pas, c'est que le système a automatiquement attribué le nombre de devices à 8 pour les partitions root et swap.

Je n'ai jamais eu plus de 4 disques dans le syno.

Modifié par katse19
Lien vers le commentaire
Partager sur d’autres sites

Comme le dit bud77 tu devrais remplir aussi remplir un ticket pour signaler le bug a Synology

PS: Si tu ajoutes et initialise a nouveau ton 4ie disque, ces RAID1 s'etendent dessus ou bien restent a 3 composants ? Le bug apparait a nouveau quand tu retires le disque ?

Lien vers le commentaire
Partager sur d’autres sites

Dès l'ajout d'un nouveau disque et la création d'un volume, les raid devices au niveau de la partition root (/dev/md0) et swap (/dev/md1) repassent à 8.

/dev/md1:
        Version : 0.90
  Creation Time : Sat Jan  1 02:00:07 2000
     Raid Level : raid1
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 8
  Total Devices : 4

Je n'ai pas encore supprimé le volume puis retirer le disque mais y'a de forte chance pour que le nombre de devices reste à 8 et que le volume soit "dégradé.

Je vais donc ouvrir un ticket pour signaler le bug.

Je vous tiens à jour.

Modifié par katse19
Lien vers le commentaire
Partager sur d’autres sites

Voici la réponse de synology concernant le problème :

Please don't change our system design, the root / swap RAID will have such scenario and it is normal, you don't need to deal with such "problem".

Il ne faut donc pas porter attention aux messages d'erreurs concernant la dégradation des partition root/swap.

Lien vers le commentaire
Partager sur d’autres sites

buld77, si tu es en dernière version DSM, pourrais-tu essayer la manipulation que j'ai réalisé et voir si tu obtiens les mêmes messages ?

- création d'un volume sur un HDD

- suppression du volulme

- retirer le HDD du Syno

Merci

Je suis toujours en 4.2 moi ... :D

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.