PrBifidus Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 (modifié) Bonjour à tous, Suite à un 2 incidents quasi simultanés sur 2 disques de la même grappe d'un RAID10 (déconnexion sans raison apparente), j'ai réussi à réassembler la grappe mais elle se trouve actuellement en mode dégradé car la partition system de l'un des disques est corrompue : J'ai d'abord tenté de retirer le disque 1 afin que le Syno le remplace automatiquement par le disque de spare, mais ça immédiatement crashé le RAID :-(Heureusement, il a de nouveau pu être réassemblé une fois le disque 1 replacé dans son logement. Mais, du coup, je ne sais pas comment procéder pour remettre ma grappe d'aplomb. Je ne peux ni supprimer un disque (pour le remplacer), ni en ajouter un dans mon RAID (pour étendre la redondance dans la grappe afin de pouvoir supprimer le disque malade).Avez-vous une idée ? Modifié le 27 mai 2015 par PrBifidus 0 Citer
Fravadona Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 Le RAID10 ne devrait avoir rien a voir avec la partition système. Actives SSH et connectes toi (par SSH) avec l'utilisateur root (mot de passe de l'utilisateur "admin") et donnes-nous le résultat de la commande : mdadm --detail /dev/md0 /dev/md2 0 Citer
gaetan.cambier Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 oublie pas de remonter le curseur avec cet commande autrement, on aura pas toutes les info c'est pour ca que je prend souvent plus cette commande cat /proc/mdstat c'est + condensé 0 Citer
PrBifidus Posté(e) le 27 mai 2015 Auteur Posté(e) le 27 mai 2015 (modifié) Depuis tout à l'heure, il y a eu un petit changement. A l'issue du contrôle de parité, il a classé le RAID10 en mode normal. Mais il y a toujours le message d'erreur concernant la partition système. Pour info, avant mon essai avorté de remplacement du disque de ce midi, il était resté 2 jours en mode dégradé alors que le contrôle de parité avait été fait également. je ne sais pas pourquoi il est mieux luné cette fois-ci... je ne sais pas non plus si ça m'autorise à retirer le disque 1 pour le remplacer. Voilà ce que ça donne pour la 1ère commande : tournedix> mdadm --detail /dev/md0 /dev/md2 /dev/md0: Version : 0.90 Creation Time : Sat Jan 1 01:00:03 2000 Raid Level : raid1 Array Size : 2490176 (2.37 GiB 2.55 GB) Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 12 Total Devices : 10 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Wed May 27 17:25:04 2015 State : clean, degraded Active Devices : 10 Working Devices : 10 Failed Devices : 0 Spare Devices : 0 UUID : bf3088b2:c44c1e60:c69de3af:22ddbed7 Events : 0.1263987 Number Major Minor RaidDevice State 0 8 65 0 active sync /dev/sde1 1 0 0 1 removed 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1 4 8 145 4 active sync /dev/sdj1 5 8 177 5 active sync /dev/sdl1 6 8 161 6 active sync /dev/sdk1 7 8 113 7 active sync /dev/sdh1 8 8 97 8 active sync /dev/sdg1 9 8 81 9 active sync /dev/sdf1 10 8 129 10 active sync /dev/sdi1 11 0 0 11 removed /dev/md2: Version : 1.2 Creation Time : Thu Dec 18 15:33:29 2014 Raid Level : raid10 Array Size : 1865740672 (1779.31 GiB 1910.52 GB) Used Dev Size : 932870336 (889.65 GiB 955.26 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Wed May 27 17:25:00 2015 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 64K Name : RS-Syno:2 UUID : 5d8de382:f7bb6707:b3045166:fcc4303c Events : 138460 Number Major Minor RaidDevice State 4 8 3 0 active sync /dev/sda3 6 8 67 1 active sync /dev/sde3 2 8 35 2 active sync /dev/sdc3 5 8 51 3 active sync /dev/sdd3 Et la 2ème : tournedix> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md1 : active raid1 sdl2[10] sdk2[9] sdj2[8] sdi2[7] sdh2[6] sdg2[5] sdf2[4] sde2 [3] sdd2[2] sdc2[1] sda2[0] 2097088 blocks [12/11] [UUUUUUUUUUU_] md5 : active raid1 sdi3[0] 971940416 blocks super 1.2 [1/1] [U] md3 : active raid5 sdj3[0] sdl3[2] sdk3[1] 3897384832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU] md4 : active raid5 sdf3[3] sdh3[2] sdg3[1] 7804392832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU] md2 : active raid10 sda3[4] sdd3[5] sdc3[2] sde3[6] 1865740672 blocks super 1.2 64K chunks 2 near-copies [4/4] [UUUU] md0 : active raid1 sdc1[2] sdd1[3] sde1[0] sdf1[9] sdg1[8] sdh1[7] sdi1[10] sdj1 [4] sdk1[6] sdl1[5] 2490176 blocks [12/10] [U_UUUUUUUUU_] unused devices: <none> Modifié le 27 mai 2015 par PrBifidus 0 Citer
Fravadona Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 (modifié) Tu as 12 disques dans ton NAS ? Les deux premiers disques du NAS ont un souci au niveau de leurs partitions système; qu'indique leur SMART ? Modifié le 27 mai 2015 par Fravadona 0 Citer
PrBifidus Posté(e) le 27 mai 2015 Auteur Posté(e) le 27 mai 2015 Oui, j'ai 12 disques (RS3614RPxs). Mais c'est le NAS du boulot ;-) Le SMART est vert sur tous les disques 1 Citer
gaetan.cambier Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 il manque 1 disque dans le system (md0) c'est sda qui est manquant je v manger et je te donne après les commandes pour les rajouter 0 Citer
gaetan.cambier Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 bon voila, tu tape cette commande : mdadm --manage /dev/md0 --add /dev/sda1 ensuite, tu relance la commande : cat /proc/mdstat tu peux lancer cette dernière commande en boucle, pour voir l'avancement de la reconstruction qui devrait prendre environ 5 minutes 0 Citer
PrBifidus Posté(e) le 27 mai 2015 Auteur Posté(e) le 27 mai 2015 Ca n'a pris qu'une minute :-DPlus d'erreur sur le groupe RAID. Merci BEAUCOUP Gaetan ! Bonne soirée 0 Citer
PrBifidus Posté(e) le 27 mai 2015 Auteur Posté(e) le 27 mai 2015 J'ai une petite question subsidiaire... Pourquoi la réparation d'un RAID10 met-elle aussi longtemps sur un Syno ? Comme les disques sont en miroir au sein de la grappe, c'est juste une recopie de données. Aucune raison que ça prenne 3 heures (c'est pourtant bien le temps que ça prend pour 1To).J'ai aussi un RAID10 sur un serveur Dell, et la reconstruction est beaucoup beaucoup plus rapide. 0 Citer
gaetan.cambier Posté(e) le 27 mai 2015 Posté(e) le 27 mai 2015 probablement que cela viens de la vitesse de rebuild definie, tu peux la verifier avec cette commande : cat /proc/sys/dev/raid/speed_limit_min 10000 moi, sur mon nas, j'ai donc 10000 comme vitesse (K/sec) tu peux l'augmenter avec la commande suivante : echo 20000 > /proc/sys/dev/raid/speed_limit_min 20000 ou toute autre valeur bien sur, pour voir le temps restant, tu lance la commande : cat /proc/mdstat tu trouvera une ligne de ce genre : [============>........] resync = 61.7% (1205475036/1951945600) finish=242.9min speed=51204K/sec 0 Citer
PrBifidus Posté(e) le 27 mai 2015 Auteur Posté(e) le 27 mai 2015 Merci pour l'info.Et encore merci pour ton aide.Bonne soirée. 0 Citer
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.