Aller au contenu

Featured Replies

Posté(e)

Bonjour à tous,

Suite à un 2 incidents quasi simultanés sur 2 disques de la même grappe d'un RAID10 (déconnexion sans raison apparente), j'ai réussi à réassembler la grappe mais elle se trouve actuellement en mode dégradé car la partition system de l'un des disques est corrompue :

 

J'ai d'abord tenté de retirer le disque 1 afin que le Syno le remplace automatiquement par le disque de spare, mais ça immédiatement crashé le RAID :-(
Heureusement, il a de nouveau pu être réassemblé une fois le disque 1 replacé dans son logement.

Mais, du coup, je ne sais pas comment procéder pour remettre ma grappe d'aplomb. Je ne peux ni supprimer un disque (pour le remplacer), ni en ajouter un dans mon RAID (pour étendre la redondance dans la grappe afin de pouvoir supprimer le disque malade).
Avez-vous une idée ?
 

 

Modifié par PrBifidus

Posté(e)

Le RAID10 ne devrait avoir rien a voir avec la partition système.

Actives SSH et connectes toi (par SSH) avec l'utilisateur root (mot de passe de l'utilisateur "admin") et donnes-nous le résultat de la commande :

mdadm --detail /dev/md0 /dev/md2

 

Posté(e)

oublie pas de remonter le curseur avec cet commande autrement, on aura pas toutes les info

c'est pour ca que je prend souvent plus cette commande ;)

cat /proc/mdstat

c'est + condensé ;)

Posté(e)
  • Auteur

Depuis tout à l'heure, il y a eu un petit changement. A l'issue du contrôle de parité, il a classé le RAID10 en mode normal. Mais il y a toujours le message d'erreur concernant la partition système.

Pour info, avant mon essai avorté de remplacement du disque de ce midi, il était resté 2 jours en mode dégradé alors que le contrôle de parité avait été fait également. je ne sais pas pourquoi il est mieux luné cette fois-ci... je ne sais pas non plus si ça m'autorise à retirer le disque 1 pour le remplacer.

Voilà ce que ça donne pour la 1ère commande :

tournedix> mdadm --detail /dev/md0 /dev/md2
/dev/md0:
        Version : 0.90
  Creation Time : Sat Jan  1 01:00:03 2000
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 12
  Total Devices : 10
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed May 27 17:25:04 2015
          State : clean, degraded
 Active Devices : 10
Working Devices : 10
 Failed Devices : 0
  Spare Devices : 0

           UUID : bf3088b2:c44c1e60:c69de3af:22ddbed7
         Events : 0.1263987

    Number   Major   Minor   RaidDevice State
       0       8       65        0      active sync   /dev/sde1
       1       0        0        1      removed
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
       4       8      145        4      active sync   /dev/sdj1
       5       8      177        5      active sync   /dev/sdl1
       6       8      161        6      active sync   /dev/sdk1
       7       8      113        7      active sync   /dev/sdh1
       8       8       97        8      active sync   /dev/sdg1
       9       8       81        9      active sync   /dev/sdf1
      10       8      129       10      active sync   /dev/sdi1
      11       0        0       11      removed
/dev/md2:
        Version : 1.2
  Creation Time : Thu Dec 18 15:33:29 2014
     Raid Level : raid10
     Array Size : 1865740672 (1779.31 GiB 1910.52 GB)
  Used Dev Size : 932870336 (889.65 GiB 955.26 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Wed May 27 17:25:00 2015
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 64K

           Name : RS-Syno:2
           UUID : 5d8de382:f7bb6707:b3045166:fcc4303c
         Events : 138460

    Number   Major   Minor   RaidDevice State
       4       8        3        0      active sync   /dev/sda3
       6       8       67        1      active sync   /dev/sde3
       2       8       35        2      active sync   /dev/sdc3
       5       8       51        3      active sync   /dev/sdd3

 

Et la 2ème :

tournedix> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md1 : active raid1 sdl2[10] sdk2[9] sdj2[8] sdi2[7] sdh2[6] sdg2[5] sdf2[4] sde2                                                  [3] sdd2[2] sdc2[1] sda2[0]
      2097088 blocks [12/11] [UUUUUUUUUUU_]

md5 : active raid1 sdi3[0]
      971940416 blocks super 1.2 [1/1] [U]

md3 : active raid5 sdj3[0] sdl3[2] sdk3[1]
      3897384832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md4 : active raid5 sdf3[3] sdh3[2] sdg3[1]
      7804392832 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md2 : active raid10 sda3[4] sdd3[5] sdc3[2] sde3[6]
      1865740672 blocks super 1.2 64K chunks 2 near-copies [4/4] [UUUU]

md0 : active raid1 sdc1[2] sdd1[3] sde1[0] sdf1[9] sdg1[8] sdh1[7] sdi1[10] sdj1                                                  [4] sdk1[6] sdl1[5]
      2490176 blocks [12/10] [U_UUUUUUUUU_]

unused devices: <none>

 

Modifié par PrBifidus

Posté(e)

Tu as 12 disques dans ton NAS ?

Les deux premiers disques du NAS ont un souci au niveau de leurs partitions système; qu'indique leur SMART ?

Modifié par Fravadona

Posté(e)
  • Auteur

Oui, j'ai 12 disques (RS3614RPxs). Mais c'est le NAS du boulot ;-)

Le SMART est vert sur tous les disques

Posté(e)

il manque 1  disque dans le system (md0) c'est sda qui est manquant

je v manger et je te donne après les commandes pour les rajouter ;)

 

Posté(e)
  • Auteur

Merci. Et bon appétit ;-)

Posté(e)

bon voila,

tu tape cette commande :

mdadm --manage /dev/md0 --add /dev/sda1

ensuite, tu relance la commande :

cat /proc/mdstat

tu peux lancer cette dernière commande en boucle, pour voir l'avancement de la reconstruction qui devrait prendre environ 5 minutes

Posté(e)
  • Auteur

Ca n'a pris qu'une minute :-D
Plus d'erreur sur le groupe RAID.

 

Merci BEAUCOUP Gaetan !

 

Bonne soirée

Posté(e)
  • Auteur

J'ai une petite question subsidiaire...

Pourquoi la réparation d'un RAID10 met-elle aussi longtemps sur un Syno ? Comme les disques sont en miroir au sein de la grappe, c'est juste une recopie de données. Aucune raison que ça prenne 3 heures (c'est pourtant bien le temps que ça prend pour 1To).
J'ai aussi un RAID10 sur un serveur Dell, et la reconstruction est beaucoup beaucoup plus rapide.

Posté(e)

probablement que cela viens de la vitesse de rebuild definie, tu peux la verifier avec cette commande :

cat /proc/sys/dev/raid/speed_limit_min
10000

moi, sur mon nas, j'ai donc 10000 comme vitesse (K/sec)

tu peux l'augmenter avec la commande suivante :

echo 20000 > /proc/sys/dev/raid/speed_limit_min

20000 ou toute autre valeur bien sur, pour voir le temps restant, tu lance la commande :

cat /proc/mdstat

tu trouvera une ligne de ce genre :

[============>........]  resync = 61.7% (1205475036/1951945600) finish=242.9min speed=51204K/sec

 

Posté(e)
  • Auteur

Merci pour l'info.
Et encore merci pour ton aide.

Bonne soirée.

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.