Aller au contenu

disque avec le statut "crashed"


Messages recommandés

Murphy oblige...

En attendant de pouvoir renvoyer le disque dur neuf défectueux au déballage, laissant le RAID5 sur 3 pattes au lieu de 4, le disque 4 a fait des siennes ce soir et balance un statut "crashed".

Arrêt, je te sors du NAS, je te remet dans le NAS histoire d'être certain du contact et on démarre.

Le statut est toujours "crashed" pourtant je le liste bien avec les partitions avec fdisk -l et le statut du RAID5 me semble moins pire que prévu. J'ai contacté le support Synology mais je demande ici aussi au cas où.

Existe-t-il un moyen de resetter/forcer ce statut "crashed" pour un disque dans Storage Manager?

En attendant init 0 du NAS.

Merci

Disk /dev/sdd: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: B5207F74-8AF1-4FE0-9321-F8350EEC1F1B

Device       Start        End    Sectors  Size Type
/dev/sdd1      256    4980735    4980480  2.4G Linux RAID
/dev/sdd2  4980736    9175039    4194304    2G Linux RAID
/dev/sdd3  9437184 5860528064 5851090881  2.7T Linux RAID

/dev/md2:
        Version : 1.2
  Creation Time : Sat Mar  2 12:32:07 2013
     Raid Level : raid5
     Array Size : 8776632768 (8370.05 GiB 8987.27 GB)
  Used Dev Size : 2925544256 (2790.02 GiB 2995.76 GB)
   Raid Devices : 4
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Wed Sep  7 21:38:58 2016
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : edgecrusher:2  (local to host edgecrusher)
           UUID : 706455be:edab267d:3a319fac:d2bb0b18
         Events : 15546376

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       19        1      active sync   /dev/sdb3
       2       0        0        2      removed
       3       8       51        3      active sync   /dev/sdd3

Lien vers le commentaire
Partager sur d’autres sites

Ah les 3To, quelle misère ces disques !

Je ne vois pas ce que vous souhaitez faire. Quand un disque est HS, il n'y a rien à faire d'autre que de le remplacer.

Dans votre cas, il est clair que le disque 3 a été éjecté du RAID. Il est probablement HS. Le sortir du NAS et le tester sur un PC avec Seatools. De toute manière on vous demandera ces tests avant d'accepter un retour.

Lien vers le commentaire
Partager sur d’autres sites

Salut,

le disque #3 je gère, il est 'removed' pour une bonne raison je l'ai retiré il y a une semaine car HS :(

Le soucis est que le disque #4 m'a fait un caprice hier soir.

Storage Manager le marque en statut 'crashed' pourtant je le vois via fdisk avec les partitions et le statut du RAID5 est clean, degraded via mdadm.

Je cherche à comprendre cette incohérence d'information entre Storage Manager et ce que je constate en tant que sysadmin en ligne de commande.

Bon, il ne fait pas de doute que le disque #4 est en train de mourrir aussi...

Lien vers le commentaire
Partager sur d’autres sites

Ah OK, je comprends mieux. L'affichage est étrange en effet, quoique si le disque est dégradé, c'est qu'il a un pb qui est sans doute mal retranscrit par l'interface. A mon avis c'est un bug et seuls Syno peuvent résoudre ça.

Néanmoins, si le disque 4 est dégradé, ça risque d'être chaud lors de la reconstruction du RAID avec le 3. A mon avis, il est urgent de mettre à jour les sauvegardes avant de faire une reconstruction tout aussi urgente pour pouvoir ensuite remplacer le disque 4 avant qu'il ne rende l'âme.

Lien vers le commentaire
Partager sur d’autres sites

Le statut clean, degraded me laisse de l'espoir. :)

Le nouveau disque #3 défectueux au déballage repart enfin ce matin en SAV et nouveau disque #4 commandé à l'instant chez un autre commerçant.

NAS éteint évidemment en attendant au moins un nouveau disque.

J'ai contacté le support Synology mais je pense que je suis bon pour une reconstruction en ligne de commande (pas difficile mais DSM est un tellement bon clicodrome).

 

Lien vers le commentaire
Partager sur d’autres sites

Lien vers le commentaire
Partager sur d’autres sites

Pas de tutoriel car je n'ai pas eu à mettre en pratique ce dont je parlais juste avant.

J'ai ajouté à froid le nouveau disque #3 (emplacement vide depuis des semaines) et j'ai constaté que le disque #4 n'était plus en erreur, donc que le volume était à nouveau réparable "normalement" via l'interface.

Première reconstruction KO car le disque #4 a refait des siennes. Donc je n'hésite pas à passer le NAS en mode service minimal (aucun service inutile lancé) et refaire une reconstruction.

15 heures de reconstruction RAID, 1h30 de fsck plus tard pour un volume de plus de 8To (pour ceux qui ont un DS413 avec du seagate 3To cela fera une stat) changement du disque #4 qui fatiguait.

Retour à la normale.

J'ai eu du cul que le disque #4 ne passe pas HS complet quand même.

 

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.