lordtaki Posté(e) le 7 septembre 2016 Partager Posté(e) le 7 septembre 2016 Murphy oblige... En attendant de pouvoir renvoyer le disque dur neuf défectueux au déballage, laissant le RAID5 sur 3 pattes au lieu de 4, le disque 4 a fait des siennes ce soir et balance un statut "crashed". Arrêt, je te sors du NAS, je te remet dans le NAS histoire d'être certain du contact et on démarre. Le statut est toujours "crashed" pourtant je le liste bien avec les partitions avec fdisk -l et le statut du RAID5 me semble moins pire que prévu. J'ai contacté le support Synology mais je demande ici aussi au cas où. Existe-t-il un moyen de resetter/forcer ce statut "crashed" pour un disque dans Storage Manager? En attendant init 0 du NAS. Merci Disk /dev/sdd: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: B5207F74-8AF1-4FE0-9321-F8350EEC1F1B Device Start End Sectors Size Type /dev/sdd1 256 4980735 4980480 2.4G Linux RAID /dev/sdd2 4980736 9175039 4194304 2G Linux RAID /dev/sdd3 9437184 5860528064 5851090881 2.7T Linux RAID /dev/md2: Version : 1.2 Creation Time : Sat Mar 2 12:32:07 2013 Raid Level : raid5 Array Size : 8776632768 (8370.05 GiB 8987.27 GB) Used Dev Size : 2925544256 (2790.02 GiB 2995.76 GB) Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent Update Time : Wed Sep 7 21:38:58 2016 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K Name : edgecrusher:2 (local to host edgecrusher) UUID : 706455be:edab267d:3a319fac:d2bb0b18 Events : 15546376 Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sda3 1 8 19 1 active sync /dev/sdb3 2 0 0 2 removed 3 8 51 3 active sync /dev/sdd3 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mic13710 Posté(e) le 8 septembre 2016 Partager Posté(e) le 8 septembre 2016 Ah les 3To, quelle misère ces disques ! Je ne vois pas ce que vous souhaitez faire. Quand un disque est HS, il n'y a rien à faire d'autre que de le remplacer. Dans votre cas, il est clair que le disque 3 a été éjecté du RAID. Il est probablement HS. Le sortir du NAS et le tester sur un PC avec Seatools. De toute manière on vous demandera ces tests avant d'accepter un retour. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lordtaki Posté(e) le 8 septembre 2016 Auteur Partager Posté(e) le 8 septembre 2016 Salut, le disque #3 je gère, il est 'removed' pour une bonne raison je l'ai retiré il y a une semaine car HS :( Le soucis est que le disque #4 m'a fait un caprice hier soir. Storage Manager le marque en statut 'crashed' pourtant je le vois via fdisk avec les partitions et le statut du RAID5 est clean, degraded via mdadm. Je cherche à comprendre cette incohérence d'information entre Storage Manager et ce que je constate en tant que sysadmin en ligne de commande. Bon, il ne fait pas de doute que le disque #4 est en train de mourrir aussi... 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mic13710 Posté(e) le 8 septembre 2016 Partager Posté(e) le 8 septembre 2016 Ah OK, je comprends mieux. L'affichage est étrange en effet, quoique si le disque est dégradé, c'est qu'il a un pb qui est sans doute mal retranscrit par l'interface. A mon avis c'est un bug et seuls Syno peuvent résoudre ça. Néanmoins, si le disque 4 est dégradé, ça risque d'être chaud lors de la reconstruction du RAID avec le 3. A mon avis, il est urgent de mettre à jour les sauvegardes avant de faire une reconstruction tout aussi urgente pour pouvoir ensuite remplacer le disque 4 avant qu'il ne rende l'âme. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lordtaki Posté(e) le 8 septembre 2016 Auteur Partager Posté(e) le 8 septembre 2016 Le statut clean, degraded me laisse de l'espoir. :) Le nouveau disque #3 défectueux au déballage repart enfin ce matin en SAV et nouveau disque #4 commandé à l'instant chez un autre commerçant. NAS éteint évidemment en attendant au moins un nouveau disque. J'ai contacté le support Synology mais je pense que je suis bon pour une reconstruction en ligne de commande (pas difficile mais DSM est un tellement bon clicodrome). 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lordtaki Posté(e) le 12 septembre 2016 Auteur Partager Posté(e) le 12 septembre 2016 Réponse moyennement satisfaisante de la part du support Synology qui je pense n'a pas pris la peine de regarder les détails donnés. Pas grave je sais ce qu'il me reste à faire, je ferai pour le forum un tutoriel détaillé. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lordtaki Posté(e) le 13 septembre 2016 Auteur Partager Posté(e) le 13 septembre 2016 Un nouveau disque dur reçu, je m'y colle ce soir. En attendant 2 liens très utiles qui tombent pile dans ma situation. http://serverfault.com/questions/568166/how-to-recover-an-mdadm-array-on-synology-nas-with-drive-in-e-state https://www.dsebastien.net/2015/05/19/recovering-a-raid-array-in-e-state-on-a-synology-nas/ 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lordtaki Posté(e) le 16 septembre 2016 Auteur Partager Posté(e) le 16 septembre 2016 Pas de tutoriel car je n'ai pas eu à mettre en pratique ce dont je parlais juste avant. J'ai ajouté à froid le nouveau disque #3 (emplacement vide depuis des semaines) et j'ai constaté que le disque #4 n'était plus en erreur, donc que le volume était à nouveau réparable "normalement" via l'interface. Première reconstruction KO car le disque #4 a refait des siennes. Donc je n'hésite pas à passer le NAS en mode service minimal (aucun service inutile lancé) et refaire une reconstruction. 15 heures de reconstruction RAID, 1h30 de fsck plus tard pour un volume de plus de 8To (pour ceux qui ont un DS413 avec du seagate 3To cela fera une stat) changement du disque #4 qui fatiguait. Retour à la normale. J'ai eu du cul que le disque #4 ne passe pas HS complet quand même. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Mic13710 Posté(e) le 16 septembre 2016 Partager Posté(e) le 16 septembre 2016 Merci du retour. Oui, heureusement que le #4 a tenu le choc. Le coup est passé près. Vous avez repris un 3To ? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
lordtaki Posté(e) le 16 septembre 2016 Auteur Partager Posté(e) le 16 septembre 2016 Oui 3To. Histoire de rester iso dans les emmerdes :D 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.