Aller au contenu

Problème suite à changement de HDD


Messages recommandés

Bonjour à tous,

Je viens de remplacer mes disques durs dans mon NAS, non sans difficultés, et maintenant que les deux disques neufs sont installés j'ai un nouveau problème.

J'ai donc entrepris, hier, de remplacer mes deux disques WD RED 2 To pour deux raisons :

1- J'avais des erreurs d'E/S, des réidentifications de disque, bref ca sentait mauvais...

2- Je commençais à être à l'étroit: 75% rempli, rien qu'avec mes données perso. Si je veux enregistrer les flux de deux cameras en gardant 10 jours d'historique.... bein disque full

 

J'ai commandé mes deux HDD directement sur la boutique WD en ligne, et livré par UPS pour être sur que les disques ne valdinguent pas entre plusieurs stocks de plusieurs marchands et livré par la Poste à l'arrache...

Mes disques étaient ainsi bien protégés et emballés individuellements, bref : RAS.

J'ai donc enlevé le disque 1 pour commencer car c'est celui qui avait des soucis. J'ai mis mon disque neuf de 4To à la place, redémarré le NAS lancé la réparation, qui n'a pas pris, mais je ne l'ai su que le lendemain matin car j'avais éteint toutes les LED en façade. Gros délire, impossible d'accéder à l'interface du NAS j'arrivais sur la page mais avec un message d'erreur, rien à faire.

Je remets mon ancien HDD en numéro 1: je redémarre : pareil.  Je fais un bon gros reset, (appuis une fois sur reset 3 secondes jusqu'au bip + appui pour réinstaller DSM)

Et je recommence l'opération. Cette fois-ci ca prend ! 5 heures plus tard, j'enlève le vieux HDD numéro 2 et y place le neuf de 4To.

Réparation se termine 6 heures plus tard, car à la fin de la réparation vérification de parité.

Je récupère tout comme avant, parfait magique. MAIS je vois que pendant la copie sur le 2e HDD j'ai des problème d'E/S encore !! WTF

Enfin bon, je regarde les SMART des deux disques neufs : RAS.

Je fais un test SMART étendu, depuis ce midi, et les deux bloquent à 90%...

Tout à l'air en ordre, on me dit que tout est sain, les voyants sont au vert. (Etat de l'allocation : normal pour les 2 HDD - état de santé : sain pour les 2 HDD)

Je me rends compte que je suis resté sur la taille du volume précédent (2 To)

Alors je clique sur étendre et là....

"Echec de l'opération car des erreurs sont survenues au niveau du système de fichiers"  du coup le volume passe en avertissement juste après et me propose d'exécuter une vérification du système de fichier.

Je choisis "maintenant", le NAS reboot et tout repasse au vert et tout va bien dans le meilleur des mondes...mais mon volume est quand-même resté à 2To...

Ce qui fait que je tourne en rond. J'ai retenté un factory reset au cas où DSM serait en cause, mais pareil....

Je ne sais plus quoi faire. Car si je supprime le volume, je perds toutes les données. J'ai branché par curiosité un des deux anciens HDD (2 To) sur la prise USB du NAS (par le biais d'un dock SATA/USB)

Il est bien détecté mais les données ne sont pas exploitables en fait...

 

Si je peux rapatrier les données en USB de la sorte, à la rigueur pourquoi pas. 

Je veux bien repartir de 0, initialiser les deux HDD de 4 To, refaire mon volume etc  mais comment réinjecter les données d'un ancien HDD en USB ?

 

Désolé pour la tartine...

 

David.

 

Lien vers le commentaire
Partager sur d’autres sites

J'essaie de vérifier le NAS à l'aide de Fsck en SSH;

Est-ce que quelqu'un aurait la gentillesse de me donner les lignes de commande à jour pour effectuer un fsck s'il vous plait ?

Tout ce que j'ai pu trouver date de 2015 et ne fonctionne pas. 

Quand je tape "df" j'ai ceci :

 

login as: David
David@192.168.1.45's password:
David@NAS:~$ sudo -i
Password:
root@NAS:~# df
Filesystem      1K-blocks       Used Available Use% Mounted on
/dev/md0          2385528     816020   1450724  36% /
none               254104          0    254104   0% /dev
/tmp               255924        936    254988   1% /tmp
/run               255924       2396    253528   1% /run
/dev/shm           255924          4    255920   1% /dev/shm
none                    4          0         4   0% /sys/fs/cgroup
/dev/md2       1917983896 1441691344 476173768  76% /volume1
root@NAS:~#

 

Lien vers le commentaire
Partager sur d’autres sites

Bonjour DavFromRouen,

Il y a 14 heures, DavFromRouen a dit :

Je fais un test SMART étendu, depuis ce midi, et les deux bloquent à 90%...

Dans ce cas cela veux dire que les disques ont un probleme et qu'il faut les changer pas le choix. (RMA aupres de WD) . (dans le cas d'un RMA chez WD tu peux te faire livrée les disques avant de renvoyer les anciens donc pas besoin de faire des sauvegarde des données).

C'est le message qu'il te donne par la suite

Citation

"Echec de l'opération car des erreurs sont survenues au niveau du système de fichiers"

Tu as fait la sauvegarde de tes données comment

Lien vers le commentaire
Partager sur d’autres sites

Bonjour à toi.

J'ai relancé un SMART étendu cette nuit pour les deux HDD et c'est OK, j'ai du être trop pressé hier je pense...

De ce cote là c'est bon, disques en bonne santé.

Ensuite je n'ai pas fais de sauvegarde de données, j'ai fais comme expliqué plus haut.

J'ai éteint le NAS, enlevé le vieux HDD 1, mis le HDD neuf, redémarré et lancé la réparation.

Une fois terminé j'ai fais pareil pour le 2eme vieux HDD: Eteint le NAS, enlevé le vieux HDD 2, mis en place le HDD neuf, redémarré et lancé la réparation. 

Modifié par DavFromRouen
Lien vers le commentaire
Partager sur d’autres sites

Donc pour revenir a ton probleme tu as remplacer les deux disque de 2to par des 4to et ton groupe de stockage ou ton volume indique une capacité de 2to au final ?

Tu sais faire un capture de ton groupe de stockage et du gestionnaire de stockage et la poster ici ?

Lien vers le commentaire
Partager sur d’autres sites

à l’instant, firlin a dit :

Donc pour revenir a ton probleme tu as remplacer les deux disque de 2to par des 4to et ton groupe de stockage ou ton volume indique une capacité de 2to au final ?

Tu sais faire un capture de ton groupe de stockage et du gestionnaire de stockage et la poster ici ?

Oui c'est tout à fait ça. Sauf que je ne peux pas étendre ma capacité et profiter de mes 4To.

 

Image1.jpg

Image2.jpg

Image3.jpg

Image4.jpg

 

 

............ET si je fais étendre, voici les screenshots :

 

Image5.thumb.jpg.c18a5cf05dd8be3fe96286233f4fd2d8.jpg

 

Image6.thumb.jpg.8572bcaac3cfc8b4feb0423880e030bd.jpg

Image7.thumb.jpg.c9bae024c75e05b5465feb45365ee007.jpg

Lien vers le commentaire
Partager sur d’autres sites

Salut,

Pourrai tu publier les test smart détaillé des tes disques ?

Il ne faut pas se fier au résultat de dsm, que je trouve tres permissif sur l'etat des disques.

Lien vers le commentaire
Partager sur d’autres sites

Je pense à quelque chose, dites moi si c'est valable.

Je pensais enlever 1 disque (neuf, 4To) et le brancher sur un dock USB/SATA et faire un Fsck sur Linux Mint.

J'ai une clé USB bootable en live et des ordis, c'est pas ce qui manque ici 😁 

L'idée c'est faire passer mes deux HDD neufs la dessus. C'est valable ou bien ?  

Ou je risque de faire pire que mieux ?

Lien vers le commentaire
Partager sur d’autres sites

Salut,

Je te confirme que tes test smart sont tres bien. Si tu as des erreurs de connexion, il pourrai etre pas mal d'arreter le nas de sortir les disques de le dépoussiéré,  connecteur compris et de remmetre tout ceci en place.

Lien vers le commentaire
Partager sur d’autres sites

J'ai tout démonté, dépoussiéré il est comme au déballage du premier jour, de décembre 2017. 😁

Mais j'ai toujours mon soucis lorsque je veux étendre mon volume par contre. 

Que pensez vous de scanner les disques (soit avec Gparted soit avec Linux Mint) sur une autre machine comme proposé plus haut ?

 

Lien vers le commentaire
Partager sur d’autres sites

Merci bien, j'avais parcouru ce post dans mes recherches.

Le problème, c'est que je ne vois pas comment adapter mes lignes de commandes.

Comme je n'ai pas la même configuration et les mêmes chemins, et certaines commandes ne fonctionnent pas dans mon cas dès le départ (  vgs -a   lvs -a)

 

root@NAS:~# mdadm --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Sat Dec 16 20:53:30 2017
     Raid Level : raid1
     Array Size : 3902296384 (3721.52 GiB 3995.95 GB)
  Used Dev Size : 3902296384 (3721.52 GiB 3995.95 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Thu May 13 19:32:57 2021
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : NAS:2  (local to host NAS)
           UUID : adfb0bc8:13946f32:b5bd2799:a06df612
         Events : 1736

    Number   Major   Minor   RaidDevice State
       2       8        3        0      active sync   /dev/sda3
       3       8       19        1      active sync   /dev/sdb3
root@NAS:~# pvs -a
  PV         VG   Fmt Attr PSize PFree
  /dev/md2            ---     0     0
root@NAS:~# vgs -a
root@NAS:~# lvs -a
root@NAS:~#

 

 

Modifié par DavFromRouen
Lien vers le commentaire
Partager sur d’autres sites

Bon, j'ai bien un soucis, cela n'étonnera personne, dans le système de fichier.

Le problème c'est que j'ai réussi à faire un scan en lecture seule uniquement, car je n'arrive pas à démonter mon volume.

 

J'ai essayé en SSH et en TELNET, ce dernier m'a permis de faire le scan que SSH ne pouvait pas.

Voici le résultat du scan :

 

root@NAS:~# e2fsck -nvf -C 0 /dev/md2
e2fsck 1.42.6 (21-Sep-2012)
Warning!  /dev/md2 is mounted.
Warning: skipping journal recovery because doing a read-only filesystem check.
Pass 1: Checking inodes, blocks, and sizes
Inode 134837 has an invalid extent node (blk 686881, lblk 0)
Clear? no

Inode 134837, i_blocks is 4400, should be 0.  Fix? no

Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
/lost+found not found.  Create? no

Pass 4: Checking reference counts
Pass 5: Checking group summary information
Block bitmap differences:  -686881 -(874100--874101) -(165996351--165996363) -205553625 -(226516887--226516991) -(278498018--278498019) -278499327 -278501535 -(278503246--278503247) -(278503324--278503417) -(278503420--278503423) -(278508997--278508999) -(278515964--278515967) -(278516393--278516395) -(278516672--278516733) -(278559262--278559567) -(278559584--278559635)
Fix? no

Free blocks count wrong (142951619, counted=142951670).
Fix? no

Free inodes count wrong (121679223, counted=121679226).
Fix? no


1.42.6-15217: ********** WARNING: Filesystem still has errors **********


      119433 inodes used (0.10%, out of 121798656)
        2176 non-contiguous files (1.8%)
          85 non-contiguous directories (0.1%)
             # of inodes with ind/dind/tind blocks: 0/0/0
             Extent depth histogram: 118182/896/5
   344221517 blocks used (70.66%, out of 487173136)
           0 bad blocks
          30 large files

      106571 regular files
       12507 directories
           0 character device files
           0 block device files
           0 fifos
           0 links
         343 symbolic links (339 fast symbolic links)
           0 sockets
------------
      119421 files

 

 

Mais IMPOSSIBLE de démonter ce fichu volume 1 !!

Avez vous une astuce ?

 

J'ai essayé:

syno_poweroff_task -d ainsi que umount /volume1 ou encore umount /volume1 -f -k

Je suis dégagé du SSH et quand je me reconnecte, je vois que mon volume 1 est toujours monté....

Lien vers le commentaire
Partager sur d’autres sites

Alors, les deux commandes ont répondu ceci :

 

root@NAS:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid1 sda3[2] sdb3[3]
      3902296384 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
      2490176 blocks [2/2] [UU]

unused devices: <none>
root@NAS:~# parted --list
Model: WDC WD40EFZX-68AWUN0 (scsi)
Disk /dev/hda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: WDC WD40EFZX-68AWUN0 (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: WDC WD40EFZX-68AWUN0 (scsi)
Disk /dev/sdb: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid


Model: Linux Software RAID Array (md)
Disk /dev/md0: 2550MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  2550MB  2550MB  ext4


Model: Linux Software RAID Array (md)
Disk /dev/md1: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system     Flags
 1      0.00B  2147MB  2147MB  linux-swap(v1)


Model: Linux Software RAID Array (md)
Disk /dev/md2: 3996GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  3996GB  3996GB  ext4


Error: /dev/mtdblock0: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/mtdblock0: 983kB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Error: /dev/mtdblock1: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/mtdblock1: 2949kB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Error: /dev/mtdblock2: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/mtdblock2: 4260kB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Error: /dev/mtdblock3: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/mtdblock3: 65.5kB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Error: /dev/mtdblock4: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/mtdblock4: 65.5kB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Error: /dev/mtdblock5: unrecognised disk label
Model: Unknown (unknown)
Disk /dev/mtdblock5: 65.5kB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

root@NAS:~#

 

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.