Aller au contenu

Perte Des Donn


foxraph

Messages recommandés

Bonjour
J'ai un DS1010+, avec la dernière version du firmware.
J'avais le disque 3 en erreur et le volume en dégradé. J'ai voulu le débranché pour le rajouté sur mon DS1815+ (le disque n'avait aucune erreur smart, je l'ai testé y a une semaine)
Je voulais rajouté le disque 3 à mes 2 autres disques WD60EFRX sur mon DS1815+ pour avoir assez de place pour faire le transfert de données.
Suite à cette opération mon volume est complètement planté. Je ne peux plus rien faire
J'ai lancé cette commande en SSH sur mon nas:
cat /proc/mdstat
Voici le résultat:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md4 : active raid1 sde7[0]
976743808 blocks super 1.1 [2/1] [u_]
md3 : active raid5 sde6[7] sdb6[5] sda6[6]
3906975232 blocks super 1.1 level 5, 64k chunk, algorithm 2 [5/3] [u__UU]
md2 : active raid5 sdb5[6] sde5[9] sdd5[5] sda5[7]
7795122688 blocks super 1.1 level 5, 64k chunk, algorithm 2 [5/4] [uUU_U]
md1 : active raid1 sda2[0] sdb2[1] sdc2[4] sdd2[2] sde2[3]
2097088 blocks [5/5] [uUUUU]
md0 : active raid1 sda1[0] sdb1[1] sdc1[3] sdd1[2] sde1[4]
2490176 blocks [5/5] [uUUUU]
J'ai aussi lancé la commande mount:
/dev/root on / type ext3 (defaults)
/sys on /sys type sysfs (0)
none on /dev/pts type devpts (gid=4,mode=620)
/tmp on /tmp type tmpfs (0)
/run on /run type tmpfs (rw,nosuid,nodev,relatime,mode=755)
/dev/shm on /dev/shm type tmpfs (rw,nosuid,nodev,relatime)
/proc/bus/usb on /proc/bus/usb type usbfs (0)
securityfs on /sys/kernel/security type securityfs (0)
none on /proc/fs/nfsd type nfsd (0)
Forcement j'avais formaté le disque 3 avant de remarqué le problème.
Le support Synology m'informe qu'il n'y a plus rien a faire.
Je ne comprend pas, car j'ai souvent effectué cette opération....
Lien vers le commentaire
Partager sur d’autres sites

manque 2 disque dans md3 le disque 3 et le disque 4

qd on travaille avec du raid, on n'enleve pas un disque comme çà sans verifier que les autres sont bien dans le raid

bon, perdu pour perdu, on peut tenter de recuperer en forcant le montage du raid si le disque 4 fonctionne, mais je ne promet absolument rien

a toi de voir ce que tu veux ...

Modifié par Gaetan Cambier
Lien vers le commentaire
Partager sur d’autres sites

Pourtant j'avais accès à mes données avant.

Et j'ai toujours enlevé mes disques de cette manière depuis 4 années.

Mon volume était ok, sauf le disque 3

Le plus chiant c'est que ça arrive le jour ou j'ai le nouveau NAS.

Et comment je peux faire pour essayer ta manipulation?

Je n'ai plus rien a perdre de toute façon...

mes 4 disques sont en status ok et vert.

Sur mon nas

Lien vers le commentaire
Partager sur d’autres sites

Je l'avais oublié le root :)

DS1010> mdadm --stop /dev/md3
mdadm: stopped /dev/md3
DS1010> mdadm --assemble --force /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde
mdadm: no RAID superblock on /dev/sdd6
mdadm: /dev/sdd6 has no superblock - assembly aborted
Y a un problème !!!!
Lien vers le commentaire
Partager sur d’autres sites

Voici le résultat

sfdisk -l /dev/sdd
/dev/sdd1 256 4980735 4980480 fd
/dev/sdd2 4980736 9175039 4194304 fd
/dev/sdd5 9453280 3907015007 3897561728 fd
/dev/sdd6 3907031104 5860519007 1953487904 fd
/dev/sdd7 5860535104 7814023007 1953487904 fd
Lien vers le commentaire
Partager sur d’autres sites

bon, je sais pq :

il faut ajouter --raid-device=nombre de disque, mais j'hesite sur le nombre entre 5 et 4 mais je mettrai 5

mdadm --build --raid-device=5 /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde6 missing /dev/sdc6
Modifié par Gaetan Cambier
Lien vers le commentaire
Partager sur d’autres sites

bon, il aime pas le missing vu qu'il essaie de chargé un disque qu'on lui declare inexistant

mdadm --build --raid-device=4 /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde6

ou

mdadm --build --raid-device=5 /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde6

je sais pas entre les 2 lequel prendre, essaye les dans l'ordre et on verra

Lien vers le commentaire
Partager sur d’autres sites

DS1010> mdadm --build --raid-device=4 /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde6
mdadm: RUN_ARRAY failed: Invalid argument
et
DS1010> mdadm --build --raid-device=5 /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde6
mdadm: requested 5 devices in array but listed 4
Lien vers le commentaire
Partager sur d’autres sites

bon, je revient ;)

et en mode verbose, il dis quoi comme erreur ?

j'ai au passage modifier le metadata, par defaut c'est 1.2, comme ton raid est en 1.1, faut le preciser

mdadm -v --build --raid-device=4 --metadata=1.1  /dev/md3 /dev/sda6 /dev/sdb6 /dev/sdd6 /dev/sde6
Modifié par Gaetan Cambier
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.