Aller au contenu

Passer De Raid1 3 Disques


ganjo

Messages recommandés

Bonjour

j'ai un ds411 avec 3 disques en raid 1

j'ai racheté un disque en pessant passer en raid5+spare, néanmoins sur le syno cette opération semble impossible (erreur: "System failed to add spare disk") en cherchant dans la doc de mdadm, il semble en effet que le passage ne se fasse que de 2 hd en raid 1 vers du raid5).

J'ai du coup essayé de retirer un disque, mais à ce moment ma grappe est considérée comme dégradée et je ne peux que la réparer. (et en faisant une connerie je me suis retrouvé avec une grappe de 4 disques en raid1...)

Bref, d'où ma question:

lorsqu'un volume est en raid1 dégradé, peut on forcer le système à le considérer comme propre (même en passant par mdadm en cli), ou éxiste t'il un moyen de migrer d'une grappe de 4 disques en raid 1 vers du raid5+spare ?

Lien vers le commentaire
Partager sur d’autres sites

Le NAS le fait pour la partition système qui est en RAID1 sur tout les disques (s'appelle mirroir mais on peut faire le mirroir sur autant de disque que l'on veut) par contre je ne sais pas si c'est possible pour les volumes j'aurais tendance à dire que oui

Sinon pour répondre à la question posé je ferais comme suit

- formater le nouveau disque en basic

-copier les données du RAID1 vers le nouveau disque

- casser le RAID1

- passer le nouveau disque en RAID 1 puis 5 (ou en SHR directement)

Lien vers le commentaire
Partager sur d’autres sites

Le NAS le fait pour la partition système qui est en RAID1 sur tout les disques (s'appelle mirroir mais on peut faire le mirroir sur autant de disque que l'on veut) par contre je ne sais pas si c'est possible pour les volumes j'aurais tendance à dire que oui

Ah oui en effet, je viens de m'apercevoir que cette configuration est acceptée par le "Comparateur de RAID" en ligne (http://www.synology.fr/support/RAID_calculator.php?lang=fre)
Lien vers le commentaire
Partager sur d’autres sites

J'ai essayé de reproduire ta config sur une machine virtuelle et je suis parvenu au résultat demandé:

Etat initial: (RAID 1 sur 3 disques):

PBX9sIB.png

La configuration des disques est celle-ci:

YAXvMGJ.png

Ensuite j'ai fait:

BNmvmS3.png

puis:

DSeOpnA.png

9O3uREM.png

iurO2M1.png

v9zUwlg.png

Résultat:

otWRBej.png

J'ai du coup essayé de retirer un disque, mais à ce moment ma grappe est considérée comme dégradée et je ne peux que la réparer. (et en faisant une connerie je me suis retrouvé avec une grappe de 4 disques en raid1...)

Par contre en partant de cette nouvelle config j'ai peur que ce soit plus compliqué

Lien vers le commentaire
Partager sur d’autres sites

Je me réponds

Pour reduire le nombre de disque dans du raid1, il faut supprimer les disques (je l'ai fait physiquement, mais ça doit marcher avec mdadm --remove), puis simplement, via la cli, taper

mdadm --grow -n2 /dev/md2

Pourquoi absolument faire la manip en ligne de commande ?

C'était bien la peine que je monte une machine virtuelle pour aider...

Lien vers le commentaire
Partager sur d’autres sites

Merci de tes réponses (et du temps que tu as du prendre pour faire tout ces essais)

En fait l'option apparaissait bien, mais n'a jamais fonctionné chez moi

Je viens de corriger ce problème, mais en fait ça ne fonctionne toujours pas, lorsque je tente de faire la migration j'ai l'erreur suivante dans les logs:

Feb 24 15:16:02 poolhandler.cgi: lvm_vg_deactivate.c:25 Failed to do '/sbin/vgchange -an /dev/vg1 > /dev/null 2>&1'
Feb 24 15:16:02 poolhandler.cgi: space_migrate_raid1_to_5.c:89 Failed to deactivate /dev/vg1
Feb 24 15:16:20 kernel: [  817.730000] nfsd: last server has exited, flushing export cache
Feb 24 15:16:21 kernel: [  817.750000] svc: failed to register lockdv1 RPC service (errno 97).
Feb 24 15:16:21 kernel: [  817.760000] NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
Feb 24 15:16:24 poolhandler.cgi: space_migrate.c:405 Failed to migrate '/dev/md2' from RAID 1 to RAID 5
Feb 24 15:16:24 poolhandler.cgi: space_lib.cpp:422 Failed to migrate space '/dev/vg1', migrateType: '8'
Feb 24 15:16:24 poolhandler.cgi: poolhandler.cpp:565 failed to migrate space: /dev/vg1
 

et

 /sbin/vgchange -an /dev/vg1
  Can't deactivate volume group "vg1" with 1 open logical volume(s)

:(



Pourquoi absolument faire la manip en ligne de commande ?

C'était bien la peine que je monte une machine virtuelle pour aider...

Oui excuse j'aurai du être plus précis

en fait la migration de raid1 vers 5+spare n'a jamais marché chez moi, j'avais mis (à tort) cela sur le fait qu'il avait besoin de créer dabord les 2 disques de spare. DSM ne me permetait plus de faire grand chose, et je pensai qu'il me fallait absolument revenir a un raid1 à 2 disque (ce que dsm ne permet pas), j'y suis donc aller à l'huile de coude... mais sans réel succès quant à mon problème principal

Lien vers le commentaire
Partager sur d’autres sites

Malheureusement, maintenant que tu as modifié la configuration du stockage sans passer par DSM, ce dernier ne doit plus trop savoir ou il en est (sa vision de l'état des volumes ne correspond pas forcément a la réalité)

A mon avis, ça ne va pas faciliter un rétablissement vers une situation normale.

Lien vers le commentaire
Partager sur d’autres sites

En tout cas le message d'erreur "Can't deactivate volume group "vg1" with 1 open logical volume(s)" indique que ta configuration s'appuie sur un groupe de volumes. Et pas directement sur les disques comme dans mon exemple précédent.

(Mais j'avais aussi effectué avec succès la manip avec ce genre de configuration)

Peut-être pourrais-tu nous montrer des screenshots de ce que voie le gestionnaire de volume dans l'interface DSM

Lien vers le commentaire
Partager sur d’autres sites

En tout cas le message d'erreur "Can't deactivate volume group "vg1" with 1 open logical volume(s)" indique que ta configuration s'appuie sur un groupe de volumes. Et pas directement sur les disques comme dans mon exemple précédent.

(Mais j'avais aussi effectué avec succès la manip avec ce genre de configuration)

Peut-être pourrais-tu nous montrer des screenshots de ce que voie le gestionnaire de volume dans l'interface DSM

En fait j'ai trouvé la solution (apparement quelqu'un d'autre avait déjà eu un problème semblable):

http://forum.synology.com/enu/viewtopic.php?f=39&t=61747

je suis assez étonné, il semble que dsm ne démonte pas correctement le volume. Je doute que cela soit un bug de dsm lui même, vu que j'aurai à ce moment là trouver bien plus d'info sur le net. J'ai bien installé optware et un module fuse "homemade", mais j'avais désactivé les 2 et je ne vois pas en quoi ça gène.

Enfin bon, le passage vers du raid5 est en train de ce faire, je vous dirai si tout c'est bien passé

Merci pour votre aide

Modifié par ganjo
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.