ganjo Posté(e) le 23 février 2013 Partager Posté(e) le 23 février 2013 Bonjour j'ai un ds411 avec 3 disques en raid 1 j'ai racheté un disque en pessant passer en raid5+spare, néanmoins sur le syno cette opération semble impossible (erreur: "System failed to add spare disk") en cherchant dans la doc de mdadm, il semble en effet que le passage ne se fasse que de 2 hd en raid 1 vers du raid5). J'ai du coup essayé de retirer un disque, mais à ce moment ma grappe est considérée comme dégradée et je ne peux que la réparer. (et en faisant une connerie je me suis retrouvé avec une grappe de 4 disques en raid1...) Bref, d'où ma question: lorsqu'un volume est en raid1 dégradé, peut on forcer le système à le considérer comme propre (même en passant par mdadm en cli), ou éxiste t'il un moyen de migrer d'une grappe de 4 disques en raid 1 vers du raid5+spare ? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 (modifié) 3 disques en raid 1 Avec 3 disques ca m'étonnerait que ce soit du raid 1 (miroir) Modifié le 24 février 2013 par CoolRaoul 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Sp@r0 Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 Le NAS le fait pour la partition système qui est en RAID1 sur tout les disques (s'appelle mirroir mais on peut faire le mirroir sur autant de disque que l'on veut) par contre je ne sais pas si c'est possible pour les volumes j'aurais tendance à dire que oui Sinon pour répondre à la question posé je ferais comme suit - formater le nouveau disque en basic -copier les données du RAID1 vers le nouveau disque - casser le RAID1 - passer le nouveau disque en RAID 1 puis 5 (ou en SHR directement) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 Le NAS le fait pour la partition système qui est en RAID1 sur tout les disques (s'appelle mirroir mais on peut faire le mirroir sur autant de disque que l'on veut) par contre je ne sais pas si c'est possible pour les volumes j'aurais tendance à dire que ouiAh oui en effet, je viens de m'apercevoir que cette configuration est acceptée par le "Comparateur de RAID" en ligne (http://www.synology.fr/support/RAID_calculator.php?lang=fre) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 J'ai essayé de reproduire ta config sur une machine virtuelle et je suis parvenu au résultat demandé: Etat initial: (RAID 1 sur 3 disques): La configuration des disques est celle-ci: Ensuite j'ai fait: puis: Résultat: J'ai du coup essayé de retirer un disque, mais à ce moment ma grappe est considérée comme dégradée et je ne peux que la réparer. (et en faisant une connerie je me suis retrouvé avec une grappe de 4 disques en raid1...) Par contre en partant de cette nouvelle config j'ai peur que ce soit plus compliqué 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 (modifié) J'ai créé une config RAID 1 à 4 disques, et "gérer -> modifier le type de raid" me propose bien le choix "Raid 5 + spare": Modifié le 24 février 2013 par CoolRaoul 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
ganjo Posté(e) le 24 février 2013 Auteur Partager Posté(e) le 24 février 2013 Je me réponds Pour reduire le nombre de disque dans du raid1, il faut supprimer les disques (je l'ai fait physiquement, mais ça doit marcher avec mdadm --remove), puis simplement, via la cli, taper mdadm --grow -n2 /dev/md2 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 Je me réponds Pour reduire le nombre de disque dans du raid1, il faut supprimer les disques (je l'ai fait physiquement, mais ça doit marcher avec mdadm --remove), puis simplement, via la cli, taper mdadm --grow -n2 /dev/md2 Pourquoi absolument faire la manip en ligne de commande ? C'était bien la peine que je monte une machine virtuelle pour aider... 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
ganjo Posté(e) le 24 février 2013 Auteur Partager Posté(e) le 24 février 2013 Merci de tes réponses (et du temps que tu as du prendre pour faire tout ces essais) En fait l'option apparaissait bien, mais n'a jamais fonctionné chez moi Je viens de corriger ce problème, mais en fait ça ne fonctionne toujours pas, lorsque je tente de faire la migration j'ai l'erreur suivante dans les logs: Feb 24 15:16:02 poolhandler.cgi: lvm_vg_deactivate.c:25 Failed to do '/sbin/vgchange -an /dev/vg1 > /dev/null 2>&1' Feb 24 15:16:02 poolhandler.cgi: space_migrate_raid1_to_5.c:89 Failed to deactivate /dev/vg1 Feb 24 15:16:20 kernel: [ 817.730000] nfsd: last server has exited, flushing export cache Feb 24 15:16:21 kernel: [ 817.750000] svc: failed to register lockdv1 RPC service (errno 97). Feb 24 15:16:21 kernel: [ 817.760000] NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory Feb 24 15:16:24 poolhandler.cgi: space_migrate.c:405 Failed to migrate '/dev/md2' from RAID 1 to RAID 5 Feb 24 15:16:24 poolhandler.cgi: space_lib.cpp:422 Failed to migrate space '/dev/vg1', migrateType: '8' Feb 24 15:16:24 poolhandler.cgi: poolhandler.cpp:565 failed to migrate space: /dev/vg1 et /sbin/vgchange -an /dev/vg1 Can't deactivate volume group "vg1" with 1 open logical volume(s) Pourquoi absolument faire la manip en ligne de commande ? C'était bien la peine que je monte une machine virtuelle pour aider... Oui excuse j'aurai du être plus précis en fait la migration de raid1 vers 5+spare n'a jamais marché chez moi, j'avais mis (à tort) cela sur le fait qu'il avait besoin de créer dabord les 2 disques de spare. DSM ne me permetait plus de faire grand chose, et je pensai qu'il me fallait absolument revenir a un raid1 à 2 disque (ce que dsm ne permet pas), j'y suis donc aller à l'huile de coude... mais sans réel succès quant à mon problème principal 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 Malheureusement, maintenant que tu as modifié la configuration du stockage sans passer par DSM, ce dernier ne doit plus trop savoir ou il en est (sa vision de l'état des volumes ne correspond pas forcément a la réalité) A mon avis, ça ne va pas faciliter un rétablissement vers une situation normale. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
ganjo Posté(e) le 24 février 2013 Auteur Partager Posté(e) le 24 février 2013 Possible ceci dit en fouinant dans les log c'était déjà la situation lorsque j'avais mon volume à 3 disques en raid1... et dsm semble avoir repercuter le passage à 2 disque sans problème 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
CoolRaoul Posté(e) le 24 février 2013 Partager Posté(e) le 24 février 2013 En tout cas le message d'erreur "Can't deactivate volume group "vg1" with 1 open logical volume(s)" indique que ta configuration s'appuie sur un groupe de volumes. Et pas directement sur les disques comme dans mon exemple précédent. (Mais j'avais aussi effectué avec succès la manip avec ce genre de configuration) Peut-être pourrais-tu nous montrer des screenshots de ce que voie le gestionnaire de volume dans l'interface DSM 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
ganjo Posté(e) le 24 février 2013 Auteur Partager Posté(e) le 24 février 2013 (modifié) En tout cas le message d'erreur "Can't deactivate volume group "vg1" with 1 open logical volume(s)" indique que ta configuration s'appuie sur un groupe de volumes. Et pas directement sur les disques comme dans mon exemple précédent. (Mais j'avais aussi effectué avec succès la manip avec ce genre de configuration) Peut-être pourrais-tu nous montrer des screenshots de ce que voie le gestionnaire de volume dans l'interface DSM En fait j'ai trouvé la solution (apparement quelqu'un d'autre avait déjà eu un problème semblable): http://forum.synology.com/enu/viewtopic.php?f=39&t=61747 je suis assez étonné, il semble que dsm ne démonte pas correctement le volume. Je doute que cela soit un bug de dsm lui même, vu que j'aurai à ce moment là trouver bien plus d'info sur le net. J'ai bien installé optware et un module fuse "homemade", mais j'avais désactivé les 2 et je ne vois pas en quoi ça gène. Enfin bon, le passage vers du raid5 est en train de ce faire, je vous dirai si tout c'est bien passé Merci pour votre aide Modifié le 24 février 2013 par ganjo 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
ganjo Posté(e) le 1 mars 2013 Auteur Partager Posté(e) le 1 mars 2013 En l'occurence tout c'est bien passé 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.