Aller au contenu

Raid6Shr Crashed, Vol2 Cr


mildis

Messages recommandés

Bonjour,

Sur un RS2211RP+, le disque 1 est passé en erreur, sur un RAID6 SHR de 10 disques 3To.

J'ai pris un disque dans un autre RS2211RP+ en attente d'intégration.

Je n'y avais pas pensé mais même si le second RS duquel j'ai pris le disque n'a pas été branché chez nous, il n'en a pas moins déjà une configuration minimale.

Et donc le disque n'a pas été reconnu lors de son insertion pour remplacer le disque défaillant.

Y compris en cliquant sur le lien "Réparer le volume" accessible dans les recommandations du Gestionnaire de disques.

Un reboot du RS plus tard, le disque est bien vu en "non initialisé". Je lance son initialisation et le volume est en train de se reconstruire …

On pourrai penser que tout va bien sauf que le volume lvm est monté sous /volume2 au lieu de /volume1 mais toutes les références sont toujours sur /volume1 (/etc/exports et les vues graphiques dans l'interfaces web du DSM). A part la vue de gestion de volume qui me dit bien que ne nouveau volume en cours de reconstruction s'appelle "Volume 2".

Pour continuer à donner accès via NFS, j'ai modifié à la main /etc/exports et j'attends la fin de la reconstruction pour faire un reboot.

Question : si je modifie le /etc/fstab pour faire monter le lvm sur /volume1 à nouveau et que je fais un retour arrière sur /etc/exports, est-ce que je reviendrai à nouveau dans une conf OK ? (Note : toutes les données sont toujours là, mais montée au mauvaise endroit et avec une incohérence sur les chemins de l'IHM)

Merci,

1010

Note : au moins pour la prochaine fois, j'écraserai les premiers blocs à coup de dd, en espérant que ce soit suffisant.

Lien vers le commentaire
Partager sur d’autres sites

OK.

Update : le check est OK, le volume est consistent.

Par contre, si je modifie /etc/fstab pour le refaire monter sur /volume1, il n'en a rien à faire et continue de le monter sur /volume2

Donc j'ai modifié

- /etc/exports

- /etc/exports_map

- /usr/syno/etc/smb.conf

- /usr/syno/etc/smb;conf.cps

pour qu'ils utilisent tous /volume2.

Après un reboot, j'ai maintenant un affichage cohérent qui considère que mon seul et unique volume est "Volume 2".

Deux questions :

- pourquoi mes changements dans /etc/fstab sont écrasés au reboot ?

- si je mets à jour le DSM, dans quelle mesure il va me chier dans les doigts avec ces ajustements ?

Merci,

1010

Lien vers le commentaire
Partager sur d’autres sites

Je n'ai pas essayé le support Synology.

Je tenterai le /etc.defaults/fstab demain ou lundi.

Je suis tombé sur un post ou il était évoqué l'outil synospace.

Ca remonte bien que le volume s'appelle "/volume2" mais les commandes supposées modifier le nom d'un volume ne fonctionnent pas avec un lv et je n'ai pas envie de passer la commande sur tous les disques qui composent le raid.

Je suis sur un état stable : je vais laisser cela comme ça pour le moment, le temps de mettre en place un second 2211 pour la recopie. Au pire, une fois les données au chaud ailleurs, je tenterai une mise à jour du DSM voir si ça tient bien.

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.