Aller au contenu

Raid SHR HS


emit57

Messages recommandés

Bonjour,

J'ai un DS216+ avec 2 DD de 3 To chacun.

Suite à un HardReset, DSM ne démarre plus ! Et surtout les données ne sont plus accessibles...
J'arrive à me connecter en SSH sans avoir accès aux données, mais plus d'accès au DSM, NAS:5000 me retourne un message "Synology": Désolé, la page que vous recherchez est introuvable.
Le synology assistant ne détecte plus le NAS, sauf si je retire les 2 disques !

J'ai testé les 2 disques (5 heures chacun) : OK

J'ai testé le NAS (sans disque) il est bien détecté par le synology assistant.

J'ai le sentiment qu'il y a un soucis sur le RAID.
J'ai réussi a réparer md0 en suivant les infos de ce lien: 

 

ash-4.3# fdisk -l /dev/sda
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 099E2C6F-94A6-492C-9920-5180851ECC52

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    4982527    4980480  2.4G Linux RAID
/dev/sda2  4982528    9176831    4194304    2G Linux RAID
/dev/sda5  9453280 5860326239 5850872960  2.7T Linux RAID
ash-4.3# fdisk -l /dev/sdb
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 64944229-90E8-457B-A97F-939C18C8F148

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    4982527    4980480  2.4G Linux RAID
/dev/sdb2  4982528    9176831    4194304    2G Linux RAID
/dev/sdb5  9453280 5860326239 5850872960  2.7T Linux RAID
ash-4.3# pvdisplay
ash-4.3# vgdisplay
ash-4.3# lvdisplay
ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sda1[0]
      2490176 blocks [2/1] [U_]

unused devices: <none>
ash-4.3# mdadm --manage /dev/md0 --add /dev/sdb1
mdadm: added /dev/sdb1
ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sdb1[2] sda1[0]
      2490176 blocks [2/1] [U_]
      [=============>.......]  recovery = 67.1% (1671616/2490176) finish=0.1min speed=128585K/sec

unused devices: <none>
ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sdb1[1] sda1[0]
      2490176 blocks [2/2] [UU]

unused devices: <none>
ash-4.3# reboot

Mais il me manque toujours la "grosse" partition, j'ai tenté ceci:

ash-4.3# mdadm --assemble /dev/md2 /dev/sda5 /dev/sdb5
mdadm: /dev/md2 has been started with 2 drives.
ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid1 sda5[0] sdb5[1]
      2925435456 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
      2490176 blocks [2/2] [UU]

unused devices: <none>

qui ne retourne aucune erreur, mais lorsque je reboot, md2 n'est pas recréé !

Je dois dire que le fichier de config /etc/mdadm.conf n’existe pas  !

voici une copie des erreurs que j'ai démarrage:

2017-08-17T11:34:24+02:00 Nas2 kernel: [   36.887979] Brand: Synology
2017-08-17T11:34:24+02:00 Nas2 kernel: [   36.891121] Model: DS-216+
2017-08-17T11:34:24+02:00 Nas2 kernel: [   36.894161] This is default settings: set group disks wakeup number to 1, spinup time deno 1
2017-08-17T11:34:24+02:00 Nas2 kernel: [   36.932215] synobios: unload
2017-08-17T11:34:24+02:00 Nas2 kernel: [   37.037616] md: invalid raid superblock magic on sda5
2017-08-17T11:34:24+02:00 Nas2 kernel: [   37.043274] md: sda5 does not have a valid v0.90 superblock, not importing!
2017-08-17T11:34:24+02:00 Nas2 kernel: [   37.092908] md: invalid raid superblock magic on sdb5
2017-08-17T11:34:24+02:00 Nas2 kernel: [   37.098560] md: sdb5 does not have a valid v0.90 superblock, not importing!
2017-08-17T11:34:24+02:00 Nas2 kernel: [   37.122080] md: sda2 has different UUID to sda1
2017-08-17T11:34:24+02:00 Nas2 kernel: [   37.130760] md: sdb2 has different UUID to sda1

 

J'ai bien évidement contacté le support Synology, mais après 15 jours d'échange, j'ai le sentiment de tourner en rond, il me demande à nouveau de rechercher le NAS avec Synology assistant en inversant les disques...

EDIT:
J'ai forcé le mount du disque en utilisant ces 2 sites:
  https://blog.sleeplessbeastie.eu/2012/05/08/how-to-mount-software-raid1-member-using-mdadm/
  http://pissedoffadmins.com/os/mount-unknown-filesystem-type-lvm2_member.html
et j'ai bien mes données.

 

Comme vous pouvez vous en douter, un petit coup de pouce ne serait pas de refus.

D'avance merci

Gaétan

 

Modifié par emit57
Lien vers le commentaire
Partager sur d’autres sites

  • 3 semaines après...

Bonjour,

 

Juste pour info,
Synology c'est connecté en SSH et si j'ai bien suivi ils ont remonté le volume RAID sur volume1
, puis j'ai eu une mise a jour vers DSM 6.1.3-15152 Update 3
et depuis tout re-fonctionne comme avant.

Je me suis empresser de désinstaller le package Docker car j'ai le sentiment qu'il n'est pas innocent à cette petite frayeur.

Gaétan

Lien vers le commentaire
Partager sur d’autres sites

  • 7 mois après...

Bonjour, je lis ce sujet et il m'arrive exactement la même chose, et je soupçonne aussi DOCKER !

Docker est dessus depuis 6 mois et juste avant le crash, j'ai mis à jour une application (Jeedom) sous docker, la coïncidence est trop forte.

Je croise les doigts que Synology va pouvoir remonte les deux volumes  cassés !

J'ai du Synology depuis 4 ou  5 ans, c'est mon troisième troisième serveur. J'en étais très satisfait, mais là, je tombe de haut.

Je vais d'office supprimer docker, et déplacer Jeedom sur un serveur dédicacé (ODROID C2), et laisser le Synology faire ce qu'il fait de mieux, un serveur de fichier et de surveillance par caméra.

Lien vers le commentaire
Partager sur d’autres sites

  • 1 mois après...

J'ai l'impression que je suis un peu dans le même cas, sauf que je n'ai pas installé DOCKER.

j'ai un 1515+ avec 5 disques de 3 To dont 1 en hotspare

donc 4 disques en activité

j'ai voulu augmenté la taille du raid SHR en ajoutant 2 disques de 6 To, mais quand j'ai voulu remplacer le disque en Pos 4 de 3 To par un 6 To celui-ci n'as pas été reconnu

j'ai donc essayé un 2eme disques de 6 To idem non reconnu
J'ai voulu remettre l'ancien disque de 3 To et plus reconnu du tout et impossible de réparer
Voir le post : 

 

Le support ne peut rien pour l'instant et le propose de casser le vol1 pour tout recréer.

 

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.