emit57 Posté(e) le 17 août 2017 Partager Posté(e) le 17 août 2017 (modifié) Bonjour, J'ai un DS216+ avec 2 DD de 3 To chacun. Suite à un HardReset, DSM ne démarre plus ! Et surtout les données ne sont plus accessibles... J'arrive à me connecter en SSH sans avoir accès aux données, mais plus d'accès au DSM, NAS:5000 me retourne un message "Synology": Désolé, la page que vous recherchez est introuvable. Le synology assistant ne détecte plus le NAS, sauf si je retire les 2 disques ! J'ai testé les 2 disques (5 heures chacun) : OK J'ai testé le NAS (sans disque) il est bien détecté par le synology assistant. J'ai le sentiment qu'il y a un soucis sur le RAID. J'ai réussi a réparer md0 en suivant les infos de ce lien: ash-4.3# fdisk -l /dev/sda Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: 099E2C6F-94A6-492C-9920-5180851ECC52 Device Start End Sectors Size Type /dev/sda1 2048 4982527 4980480 2.4G Linux RAID /dev/sda2 4982528 9176831 4194304 2G Linux RAID /dev/sda5 9453280 5860326239 5850872960 2.7T Linux RAID ash-4.3# fdisk -l /dev/sdb Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: 64944229-90E8-457B-A97F-939C18C8F148 Device Start End Sectors Size Type /dev/sdb1 2048 4982527 4980480 2.4G Linux RAID /dev/sdb2 4982528 9176831 4194304 2G Linux RAID /dev/sdb5 9453280 5860326239 5850872960 2.7T Linux RAID ash-4.3# pvdisplay ash-4.3# vgdisplay ash-4.3# lvdisplay ash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md1 : active raid1 sda2[0] sdb2[1] 2097088 blocks [2/2] [UU] md0 : active raid1 sda1[0] 2490176 blocks [2/1] [U_] unused devices: <none> ash-4.3# mdadm --manage /dev/md0 --add /dev/sdb1 mdadm: added /dev/sdb1 ash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md1 : active raid1 sda2[0] sdb2[1] 2097088 blocks [2/2] [UU] md0 : active raid1 sdb1[2] sda1[0] 2490176 blocks [2/1] [U_] [=============>.......] recovery = 67.1% (1671616/2490176) finish=0.1min speed=128585K/sec unused devices: <none> ash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md1 : active raid1 sda2[0] sdb2[1] 2097088 blocks [2/2] [UU] md0 : active raid1 sdb1[1] sda1[0] 2490176 blocks [2/2] [UU] unused devices: <none> ash-4.3# reboot Mais il me manque toujours la "grosse" partition, j'ai tenté ceci: ash-4.3# mdadm --assemble /dev/md2 /dev/sda5 /dev/sdb5 mdadm: /dev/md2 has been started with 2 drives. ash-4.3# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid1 sda5[0] sdb5[1] 2925435456 blocks super 1.2 [2/2] [UU] md1 : active raid1 sda2[0] sdb2[1] 2097088 blocks [2/2] [UU] md0 : active raid1 sda1[0] sdb1[1] 2490176 blocks [2/2] [UU] unused devices: <none> qui ne retourne aucune erreur, mais lorsque je reboot, md2 n'est pas recréé ! Je dois dire que le fichier de config /etc/mdadm.conf n’existe pas ! voici une copie des erreurs que j'ai démarrage: 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 36.887979] Brand: Synology 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 36.891121] Model: DS-216+ 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 36.894161] This is default settings: set group disks wakeup number to 1, spinup time deno 1 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 36.932215] synobios: unload 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 37.037616] md: invalid raid superblock magic on sda5 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 37.043274] md: sda5 does not have a valid v0.90 superblock, not importing! 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 37.092908] md: invalid raid superblock magic on sdb5 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 37.098560] md: sdb5 does not have a valid v0.90 superblock, not importing! 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 37.122080] md: sda2 has different UUID to sda1 2017-08-17T11:34:24+02:00 Nas2 kernel: [ 37.130760] md: sdb2 has different UUID to sda1 J'ai bien évidement contacté le support Synology, mais après 15 jours d'échange, j'ai le sentiment de tourner en rond, il me demande à nouveau de rechercher le NAS avec Synology assistant en inversant les disques... EDIT: J'ai forcé le mount du disque en utilisant ces 2 sites: https://blog.sleeplessbeastie.eu/2012/05/08/how-to-mount-software-raid1-member-using-mdadm/ http://pissedoffadmins.com/os/mount-unknown-filesystem-type-lvm2_member.html et j'ai bien mes données. Comme vous pouvez vous en douter, un petit coup de pouce ne serait pas de refus. D'avance merci Gaétan Modifié le 17 août 2017 par emit57 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 17 août 2017 Partager Posté(e) le 17 août 2017 Tu aurai du tenter avec un seul disque (je parle au passé car là je pense que c'est trop tard) Essaye en mettant l'un des disques dans un PC sous linux et en suivant la doc de synology 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
emit57 Posté(e) le 5 septembre 2017 Auteur Partager Posté(e) le 5 septembre 2017 Bonjour, Juste pour info, Synology c'est connecté en SSH et si j'ai bien suivi ils ont remonté le volume RAID sur volume1 , puis j'ai eu une mise a jour vers DSM 6.1.3-15152 Update 3 et depuis tout re-fonctionne comme avant. Je me suis empresser de désinstaller le package Docker car j'ai le sentiment qu'il n'est pas innocent à cette petite frayeur. Gaétan 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 5 septembre 2017 Partager Posté(e) le 5 septembre 2017 Bonnes nouvelles ps : Docker ne casse pas les raid (je l'utilise au quotidien depuis 1 ou 2 ans sur 2 nas). 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
enrico777 Posté(e) le 29 avril 2018 Partager Posté(e) le 29 avril 2018 Bonjour, je lis ce sujet et il m'arrive exactement la même chose, et je soupçonne aussi DOCKER ! Docker est dessus depuis 6 mois et juste avant le crash, j'ai mis à jour une application (Jeedom) sous docker, la coïncidence est trop forte. Je croise les doigts que Synology va pouvoir remonte les deux volumes cassés ! J'ai du Synology depuis 4 ou 5 ans, c'est mon troisième troisième serveur. J'en étais très satisfait, mais là, je tombe de haut. Je vais d'office supprimer docker, et déplacer Jeedom sur un serveur dédicacé (ODROID C2), et laisser le Synology faire ce qu'il fait de mieux, un serveur de fichier et de surveillance par caméra. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
toutnickel Posté(e) le 16 juin 2018 Partager Posté(e) le 16 juin 2018 J'ai l'impression que je suis un peu dans le même cas, sauf que je n'ai pas installé DOCKER. j'ai un 1515+ avec 5 disques de 3 To dont 1 en hotspare donc 4 disques en activité j'ai voulu augmenté la taille du raid SHR en ajoutant 2 disques de 6 To, mais quand j'ai voulu remplacer le disque en Pos 4 de 3 To par un 6 To celui-ci n'as pas été reconnu j'ai donc essayé un 2eme disques de 6 To idem non reconnu J'ai voulu remettre l'ancien disque de 3 To et plus reconnu du tout et impossible de réparer Voir le post : Le support ne peut rien pour l'instant et le propose de casser le vol1 pour tout recréer. 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.