Aller au contenu

katse19

Membres
  • Compteur de contenus

    7
  • Inscription

  • Dernière visite

Tout ce qui a été posté par katse19

  1. Et merde .. t'as bien fait ! Ca serait bien si quelqu'un pouvai essayer cette manipulation !
  2. buld77, si tu es en dernière version DSM, pourrais-tu essayer la manipulation que j'ai réalisé et voir si tu obtiens les mêmes messages ? - création d'un volume sur un HDD - suppression du volulme - retirer le HDD du Syno Merci
  3. Voici la réponse de synology concernant le problème : Please don't change our system design, the root / swap RAID will have such scenario and it is normal, you don't need to deal with such "problem". Il ne faut donc pas porter attention aux messages d'erreurs concernant la dégradation des partition root/swap.
  4. Dès l'ajout d'un nouveau disque et la création d'un volume, les raid devices au niveau de la partition root (/dev/md0) et swap (/dev/md1) repassent à 8. /dev/md1: Version : 0.90 Creation Time : Sat Jan 1 02:00:07 2000 Raid Level : raid1 Array Size : 2097088 (2048.28 MiB 2147.42 MB) Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB) Raid Devices : 8 Total Devices : 4 Je n'ai pas encore supprimé le volume puis retirer le disque mais y'a de forte chance pour que le nombre de devices reste à 8 et que le volume soit "dégradé. Je vais donc ouvrir un ticket pour signaler le bug. Je vous tiens à jour.
  5. Effectivement Fravadona, ça marche beaucoup mieux en passant le nombre de disques à 3, le statut passe à CLEAN de suite. Ce que je ne comprends pas, c'est que le système a automatiquement attribué le nombre de devices à 8 pour les partitions root et swap. Je n'ai jamais eu plus de 4 disques dans le syno.
  6. Merci d'avoir répondu aussi vite. Je n'ai pas la possibilité de réparer mon raid via le gestionnaire de stockage > volume. La partition raid5 (datas) est clean, intacte d'après les logs. J'ai néanmoins la possibilité de vérifier la cohérence de parité sur mon raid5 que j'ai lancé et qui devrait finir dans les 20 minutes. Par contre c'est les partitions /dev/md0 (système) et /dev/md1(swap) qui sont dégradés et je n'ai pas la possibilité de les réparer via le gestionnaire.
  7. Bonjour, Je me permets d'ouvrir ce topic concernant un point qui suscite mon attention. Je dispose d'un NAS 8baie avec un RAID 5 sur 3 disques (/dev/sd[abc]). Après avoir rajouter un disque sur le slot 8 pour des tests, j'ai crée un volume contenant uniquement ce disque. A la fin de me tests, j'ai décidé de supprimer le volume, et de retiré le disque physiquement du slot 8. Je m'aperçois des messages d'erreurs suivants : Je sais bien que les disques sont découpés en 3 partitions : système, swap et datas. Les partitions systèmes et swap sont copiés sur tous les disques présent sur le syno (raid 1). Cependant, est-ce normal qu'après un retrait physique, je sois alerté d'un tel message et qu'il m'est impossible de lancer une "réparation via le gestionnaire". D'après le gestionnaire, j'ai un système "SAIN", tous le status sont normaux. Je suppose que le NAS peut continuer à tourner malgré les "dégradations" des partitions ROOT et SWAP (copiés sur tous les disques présents). Malgré tout, en vérifiant de plus près, je m'aperçois de ceci : - /dev/md0 (State : clean, degraded) 1813+ : mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Sat Jan 1 01:00:04 2000 Raid Level : raid1 Array Size : 2490176 (2.37 GiB 2.55 GB) Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 8 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Mon Jun 23 16:16:26 2014 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 UUID : ab886365:954b667f:3017a5a8:c86610be Events : 0.131283 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 1 1 active sync /dev/hda1 2 8 33 2 active sync /dev/hdc1 3 0 0 3 removed 4 0 0 4 removed 5 0 0 5 removed 6 0 0 6 removed 7 0 0 7 removed - /dev/md1 (State : clean, degraded) 1813+ : mdadm --detail /dev/md1 /dev/md1: Version : 0.90 Creation Time : Sat Jan 1 01:00:07 2000 Raid Level : raid1 Array Size : 2097088 (2048.28 MiB 2147.42 MB) Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB) Raid Devices : 8 Total Devices : 3 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Mon Jun 23 16:39:05 2014 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 UUID : 8ab24b2e:3e4752ba:3017a5a8:c86610be Events : 0.177 Number Major Minor RaidDevice State 0 8 18 0 active sync /dev/hdb2 1 8 2 1 active sync /dev/sda2 2 8 34 2 active sync /dev/hdc2 3 0 0 3 removed 4 0 0 4 removed 5 0 0 5 removed 6 0 0 6 removed 7 0 0 7 removed Comme vous pouvez le voir, on trouve la ligne "State : clean, degraded" pour /dev/md0 et /dev/md1. La partition raid 5 /dev/md2 est quant à elle clean. Ma question est la suivante : - Est-il possible de lancer une réparation, un resync, ou autre afin de faire disparaître ce "degraded" ? - Pensez-vous que cela ne pose pas de problèmes majeures au bon fonctionnement du SYNO ? - Dois-je laisser les choses telles quelles sont ? (il parait que le système effectue des tâches de réparations au redémarrage du NAS mais je ne vais pas redémarrer mon NAS avec mon raid 5 à chaque fois que je supprime un volume). Pour finir, j'aurais une dernière question : pourquoi sur mes RAID, j'ai des partitions en "/dev/sdX[0-9]" et d'autres en "/dev/hdX[0-9]". La nomenclature "hdX" n'est-elle pas pour les disques IDE et "sdX" pour les disques SATA ? (J'ai 3 WD RED). Ce qui m'étonne également, c'est que j'ai un "mix" des deux sur chaque partition /dev/mdX. Merci d'avance à ceux qui tenteront de m'éclaircir sur ces points. Voici un complément d'informations : 1813+ : parted --list Model: WDC WD30EFRX-68AX9N0 (scsi) Disk /dev/hda: 3001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 3 4832MB 3001GB 2996GB raid Model: WDC WD30EFRX-68AX9N0 (scsi) Disk /dev/hdb: 3001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 3 4832MB 3001GB 2996GB raid Model: WDC WD30EFRX-68EUZN0 (scsi) Disk /dev/hdc: 3001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 3 4832MB 3001GB 2996GB raid Model: WDC WD30EFRX-68AX9N0 (scsi) Disk /dev/sda: 3001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 3 4832MB 3001GB 2996GB raid Model: WDC WD30EFRX-68AX9N0 (scsi) Disk /dev/sdb: 3001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 3 4832MB 3001GB 2996GB raid Model: WDC WD30EFRX-68EUZN0 (scsi) Disk /dev/sdc: 3001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 131kB 2550MB 2550MB ext4 raid 2 2550MB 4698MB 2147MB linux-swap(v1) raid 3 4832MB 3001GB 2996GB raid Model: Linux Software RAID Array (md) Disk /dev/md0: 2550MB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 2550MB 2550MB ext4 Model: Linux Software RAID Array (md) Disk /dev/md1: 2147MB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 2147MB 2147MB linux-swap(v1) Error: /dev/zram0: unrecognised disk label Model: Unknown (unknown) Disk /dev/zram0: 628MB Sector size (logical/physical): 4096B/4096B Partition Table: unknown Disk Flags: Error: /dev/zram1: unrecognised disk label Model: Unknown (unknown) Disk /dev/zram1: 628MB Sector size (logical/physical): 4096B/4096B Partition Table: unknown Disk Flags: Model: Linux Software RAID Array (md) Disk /dev/md2: 5992GB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 5992GB 5992GB ext4 Model: Synology Diskstation (scsi) Disk /dev/synoboot: 126MB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 32.3kB 16.5MB 16.4MB fat16 EFI System boot 2 16.5MB 115MB 98.7MB fat16 EFI System boot
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.