Aller au contenu

katse19

Membres
  • Compteur de contenus

    7
  • Inscription

  • Dernière visite

Messages posté(e)s par katse19

  1. Dès l'ajout d'un nouveau disque et la création d'un volume, les raid devices au niveau de la partition root (/dev/md0) et swap (/dev/md1) repassent à 8.

    /dev/md1:
            Version : 0.90
      Creation Time : Sat Jan  1 02:00:07 2000
         Raid Level : raid1
         Array Size : 2097088 (2048.28 MiB 2147.42 MB)
      Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
       Raid Devices : 8
      Total Devices : 4
    
    

    Je n'ai pas encore supprimé le volume puis retirer le disque mais y'a de forte chance pour que le nombre de devices reste à 8 et que le volume soit "dégradé.

    Je vais donc ouvrir un ticket pour signaler le bug.

    Je vous tiens à jour.

  2. Merci d'avoir répondu aussi vite.

    Je n'ai pas la possibilité de réparer mon raid via le gestionnaire de stockage > volume.

    La partition raid5 (datas) est clean, intacte d'après les logs.

    J'ai néanmoins la possibilité de vérifier la cohérence de parité sur mon raid5 que j'ai lancé et qui devrait finir dans les 20 minutes.

    Par contre c'est les partitions /dev/md0 (système) et /dev/md1(swap) qui sont dégradés et je n'ai pas la possibilité de les réparer via le gestionnaire.

  3. Bonjour,

    Je me permets d'ouvrir ce topic concernant un point qui suscite mon attention.

    Je dispose d'un NAS 8baie avec un RAID 5 sur 3 disques (/dev/sd[abc]).

    Après avoir rajouter un disque sur le slot 8 pour des tests, j'ai crée un volume contenant uniquement ce disque. A la fin de me tests, j'ai décidé de supprimer le volume, et de retiré le disque physiquement du slot 8.

    Je m'aperçois des messages d'erreurs suivants :

    468595121.jpg

    Je sais bien que les disques sont découpés en 3 partitions : système, swap et datas.

    Les partitions systèmes et swap sont copiés sur tous les disques présent sur le syno (raid 1).

    Cependant, est-ce normal qu'après un retrait physique, je sois alerté d'un tel message et qu'il m'est impossible de lancer une "réparation via le gestionnaire".

    D'après le gestionnaire, j'ai un système "SAIN", tous le status sont normaux.

    Je suppose que le NAS peut continuer à tourner malgré les "dégradations" des partitions ROOT et SWAP (copiés sur tous les disques présents).

    Malgré tout, en vérifiant de plus près, je m'aperçois de ceci :

    - /dev/md0 (State : clean, degraded)

    1813+ : mdadm --detail /dev/md0
    /dev/md0:
            Version : 0.90
      Creation Time : Sat Jan  1 01:00:04 2000
         Raid Level : raid1
         Array Size : 2490176 (2.37 GiB 2.55 GB)
      Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
       Raid Devices : 8
      Total Devices : 3
    Preferred Minor : 0
        Persistence : Superblock is persistent
    
        Update Time : Mon Jun 23 16:16:26 2014
              State : clean, degraded
     Active Devices : 3
    Working Devices : 3
     Failed Devices : 0
      Spare Devices : 0
    
               UUID : ab886365:954b667f:3017a5a8:c86610be
             Events : 0.131283
    
        Number   Major   Minor   RaidDevice State
           0       8       17        0      active sync   /dev/sdb1
           1       8        1        1      active sync   /dev/hda1
           2       8       33        2      active sync   /dev/hdc1
           3       0        0        3      removed
           4       0        0        4      removed
           5       0        0        5      removed
           6       0        0        6      removed
           7       0        0        7      removed
    

    - /dev/md1 (State : clean, degraded)

    1813+ : mdadm --detail /dev/md1
    /dev/md1:
            Version : 0.90
      Creation Time : Sat Jan  1 01:00:07 2000
         Raid Level : raid1
         Array Size : 2097088 (2048.28 MiB 2147.42 MB)
      Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
       Raid Devices : 8
      Total Devices : 3
    Preferred Minor : 1
        Persistence : Superblock is persistent
    
        Update Time : Mon Jun 23 16:39:05 2014
              State : clean, degraded
     Active Devices : 3
    Working Devices : 3
     Failed Devices : 0
      Spare Devices : 0
    
               UUID : 8ab24b2e:3e4752ba:3017a5a8:c86610be
             Events : 0.177
    
        Number   Major   Minor   RaidDevice State
           0       8       18        0      active sync   /dev/hdb2
           1       8        2        1      active sync   /dev/sda2
           2       8       34        2      active sync   /dev/hdc2
           3       0        0        3      removed
           4       0        0        4      removed
           5       0        0        5      removed
           6       0        0        6      removed
           7       0        0        7      removed
    
    

    Comme vous pouvez le voir, on trouve la ligne "State : clean, degraded" pour /dev/md0 et /dev/md1.

    La partition raid 5 /dev/md2 est quant à elle clean.

    Ma question est la suivante :

    - Est-il possible de lancer une réparation, un resync, ou autre afin de faire disparaître ce "degraded" ?

    - Pensez-vous que cela ne pose pas de problèmes majeures au bon fonctionnement du SYNO ?

    - Dois-je laisser les choses telles quelles sont ? (il parait que le système effectue des tâches de réparations au redémarrage du NAS mais je ne vais pas redémarrer mon NAS avec mon raid 5 à chaque fois que je supprime un volume).

    Pour finir, j'aurais une dernière question : pourquoi sur mes RAID, j'ai des partitions en "/dev/sdX[0-9]" et d'autres en "/dev/hdX[0-9]".

    La nomenclature "hdX" n'est-elle pas pour les disques IDE et "sdX" pour les disques SATA ? (J'ai 3 WD RED).

    Ce qui m'étonne également, c'est que j'ai un "mix" des deux sur chaque partition /dev/mdX.

    Merci d'avance à ceux qui tenteront de m'éclaircir sur ces points.

    Voici un complément d'informations :

    1813+ : parted --list
    Model: WDC WD30EFRX-68AX9N0 (scsi)
    Disk /dev/hda: 3001GB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system     Name  Flags
     1      131kB   2550MB  2550MB  ext4                  raid
     2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
     3      4832MB  3001GB  2996GB                        raid
    
    
    Model: WDC WD30EFRX-68AX9N0 (scsi)
    Disk /dev/hdb: 3001GB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system     Name  Flags
     1      131kB   2550MB  2550MB  ext4                  raid
     2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
     3      4832MB  3001GB  2996GB                        raid
    
    
    Model: WDC WD30EFRX-68EUZN0 (scsi)
    Disk /dev/hdc: 3001GB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system     Name  Flags
     1      131kB   2550MB  2550MB  ext4                  raid
     2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
     3      4832MB  3001GB  2996GB                        raid
    
    
    Model: WDC WD30EFRX-68AX9N0 (scsi)
    Disk /dev/sda: 3001GB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system     Name  Flags
     1      131kB   2550MB  2550MB  ext4                  raid
     2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
     3      4832MB  3001GB  2996GB                        raid
    
    
    Model: WDC WD30EFRX-68AX9N0 (scsi)
    Disk /dev/sdb: 3001GB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system     Name  Flags
     1      131kB   2550MB  2550MB  ext4                  raid
     2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
     3      4832MB  3001GB  2996GB                        raid
    
    
    Model: WDC WD30EFRX-68EUZN0 (scsi)
    Disk /dev/sdc: 3001GB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system     Name  Flags
     1      131kB   2550MB  2550MB  ext4                  raid
     2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
     3      4832MB  3001GB  2996GB                        raid
    
    
    Model: Linux Software RAID Array (md)
    Disk /dev/md0: 2550MB
    Sector size (logical/physical): 512B/512B
    Partition Table: loop
    Disk Flags:
    
    Number  Start  End     Size    File system  Flags
     1      0.00B  2550MB  2550MB  ext4
    
    
    Model: Linux Software RAID Array (md)
    Disk /dev/md1: 2147MB
    Sector size (logical/physical): 512B/512B
    Partition Table: loop
    Disk Flags:
    
    Number  Start  End     Size    File system     Flags
     1      0.00B  2147MB  2147MB  linux-swap(v1)
    
    
    Error: /dev/zram0: unrecognised disk label
    Model: Unknown (unknown)
    Disk /dev/zram0: 628MB
    Sector size (logical/physical): 4096B/4096B
    Partition Table: unknown
    Disk Flags:
    
    Error: /dev/zram1: unrecognised disk label
    Model: Unknown (unknown)
    Disk /dev/zram1: 628MB
    Sector size (logical/physical): 4096B/4096B
    Partition Table: unknown
    Disk Flags:
    
    Model: Linux Software RAID Array (md)
    Disk /dev/md2: 5992GB
    Sector size (logical/physical): 512B/512B
    Partition Table: loop
    Disk Flags:
    
    Number  Start  End     Size    File system  Flags
     1      0.00B  5992GB  5992GB  ext4
    
    
    Model: Synology Diskstation (scsi)
    Disk /dev/synoboot: 126MB
    Sector size (logical/physical): 512B/512B
    Partition Table: gpt
    Disk Flags:
    
    Number  Start   End     Size    File system  Name        Flags
     1      32.3kB  16.5MB  16.4MB  fat16        EFI System  boot
     2      16.5MB  115MB   98.7MB  fat16        EFI System  boot
    
    
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.