Aller au contenu

Volume Shr Sur 3 Disques En 2 Tailles Diff


Oooops!

Messages recommandés

Bonsoir,

ce sujet est en quelque sorte la suite des 3 sujets listés ci-dessous (par ordre chronologique de création), mais j'en ai fait lui aussi un topic à part pour faciliter la recherche à partir des noms des topics:

On commence avec les mêmes commandes que dans les topic précédents:

Syno411p2> df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/md0                  2.3G    435.0M      1.8G  19% /
/tmp                    496.1M      1.1M    494.9M   0% /tmp
/dev/vg2/volume_1         4.1T      3.2T    881.8G  79% /volume1

Pour mémoire, la config est détaillée dans ma signature.

Syno411p2> parted --list
Model: ATA ST31500341AS (scsi)
Disk /dev/hdb: 1500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system     Flags
 1      131kB   2550MB  2550MB  primary   ext4            raid
 2      2550MB  4698MB  2147MB  primary   linux-swap(v1)  raid
 3      4832MB  1500GB  1495GB  extended                  lba
 5      4840MB  1500GB  1495GB  logical                   raid


Model: WDC WD30EZRX-00MMMB0 (scsi)
Disk /dev/hdc: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 5      4840MB  1500GB  1495GB                        raid
 6      1500GB  3001GB  1500GB                        raid


Model: WDC WD30EZRX-00DC0B0 (scsi)
Disk /dev/hdd: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 5      4840MB  1500GB  1495GB                        raid
 6      1500GB  3001GB  1500GB                        raid


Model: ATA ST31500341AS (scsi)
Disk /dev/sdb: 1500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system     Flags
 1      131kB   2550MB  2550MB  primary   ext4            raid
 2      2550MB  4698MB  2147MB  primary   linux-swap(v1)  raid
 3      4832MB  1500GB  1495GB  extended                  lba
 5      4840MB  1500GB  1495GB  logical                   raid


Model: WDC WD30EZRX-00MMMB0 (scsi)
Disk /dev/sdc: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 5      4840MB  1500GB  1495GB                        raid
 6      1500GB  3001GB  1500GB                        raid


Model: WDC WD30EZRX-00DC0B0 (scsi)
Disk /dev/sdd: 3001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 5      4840MB  1500GB  1495GB                        raid
 6      1500GB  3001GB  1500GB                        raid


Model: Linux Software RAID Array (md)
Disk /dev/md0: 2550MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  2550MB  2550MB  ext4


Model: Linux Software RAID Array (md)
Disk /dev/md1: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system     Flags
 1      0.00B  2147MB  2147MB  linux-swap(v1)


Error: /dev/md2: unrecognised disk label
Model: Linux Software RAID Array (md)
Disk /dev/md2: 2991GB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Error: /dev/md3: unrecognised disk label
Model: Linux Software RAID Array (md)
Disk /dev/md3: 1500GB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Model: Synology Diskstation (scsi)
Disk /dev/synoboot: 128MB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      32.3kB  16.5MB  16.4MB  primary  ext2         boot
 2      16.5MB  115MB   98.7MB  primary  ext2

cette fois il va y avoir plus de choses à expliquer que dans les cas précédents (et probablement plus de commandes à passer ensuite), par exemple:

- pourquoi certaines choses notées en "Error"?

- est-ce simplement une coïncidence que la partition synoboot a la même taille que ce qui apparaît comme un espace non alloué quand on met des disques issus d'un Syno dans un PC et qu'on examise leur partitionnement?

- pourquoi la partition synobbot n'était-elle pas visible dans les autres cas (Raid0, Basic et JBOD)?

Lien vers le commentaire
Partager sur d’autres sites

Hello !! L'interpretation des resultats montrerait que ton Volume1 est compose de 2 volumes RAID distincts (md2 et md3)

1) Ces "Erreurs" n'en sont pas vraiment, cela veut juste dire que ce qu'il y a sur les volumes RAID md2 et md3 n'est pas interpretable (car utilises par LVM plutot que formates en ext4).

Remarque: le volume LVM n'a pas ete liste par la commande parted alors qu'il existe bel et bien d'apres la commande df -h (/dev/vg2/volume_1)

2) C'est probablement une coincidence que leur taille corresponde a l'espace non partitionne des disques, mais on ne sait jamais ...

3) Moi meme je possede le "disque" Synoboot sans etre en SHR, je pense qu'il correspond a la ROM du NAS pour les modeles qui en possedent une.

La suite :

mdadm --detail /dev/md2 /dev/md3

pvscan

[Edit]

Pour repondre a une possible interrogation :

Synology a l'air de preferer un partitionnement MS-DOS pour les disques jusqu'a 2To, et un partitionnement GPT pour les disques superieurs a 2To. Cela semble logique car le partitionnement MS-DOS est beaucoup plus "compatible" et est suffisant pour les disques de moins de 2TiB. Par contre le SHR a introduit une difference dans ce partitionnement par rapport aux configurations RAID: il y a maintenant une partition etendue. Encore une fois cela est logique car la configuration SHR est "prevue" pour devoir creer toujours plus de partitions sur les nouveaux disques de capacite superieure que l'on ajoute (Rappel: le partitionnement MSDOS ne supporte que 4 partitions; si l'on en veut plus il faut utiliser une partition etendue. Remarque: cette restriction ne s'applique plus sur le partitionnement GPT)

[Edit]

Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

Bonsoir,

merci pour ces précisions (surtout avec ton Edit, que j'ai vu après une lecture initiale), mais il y a une chose qui reste "bizarre" pour moi: tu écris "ce qu'il y a sur les volumes RAID md2 et md3 n'est pas interpretable (car utilises par LVM plutot que formates en ext4)", mais je croyais que les partitions des Syno étaient toujours formatées en EXT (3 avant, 4 maintenant)?

Ou alors c'est un type de formatage complètement différent de l'EXT4, ce qui expliquerait:

  • que la colonne "File system n'est pas renseignée pour les partitions de données?
  • les mentions "Error"?
  • le fait que ces partitions soient vues mais non reconnues/non lisibles si on met simplement le disque dans un ordi booté sous Linux ou sous Windows avec un utilitaire permettant d'accéder aux partitions Linux?

Bon, maintenant la suite des commandes.

Remarque: tu ne les avais pas mis dans ta commande mdam, mais comme j'ai regardé et que j'ai vu des choses que je n'ai pas comprises j'ai aussi intégré md0 et md1

Syno411p2> mdadm --detail /dev/md0 /dev/md1 /dev/md2 /dev/md3
/dev/md0:
        Version : 0.90
  Creation Time : Sat Jan  1 01:00:06 2000
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Apr  5 20:52:35 2014
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

           UUID : 0734e14a:8c717e3c:3017a5a8:c86610be
         Events : 0.21680

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/hdc1
       2       8       49        2      active sync   /dev/sdd1
       3       0        0        3      removed
/dev/md1:
        Version : 0.90
  Creation Time : Sat Jan  1 01:00:09 2000
     Raid Level : raid1
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sat Apr  5 20:52:25 2014
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

           UUID : 88ec07fc:2ca08767:3017a5a8:c86610be
         Events : 0.100

    Number   Major   Minor   RaidDevice State
       0       8       18        0      active sync   /dev/hdb2
       1       8       34        1      active sync   /dev/sdc2
       2       8       50        2      active sync   /dev/hdd2
       3       0        0        3      removed

Sauf erreur de ma part il s'agit des partitions system et swap, et ce sont les résultats suivants qui me surprennent:

Raid Devices : 4
Total Devices : 3

  • Ça veut dire que Linux "sait" que c'est un Syno à 4 baies, et que seules 3 sont utilisées?
  • Si c'est ça, comment le sait-il? au nombre de ports Sata gérés par le conrôleur intégré?
  • Si oui, comment fait-il avec une extension DX, où un seul port eSATA permet d'accéder en plus à 2 ou 5 disques?
    pour info, sur le DS209+II (2 disques montés) avec son DX213 (idem), soit 4 disques au total, il n'y a toujours que la valeur 2, pour Raid Devices comme pour Total Devices.

State : clean, degraded

  • Pourtant le Gestionnaire de stockage ne montre rien d'anormal; du moins pour le volume de données, or ici on n'est pas dans la partition de données?

/dev/md2:
        Version : 1.2
  Creation Time : Sun Oct  6 14:57:53 2013
     Raid Level : raid5
     Array Size : 2920807296 (2785.50 GiB 2990.91 GB)
  Used Dev Size : 1460403648 (1392.75 GiB 1495.45 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sat Apr  5 20:52:25 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : Syno411p2:2  (local to host Syno411p2)
           UUID : 11f4e9ec:0f71b7eb:8dc06e28:aa97a2a3
         Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       21        0      active sync   /dev/sdb5
       1       8       37        1      active sync   /dev/sdc5
       2       8       53        2      active sync   /dev/sdd5
/dev/md3:
        Version : 1.2
  Creation Time : Sun Oct  6 14:57:53 2013
     Raid Level : raid1
     Array Size : 1465110720 (1397.24 GiB 1500.27 GB)
  Used Dev Size : 1465110720 (1397.24 GiB 1500.27 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Sat Apr  5 20:52:25 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : Syno411p2:3  (local to host Syno411p2)
           UUID : 024d4b94:e33304e8:76fb2778:41fd71da
         Events : 5

    Number   Major   Minor   RaidDevice State
       0       8       38        0      active sync   /dev/sdc6
       1       8       54        1      active sync   /dev/sdd6

par contre, la commande pvscan ne semble pas reconnue?:

Syno411p2> pvscan
-ash: pvscan: not found


Complément à propos de la config matérielle: on voit que sda/hda ne sont pas renseignés car j'ai rempli le Syno à partir du bas (donc baies 4-3-2) pour que l'ajout ultérieur du 4 disque (baie 1, en haut) soit facile, même éventuellement à chaud).

Modifié par Oooops!
Lien vers le commentaire
Partager sur d’autres sites

Re,

Bonsoir,

merci pour ces précisions (surtout avec ton Edit, que j'ai vu après une lecture initiale), mais il y a une chose qui reste "bizarre" pour moi: tu écris "ce qu'il y a sur les volumes RAID md2 et md3 n'est pas interpretable (car utilises par LVM plutot que formates en ext4)", mais je croyais que les partitions des Syno étaient toujours formatées en EXT (3 avant, 4 maintenant)?

Ou alors c'est un type de formatage complètement différent de l'EXT4, ce qui expliquerait:

  • que la colonne "File system n'est pas renseignée pour les partitions de données?
  • les mentions "Error"?
  • le fait que ces partitions soient vues mais non reconnues/non lisibles si on met simplement le disque dans un ordi booté sous Linux ou sous Windows avec un utilitaire permettant d'accéder aux partitions Linux?

Dans les tests precedents les disques md correspondant aux volumes RAID etaient directement formates en ext4 alors que pour le SHR ces disques md sont utilises par LVM.

LVM a ses propres metadonnees en debut de "partition" et agence les blocks des disques qui le composent comme il en a envie pour creer ensuite un nouveau volume qui sera formate en ext4. Ce qu'il y a donc sur les disques md2 et md3 n'est plus interpretable aussi facilement.

  • Si la colonne FileSystem n'indique rien c'est que parted ne reconnait pas qu'il y a 2 couches logicielle cumulees (RAID + LVM). Pour un RAID seul il arrive a se depatouiller, pour un LVM seul aussi, mais le cumul des 2 ... oooops !!
  • La mention "Error" veut juste dire que parted ne reconnait pas ce qu'il y a sur les disques md (pas de table de partition comme sur un disque normal ni le debut d'un systeme de fichiers)
  • Le fait que ces disques ne soient plus aussi facilement reconnus vient du LVM qui n'est pas forcement integre par defaut aux LiveCDs
Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

Remarque: tu ne les avais pas mis dans ta commande mdam, mais comme j'ai regardé et que j'ai vu des choses que je n'ai pas comprises j'ai aussi intégré md0 et md1

Sauf erreur de ma part il s'agit des partitions system et swap, et ce sont les résultats suivants qui me surprennent:

Raid Devices : 4

Total Devices : 3

  • Ça veut dire que Linux "sait" que c'est un Syno à 4 baies, et que seules 3 sont utilisées?
  • Si c'est ça, comment le sait-il? au nombre de ports Sata gérés par le conrôleur intégré?
  • Si oui, comment fait-il avec une extension DX, où un seul port eSATA permet d'accéder en plus à 2 ou 5 disques?

    pour info, sur le DS209+II (2 disques montés) avec son DX213 (idem), soit 4 disques au total, il n'y a toujours que la valeur 2, pour Raid Devices comme pour Total Devices.

State : clean, degraded

  • Pourtant le Gestionnaire de stockage ne montre rien d'anormal; du moins pour le volume de données, or ici on n'est pas dans la partition de données?

  • As-tu un jour mis un disque de plus dans ce NAS ? Ca pourrait expliquer le fait que MD rapporte qu'il y avait 4 disques dans le RAID-1 alors que tu n'en as que trois.

Un truc qu'il faudrait verifier c'est si DSM se plaint quand une des copies du RAID-1 "systeme" (md0) disparait sans que le volume de donnees (md3) ne soit impacte; bon pour ca il faut un NAS avec 2 disques dont le contenu ne craigne rien ^^

  • Les disques du DX sont partitionnes de la meme maniere que les disques internes mais il ne sont pas inclus dans le RAID1 "systeme". Cela parait donc normal qu'il n'y ai que 2 copies "systeme" sur ton DS209.

  • Ici on ne parle effectivement pas dans la partition de donnees, le State: clean,degraded est pour les RAID-1 systeme et swap (qui ne sont pas affiches dans le gestionnaire de stockage de DSM)
Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

/dev/md2:
        Version : 1.2
  Creation Time : Sun Oct  6 14:57:53 2013
     Raid Level : raid5
     Array Size : 2920807296 (2785.50 GiB 2990.91 GB)
  Used Dev Size : 1460403648 (1392.75 GiB 1495.45 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sat Apr  5 20:52:25 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : Syno411p2:2  (local to host Syno411p2)
           UUID : 11f4e9ec:0f71b7eb:8dc06e28:aa97a2a3
         Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       21        0      active sync   /dev/sdb5
       1       8       37        1      active sync   /dev/sdc5
       2       8       53        2      active sync   /dev/sdd5
/dev/md3:
        Version : 1.2
  Creation Time : Sun Oct  6 14:57:53 2013
     Raid Level : raid1
     Array Size : 1465110720 (1397.24 GiB 1500.27 GB)
  Used Dev Size : 1465110720 (1397.24 GiB 1500.27 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Sat Apr  5 20:52:25 2014
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : Syno411p2:3  (local to host Syno411p2)
           UUID : 024d4b94:e33304e8:76fb2778:41fd71da
         Events : 5

    Number   Major   Minor   RaidDevice State
       0       8       38        0      active sync   /dev/sdc6
       1       8       54        1      active sync   /dev/sdd6

On voit que les donnees de ton volume SHR sont sur 2 RAIDs. Le premier RAID est de niveau 5 sur 3 disques durs, alors que le deuxieme RAID est de niveau 1 sur deux disques.

Il nous manque encore les informations sur la glue qui lie les deux RAIDs en un volume :

pvs -a
vgs -a
lvs -a

[Edit]

Complément à propos de la config matérielle: on voit que sda/hda ne sont pas renseignés car j'ai rempli le Syno à partir du bas (donc baies 4-3-2) pour que l'ajout ultérieur du 4 disque (baie 1, en haut) soit facile, même éventuellement à chaud).

Oula !! Pourquoi as-tu remarque cela ? Ca devient trop complique a expliquer, je vais tacher de faire simple :P

Les ports SATA d'un meme chipset seront toujours a la suite et dans le meme ordre au niveau des noms "sd". Mais si l'on a plusieurs controleurs SATA alors entre 2 boot les disques pourraient ne pas avoir le meme "sd" mais la "suite" par chipset serait respectee.

Par exemple si tu as 2 chipset SATA de deux ports chacuns sur ta carte mere et que lors d'un premier boot on a :

disque1 -> sda

disque2 -> sdb

disque3 -> sdc

disque4 -> sdd

Apres reboot on pourrait avoir :

disque1 -> sdc

disque2 -> sdd

disque3 -> sda

disque4 -> sdb

C'est pourquoi les partitions possedent maintenant des UUID (dont tu avais fait allusion dans un poste precedent), c'est pour pouvoir s'y retrouver ^^

[Edit]

Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

  • As-tu un jour mis un disque de plus dans ce NAS ? Ca pourrait expliquer le fait que MD rapporte qu'il y avait 4 disques dans le RAID-1 alors que tu n'en as que trois.

Je n'en suis plus certain, mais il est fort possible que à un momemntn au début, il y ait eu 4 disques dans le 411: je ne me souviens plus exactement si c'était avant ou après avoir installé DSM sur ses 3 disques "définififs" (ni si c'était avant ou voir créé le volume SHR), par contre je suis sûr d'avoir utilisé le DS411 pour péparer 2 disques en même temps avec le tuto de Frédo (écriture de zéros)

Un truc qu'il faudrait verifier c'est si DSM se plaint quand une des copies du RAID-1 "systeme" (md0) disparait sans que le volume de donnes (md3); bon pour ca il faut un NAS avec 2 disques dont le contenu ne craigne rien ^^

Donc ça je crois qu'on va oublier car j'ai pas envie (et pas le temps) de risquer des soucis sur mon NAS pricipal qui est en production...

  • Les disques du DX sont partitionnes de la meme maniere que les disques internes mais il ne sont pas inclus dans le RAID1 "systeme". Cela parait donc normal qu'il n'y ai que 2 copies "systeme" sur ton DS209.
  • Ici on ne parle effectivement pas dans la partition de donnees, le State: clean,degraded est pour les RAID-1 systeme et swap (qui ne sont pas affiches dans le gestionnaire de stockage de DSM)

Nous sommes bien d'accord sur ces principes, mais ce qui m'étonne c'est

- d'une part que l'état puisse être à la fois "clean" et "dégraded" (par exemple les partions de donneées, elles, sont seulement "clean")

- d'autre part que le statut soit "degraded" et que que DSM ne râle pas

Les commandes dans le message à suivre.

PS: ici j'ai utilisé de la couleur pour différencier mes réponses, mais sinon comment fait-on pour insérer des réponses/commentaires dans une citation mais qui entrecoupent la citation?

Lien vers le commentaire
Partager sur d’autres sites

Voici ce que donnent les commandes:

Syno411p2> pvs -a
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2   vg2  lvm2 a-   2.72T    0
  /dev/md3   vg2  lvm2 a-   1.36T    0

Syno411p2> vgs -a
  VG   #PV #LV #SN Attr   VSize VFree
  vg2    2   2   0 wz--n- 4.08T    0

Syno411p2> lvs -a
  LV                    VG   Attr   LSize  Origin Snap%  Move Log Copy%  Convert
  syno_vg_reserved_area vg2  -wi-a- 12.00M
  volume_1              vg2  -wi-ao  4.08T

Là pour moi ça devient du chinois :wacko:... sauf pour le fait que ces commandes-là reprennent les mauvaises habitudes, càd compter en Tio mais afficher en To :(.

Modifié par Oooops!
Lien vers le commentaire
Partager sur d’autres sites

Voici ce que donnent les commandes:

Syno411p2> pvs -a
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2   vg2  lvm2 a-   2.72T    0
  /dev/md3   vg2  lvm2 a-   1.36T    0

Syno411p2> vgs -a
  VG   #PV #LV #SN Attr   VSize VFree
  vg2    2   2   0 wz--n- 4.08T    0

Syno411p2> lvs -a
  LV                    VG   Attr   LSize  Origin Snap%  Move Log Copy%  Convert
  syno_vg_reserved_area vg2  -wi-a- 12.00M
  volume_1              vg2  -wi-ao  4.08T

Là pour moi ça devient du chinois :wacko:... sauf pour le fait que ces commandes-là reprennent les mauvaises habitudes, càd compter en Tio mais afficher en To :(.

Il faut comprendre un peu la nomenclature de LVM :

  • Le PV (PhysicalVolume) est un disque/partition "physique" gere par LVM
  • Le VG (VolumeGroup) est un regroupement de PV. Du point de vue de l'utilisateur on peut le considerer comme un "disque dur"
  • Le LV (LogicalVolume) est le "produit final" (forme a partir d'un VG) sur lequel on peu creer notre systeme de fichiers. Pour l'utilisateur ca serait un peu l'equivalent d'une partition.

La commande pvs -a indique que les "disques" md2 et md3 sont configures en tant que PV et affectes au VG de nom vg2 (ca se voit que tu as fait plusieurs essais de SHR sur ce Syno).

La commande vgs -a indique que le VG vg2 a 4To de capacite totale, dont rien n'est plus disponible (pour configurer de nouveaux LV)

La commande lvs -a indique qu'il y a deux LV configures sur vg2. Un LV de 12Mo et de nom syno_vg_reserved_area (a priori reserve par Syno pour une raison obscure), et un LV de 4To et de nom volume_1 (lui on devine plus facilement a quoi il sert).

Donc voila, pour resumer ton volume SHR de trois disques de tailles differentes est compose d'un RAID5 (sur les 3 disques) et d'un RAID1 (sur les 2 plus gros disques) assembles par un LVM.

La commande suivante si l'on veut pouvoir pousser les tests :

vgdisplay vg2

PS: J'ai edite mon message precedent pour repondre a une question.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

résultat de la commande:

Syno411p2> vgdisplay vg2
  --- Volume group ---
  VG Name               vg2
  System ID
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  4
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               1
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               4.08 TB
  PE Size               4.00 MB
  Total PE              1070779
  Alloc PE / Size       1070779 / 4.08 TB
  Free  PE / Size       0 / 0
  VG UUID               IBgr9m-6q8w-xx92-i015-Hce3-0hmC-w4Ynrz

Pour le PS: je ne sais pas quel chipset SATA équipe le DS411+II, donc si mon explication "simpliste" (baie 1 -> port n°1 -> sda, etc) s'applique ici; d'autant plus que là encore, il y a la question du port eSata, auquel on peut brancher un simple boîtier eSata ou une extension DX à 2 ou 5 disques...

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

On a pu voir sur ton DS209 que les disques internes etaient notes sda sdb et que ceux du DX etaient sdca sdcb . Cela voudrait dire que les disques du DX sont connectes au port SATA numer 3 (sdc) de la carte mere. Vu qu'il y a plusieurs disques qui sont "chaines" dans le DX, le systeme recommence une numerotation par dessus (a,b,...)

Sur un DS 4 slots avec un DX 5 slots sur le port eSATA1 et un disque eSATA sur le port eSATA2 ca donnerait :

sda sdb sdc sdd pour les disques internes, sdea sdeb sdec sded sdee pour les disques du DX, et sdf pour le disque eSATA.

[Edit]

Petites corrections

[Edit]

Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

Il serait intéressant de savoir comment les disques sont numérotés avec des unités d'extension connectées sur des NAS compatibles, par exemple un DX513 sur un DS713+ qui permet d'avoir une grappe de 7 disques. Est-ce qu'on peut avoir sdc, sdd, sde, sdf et sdg sur le 513, ou bien serait-ce sdca, sdcb, sdcc, sdcd et sdce ?

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

c'est sans garantie, mais d'après ce qu'on a constaté avec le DX213 (et ce que j'ai vu dedans, mais il est vrai que je n'ai pas cherché à l'autopsier en détail), je ne crois pas que le DX dispose d'un chipset amenant plus de ports SATA => il doit être tributaire d'un port interne du DS (accessible sur la prise eSata), je penche donc pour ta 2ème proposition sdca, sdcb, sdcc, sdcd et sdce.

Je pense aussi que ça revient moins cher de prévoir un seul port "en plus" dans le DS pour gérer l'extension, que 5 en plus pour un usage qui ne doit pas être très fréquent.

On peut aussi "raisonnablement" supposer que pour les DS à 2 prises eSATA chacune d'entre elles correspond à un port interne du DS (donc un 4ème port et sdda, sddb, sddc, sddd et sdde.

PS >> Fravadona: je crois qu'il y a une erreur dans ton message précédent: "un DS 5 slots avec un DX 4 slots" devrait être "un DS 4 slots avec un DX 5 slots".

[Edit]

tout compte fait, avec la possibilité d'extension de volume permise par les 713+ (et la différence de prix avec le plus performant des autres modèmes à 2 baies mais qui ne permettent pas cette extension), mes propos sont peut-être complètement faux :unsure:.

[Fin Edit]

Modifié par Oooops!
Lien vers le commentaire
Partager sur d’autres sites

PS >> Fravadona: je crois qu'il y a une erreur dans ton message précédent: "un DS 5 slots avec un DX 4 slots" devrait être "un DS 4 slots avec un DX 5 slots".

C'est corrige ^_^

[Edit]

tout compte fait, avec la possibilité d'extension de volume permise par les 713+ (et la différence de prix avec le plus performant des autres modèmes à 2 baies mais qui ne permettent pas cette extension), mes propos sont peut-être complètement faux :unsure:.

[Fin Edit]

Les DX ont un multiplieur de ports (chipset) qui multiplexe les liaisons SATA des disques en une seule.

Lien vers le commentaire
Partager sur d’autres sites

Concernant le SHR je me pose quelques questions sur son utilisation a long terme :

Si l'on considere ta configuration (SHR compose de 1 disque de 1.5 To + 2 disques de 3 To), il y a un RAID5 de 3x1.5 et un RAID1 de 2x1.5To. On peut envisager que le LVM va d'abord utiliser le RAID5 puis ensuite le RAID1 pour former le volume de donnees.

1) Supposons que tu ajoutes un disque 1.5To. Logiquement le RAID5 devrait etre etendu sur le nouveau disque, ce qui fait que le RAID5 aura plus de capacite qu'avant. Ou donc cet espace supplementaire sera place dans le volume de donnees ?

2) Supposons maintenant que tu changes ton disque de 1.5To par un 3 To. Que se passera-t-il avec les RAID ? Seront-ils fusionnes en un seul RAID5 ? Ca m'etonnerait ... Je dirais plutot que la seule "modification" sera la convertion du RAID1 en RAID5, donc ton nouveau SHR de 3x3To sera compose de 2 RAID5 (au lieu d'un seul RAID5 si tu avais cree le SHR avec 3 x 3To des le depard).

*** oui ok je vais essayer de faire des schemas, ca sera plus parlant ^^

PS: Autre interrogation: A quoi correspond le "volumes multiples sur RAID" sur un Syno ?

Modifié par Fravadona
Lien vers le commentaire
Partager sur d’autres sites

Si je comprends bien, le lettrage des disques dans l'unité d'extension suit la logique à 2 lettres, et ce quel que soit le type de volume qu'il contient : volume indépendant ou extension du volume interne du NAS.

C'est sans doute logique si le DX fait du multiplexage bien que j'ai du mal à comprendre comment ça peut s'organiser sur un RAID ou SHR étendu sur le DX.

Autre chose. En parcourant les commandes de bases de nos Syno, j'ai trouvé deux commandes intéressantes et que Fravadona doit sans doute connaître :

cat /proc/mdstat
cat /proc/diskstats
cat /proc/partitions

La première donne le type de raid et les disques qui le constitue (il serait intéressant de savoir justement sur le SHR ce qu'elle raconte), la deuxième et la troisième donnent des informations sur les partitions physiques et logiques.

Je ne sais pas si ça peut-être utile pour les tests que vous menez et notamment celui-ci, mais il me semble que ça renvoi des infos intéressantes.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

>> Fravadona:

1) Ta 1ère hypothèse n'est pas applicable, car Synology précise que dans un SHR, si on ajoute ou remplace(*) un disque, il doit forcément être au moins aussi grand que le plus grand des disques existants; donc dans mon cas je ne peux plus insérer de disque de taille inférieure à 3To.

(*) peut-être un bémol: je n'arrive pas à le retrouver, mais je crois me souvenir avoir vu passer un message il y a quelque temps mentionnant que dans le cas d'un remplacement on pouvait reprendre exactement la même taille; cçd ici que si mon 1,5To lâchait je pourrais le remplacer par son jumeau que j'ai en ma possession.

Mais ça, ça restera sans confirmation de ma part, car sur le 411 je n'ai pas envie ni le remps de faire ce genre de manip si je n'y suis pas contraint.

2) On attend tes schémas ;): à ce propos de représentation graphique, il y a aussi celles du tuto sur le site de Synology.

PS: sur le 411 ça n'est plus possible, mais si ça peut servir pour les volumes multiples je peux encore le faire sur le DX213; reste à savoir dans quelle configuration:

1 ou 2 disques? le(s)quel(s)? (pour mémoire je dispose de 2x1,5To et 1x80Mo) quel type de volume (Basic? Raid0? Raid1? SHR?)

>> Mic13710:

Syno411p2> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sdc6[0] sdd6[1]
      1465110720 blocks super 1.2 [2/2] [UU]

md2 : active raid5 sdb5[0] sdd5[2] sdc5[1]
      2920807296 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md1 : active raid1 sdb2[0] sdc2[1] sdd2[2]
      2097088 blocks [4/3] [UUU_]

md0 : active raid1 sdb1[0] sdc1[1] sdd1[2]
      2490176 blocks [4/3] [UUU_]

unused devices: <none>

je n'ai pas l'impression que ça donne plus de renseignement que la commande mdam dans mon message du 05 avril 2014 - 21:20 ?
Mais c'est vrai que la présentation synthétique est beaucoup plus facile à lire/comprendre.

Syno411p2> cat /proc/diskstats
   1       0 ram0 0 0 0 0 0 0 0 0 0 0 0
   1       1 ram1 0 0 0 0 0 0 0 0 0 0 0
   1       2 ram2 0 0 0 0 0 0 0 0 0 0 0
   1       3 ram3 0 0 0 0 0 0 0 0 0 0 0
   1       4 ram4 0 0 0 0 0 0 0 0 0 0 0
   1       5 ram5 0 0 0 0 0 0 0 0 0 0 0
   1       6 ram6 0 0 0 0 0 0 0 0 0 0 0
   1       7 ram7 0 0 0 0 0 0 0 0 0 0 0
   1       8 ram8 0 0 0 0 0 0 0 0 0 0 0
   1       9 ram9 0 0 0 0 0 0 0 0 0 0 0
   1      10 ram10 0 0 0 0 0 0 0 0 0 0 0
   1      11 ram11 0 0 0 0 0 0 0 0 0 0 0
   1      12 ram12 0 0 0 0 0 0 0 0 0 0 0
   1      13 ram13 0 0 0 0 0 0 0 0 0 0 0
   1      14 ram14 0 0 0 0 0 0 0 0 0 0 0
   1      15 ram15 0 0 0 0 0 0 0 0 0 0 0
   8      16 sdb 60088 16139 3293130 281783 31088 1935068 15711892 934678 0 254846 1219852
   8      17 sdb1 2374 1254 138864 29510 2798 2489 43640 30443 0 34731 59958
   8      18 sdb2 34427 1202 285032 42618 2218 161091 1323272 300016 0 18912 344983
   8      19 sdb3 2 0 16 6 0 0 0 0 0 6 6
   8      21 sdb5 23279 13663 2869010 209610 23040 1771488 14344972 602123 0 208628 812038
   8      32 sdc 66100 20054 4698964 372619 74748 2069484 59650792 31448088 0 576542 31821204
   8      33 sdc1 3031 1130 182470 29270 2788 2501 43640 26100 0 39180 55356
   8      34 sdc2 37177 1857 312272 38850 2919 160267 1323272 378465 0 17480 418689
   8      37 sdc5 23232 12901 2861014 214608 23618 1771232 14347260 756475 0 318898 969974
   8      38 sdc6 2640 4110 1342600 89795 45377 135484 43936612 30286766 0 319450 30376064
   8      48 sdd 91605 26526 6385397 283242 76834 2067175 59649579 16988338 0 502562 17272778
   8      49 sdd1 3702 2254 172250 25196 2782 2507 43640 19041 0 30754 44243
   8      50 sdd2 55991 1848 461144 30559 3440 159612 1323272 221734 0 14462 253717
   8      53 sdd5 23172 12879 2861172 158019 25110 1769621 14346052 579974 0 250310 737853
   8      54 sdd6 8657 9023 2890226 68956 45428 135433 43936612 16167417 0 262028 16236188
   9       0 md0 13842 0 493296 0 4434 0 36712 0 0 0 0
   9       1 md1 132213 0 1057704 0 165357 0 1322840 0 0 0 0
   9       2 md2 88356 0 8425618 0 243115 0 28624720 0 0 0 0
   9       3 md3 20558 0 4222800 0 180521 0 43935928 0 0 0 0
 253       0 dm-0 4 0 32 0 0 0 0 0 0 0 0
 253       1 dm-1 107346 0 12635874 849038 423632 0 72560648 166226461 0 614802 167076986
 135     240 synoboot 13 19 256 103 0 0 0 0 0 99 103
 135     241 synoboot1 4 0 32 3 0 0 0 0 0 3 3
 135     242 synoboot2 5 9 112 8 0 0 0 0 0 4 8
   7       0 loop0 0 0 0 0 0 0 0 0 0 0 0
   7       1 loop1 0 0 0 0 0 0 0 0 0 0 0
   7       2 loop2 0 0 0 0 0 0 0 0 0 0 0
   7       3 loop3 0 0 0 0 0 0 0 0 0 0 0
   7       4 loop4 0 0 0 0 0 0 0 0 0 0 0
   7       5 loop5 0 0 0 0 0 0 0 0 0 0 0
   7       6 loop6 0 0 0 0 0 0 0 0 0 0 0
   7       7 loop7 0 0 0 0 0 0 0 0 0 0 0

Remarque: sur les 3 disques on voit 4 partitions, pas avec les mêmes numéros: (sdb)1, 2, 3 et 5 sur le disque de 1,5To mais (sdc et sdd)1, 2, 5 et 6 sur les 2 disques de 3To.

Syno411p2> cat /proc/partitions
major minor  #blocks  name

   8       16 1465138584 sdb
   8       17    2490240 sdb1
   8       18    2097152 sdb2
   8       19          1 sdb3
   8       21 1460404864 sdb5
   8       32 2930266584 sdc
   8       33    2490240 sdc1
   8       34    2097152 sdc2
   8       37 1460404864 sdc5
   8       38 1465111904 sdc6
   8       48 2930265527 sdd
   8       49    2490240 sdd1
   8       50    2097152 sdd2
   8       53 1460404864 sdd5
   8       54 1465111904 sdd6
   9        0    2490176 md0
   9        1    2097088 md1
   9        2 2920807296 md2
   9        3 1465110720 md3
 253        0      12288 dm-0
 253        1 4385898496 dm-1
 135      240     125440 synoboot
 135      241      16033 synoboot1
 135      242      96390 synoboot2
Lien vers le commentaire
Partager sur d’autres sites

Merci d'avoir fait ces tests, bien que je ne sois pas plus en mesure que toi de l'interpréter dans le détail.

Le premier test résume bien la configuration raid1 - raid5 mise en évidence par le test que tu avais fait.

C'est effectivement bizarre cette dénomination des disques dans le second test. On les retrouve sur le troisième tableau.

Reste à savoir si Fravadona y trouvera un intérêt.

Lien vers le commentaire
Partager sur d’autres sites

Hello,

Le /proc/mdstat a un interet quand les RAIDs du systeme ne sont pas utilises (pas montes donc non listes par df -h). Cependant il donne un peu moins d'informations que mdadm.

@Oooops! On a le choix du niveau de RAID quand on cree des volumes multiples sur RAID ?

Il manque un test sur le SHR pour valider ma 2ie hypothese (vu que la premiere n'est pas possible) : si tu peux creer un SHR sur le DS209 avec le 80 et le 1.5To, puis remplacer le 80 par le 2ie de 1.5To pour etendre le SHR. Le but de la manip est de savoir si la partition de 80Go "restera" dans le Volume SHR "etendu" a 1.5To.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

oui, on a le choix du type de Raid quand on fait des volumes multiples, mais ça sera le même type pour tous ces volumes.

Sinon, je viens de créer un volume SHR dans le DX203:

Syno209p> df -h

Filesystem                Size      Used Available Use% Mounted on
/dev/md0                  2.3G    451.1M      1.8G  20% /
/tmp                    251.7M      1.2M    250.5M   0% /tmp
/dev/md2                  3.6T      3.2T    378.5G  90% /volume1
/dev/vg1000/lv           68.9G    179.8M     68.6G   0% /volume2


En ce qui concerne la commande parted, vu la place que ça prend et comme on avait déjà vu ça dans les autres topic, j'ai supprimé la majorité de ce qui concerne les 2 disques du DS (j'ai juste laissé le début -je pourrai remettre le reste si nécessaire, je conserve tout dans un fichier texte-) pour qu'on puisse se concentrer sur le DX:

Syno209p> parted --list

Model: ATA ST4000VN000-1H41 (scsi)
Disk /dev/hda: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      131kB   2550MB  2550MB  ext4                  raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)        raid
 3      4832MB  4001GB  3996GB                        raid

.../...

Model: ATA ST380013AS (scsi)
Disk /dev/sdca: .0GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system  Flags
 1      131kB   2550MB  2550MB  primary   ext4         raid
 2      2550MB  4698MB  2147MB  primary                raid
 3      4832MB  .0GB  75.2GB  extended               lba
 5      4840MB  .0GB  75.2GB  logical                raid


Model: ATA ST31500541AS (scsi)
Disk /dev/sdcb: 1500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system  Flags
 1      131kB   2550MB  2550MB  primary                raid
 2      2550MB  4698MB  2147MB  primary                raid
 3      4832MB  1500GB  1495GB  extended               lba
 5      4840MB  .0GB  75.2GB  logical                raid


Model: Linux Software RAID Array (md)
Disk /dev/md0: 2550MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  2550MB  2550MB  ext4


Model: Linux Software RAID Array (md)
Disk /dev/md1: 2147MB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system     Flags
 1      0.00B  2147MB  2147MB  linux-swap(v1)


Model: Linux Software RAID Array (md)
Disk /dev/md2: 3996GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End     Size    File system  Flags
 1      0.00B  3996GB  3996GB  ext4


Error: /dev/md3: unrecognised disk label
Model: Linux Software RAID Array (md)
Disk /dev/md3: 75.2GB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

Une remarque au passage: je ne sais pas si c'est lié à la taille différente des 2 disques (je ne crois pas), mais la comparaison de se qui se passe dans le DS et le DX montre bien que quand on dit (comme on le lit souvent sur le forum) que "un SHR sur 2 disques c'est comme un Raid1", c'est trop réducteur: c'est vrai pour la capacité, mais pas sur le plan technique; et ça peut avoir des conséquences sur les manip faisables en cas de souci.

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.