This site uses cookies! Learn More

Ce site utilise des cookies !

En continuant à utiliser ce site, vous vous engagez à nous permettre de stocker des cookies sur votre ordinateur.

 

Si nous utilisons des cookies et retenons des données anonymes, c’est pour nous aider à mieux gérer notre mesure d’audience, aider nos partenaires commerciaux à nous rémunérer et nos partenaires publicitaires à proposer des annonces qui vous correspondent.

 

Grâce à ces cookies, le forum est en mesure de savoir qui écrit un message et utile pour le système d'authentification.

 

En cliquant sur « J'accepte », vous acceptez l'utilisation par NAS-Forum de cookies publicitaires et de mesure d'audience fine.

Question Sur Le Raid 10


Messages recommandés

Bonjour,

j'ai depuis plus d'un an un ds411J avec 4 disques de 2To en RAID 10. Le probleme c'est qu'il m'est arrivé 2 fois d'avoir une alarme sur un de mes disques (alarme sonore et voyant orange) nécessitant un redemarrage et la reconstruction du volume (sans perte de données heureusement). Ayant mis les 4 mêmes disques pour faire ce raid 10, je me dis qu'il y a de forte chance pour qu'ils tombent tous en panne en même temps alors je voudrais changer 2 d'entre eux (un dans chaques raid 1) mais :

Comment est foutu le raid 10 sur le synology ?

Est ce HDD1 et HDD2 en riad 0 avec HDD3 et HDD4 ?

Merci de votre aide !

Modifié par Osteel
Lien à poster
Partager sur d’autres sites
  • 3 months later...

En fait c'est une documentation qui explique comment est fait le RAID 10 sous Linux, et donc sur le Syno. Avec cette comprehension et bcp de lignes de commandes tu aurais pu repondre a ta question, mais si tu ne connais rien de Linux alors laisses tomber, ce n'est pas a ta portee :-(

Le probleme c'est que je pense pas qu'il y ai d'autre moyen de determiner quels disques retirer...

Ps: MD est logiciel RAID de Linux

Lien à poster
Partager sur d’autres sites

Bonjour,

j'ai depuis plus d'un an un ds411J avec 4 disques de 2To en RAID 10. Le probleme c'est qu'il m'est arrivé 2 fois d'avoir une alarme sur un de mes disques (alarme sonore et voyant orange) nécessitant un redemarrage et la reconstruction du volume (sans perte de données heureusement). Ayant mis les 4 mêmes disques pour faire ce raid 10, je me dis qu'il y a de forte chance pour qu'ils tombent tous en panne en même temps alors je voudrais changer 2 d'entre eux (un dans chaques raid 1) mais :

Comment est foutu le raid 10 sur le synology ?

Est ce HDD1 et HDD2 en riad 0 avec HDD3 et HDD4 ?

Merci de votre aide !

Salut,

lors de l'alarme sur un disque, tu as une information sur l'emplacement physique du HDD qui est défaillant.

Lien à poster
Partager sur d’autres sites

Salut,

lors de l'alarme sur un disque, tu as une information sur l'emplacement physique du HDD qui est défaillant.

A priori ils veulent faire un changement "préventif" des disques d'une unité RAID 0 de leur RAID 10

Lien à poster
Partager sur d’autres sites

A priori ils veulent faire un changement "préventif" des disques d'une unité RAID 0 de leur RAID 10

exactement. Au moment où j'avais configuré le RAID 10, j'avais hésité à noter la configuration des grappes, et bien je regrette (je m'étais dis que je devrai avoir accès à une telle information plus tard ... :rolleyes:)

Lien à poster
Partager sur d’autres sites

Je pense que la seule prévention importante est d'approvisionner un ou deux disques "au cas ou".

Si j'ai bien compris le raid 10 est composé d'un raid 0 composé lui-même de deux raid 1 (dans le cas de quatre disques),

donc si un disque est défaillant, le DSM va le signaler en indiquant la baie dans lequel il est enfiché.

Il suffira de remplacer le disque et le raid 1 sera reconstruit.

Je ne crois pas au cas ou les deux disques d'un raid 1 tombent à la même minute (sur un NAS ondulé)

Modifié par pluton212+
Lien à poster
Partager sur d’autres sites

Je ne crois pas au cas ou les deux disques d'un raid 1 tombent à la même minute (sur un NAS ondulé)

Ca m'est deja arrive plusieurs fois sur des baies RAID en fonctionnement depuis plus de 5 ans. L'operation de reconstruction demande la lecture complete de tous les disques du volume RAID, ceci augmente les chances de panne sur les vieux disques.

J'avais trouve une statistique faite par Google sur des millions de leurs disques durs qui montrait des pics de panne en fonction du temps : a 3 mois, a 3 ans, puis c'est l'hecatombe a partir de 5 ans.

Donc je dirais que ce n'est pas une mauvaise idee de changer quelques disques d'un volume RAID, surtout s'il y a une peu de disques.

Lien à poster
Partager sur d’autres sites

Oui, bon, le raid en question à tout juste un an...

A moins que le Syno ne soit habité par un esprit malveillant nous sommes loin des stats ci-dessus...

La prudence c'est avoir au moins un disque en stock et surtout un onduleur pour ne pas faire de provocation.

Lien à poster
Partager sur d’autres sites

Bon, n'ayant pas de RAID 10 sous la main je vais essayer d'aider

Que retourne la commande suivante (par SSH en root) ?

mdadm --detail $(mount | grep /volume | cut -f 1 -d " ")

alors j'ai copier coller ta ligne de commande tel quel dans PuTTY et cela me retourne:

mdadm: /dev/mapper/vol1-origin does not appear to be an md device

Lien à poster
Partager sur d’autres sites

Ton RAID 10 semble géré par "device-mapper" plutot que par "md" , mais je me demande avec quoi sont configurees chacune des grappes RAID 0

Que retourne la commande suivante ?

mdadm --detail /dev/md1 /dev/md2 /dev/md3 /dev/md4 /dev/md5
Lien à poster
Partager sur d’autres sites

As-tu un SHR ou bien as-tu un RAID traditionnel ?

Hélas, je ne sais plus

Ton RAID 10 semble géré par "device-mapper" plutot que par "md" , mais je me demande avec quoi sont configurees chacune des grappes RAID 0

Que retourne la commande suivante ?

mdadm --detail /dev/md1 /dev/md2 /dev/md3 /dev/md4 /dev/md5

Voici le résultat:


        Version : 0.90
  Creation Time : Sat Jan  1 01:00:04 2000
     Raid Level : raid1
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sun Nov  3 22:10:48 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

           UUID : - (local to host NasBox)
         Events : 0.18

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/hda2
       1       8       34        1      active sync   /dev/sdc2
       2       8       18        2      active sync   /dev/sdb2
       3       8       50        3      active sync   /dev/hdd2
/dev/md2:
        Version : 1.2
  Creation Time : Sun Apr 14 20:48:31 2013
     Raid Level : raid10
     Array Size : 1944080512 (1854.02 GiB 1990.74 GB)
  Used Dev Size : 972040256 (927.01 GiB 995.37 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Nov  5 14:12:10 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 64K

           Name : NasBox:2  (local to host NasBox)
           UUID : -
         Events : 2

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/hda3
       1       8       35        1      active sync   /dev/hdc3
       2       8       19        2      active sync   /dev/sdb3
       3       8       51        3      active sync   /dev/sdd3
mdadm: md device /dev/md3 does not appear to be active.
mdadm: md device /dev/md4 does not appear to be active.
mdadm: md device /dev/md5 does not appear to be active.

Modifié par Hotage_Alpha
Lien à poster
Partager sur d’autres sites

Ouai j'ai exactement pareil : j'y comprend rien... :lol:


désolé pour ce déterrage mais j'ai exactement le même problème, l'auteur du sujet a-t-il trouvé une solution?

merci, grace a toi ce sujet va peut être avancer !


As-tu un SHR ou bien as-tu un RAID traditionnel ?

non je ne suis pas en SHR

Lien à poster
Partager sur d’autres sites

A priori ton RAID 10 correspond a /dev/md2 :

/dev/md2:
...
         Raid Level : raid10
...
         Layout : near=2
...
    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/hda3
       1       8       35        1      active sync   /dev/hdc3
       2       8       19        2      active sync   /dev/sdb3
       3       8       51        3      active sync   /dev/sdd3

Le "Layout" (ici "near=2") correspond a l'arrangement des disques dans le RAID 10

Mais je dois regarder la doc plus en detail pour pouvoir en dire plus :rolleyes:

D'apres plusieurs sources dont http://www.ilsistemista.net/index.php/linux-a-unix/35-linux-software-raid-10-layouts-performance-near-far-and-offset-benchmark-analysis.html?start=1 :

On devrait avoir "/dev/hda" en mirroir avec "/dev/hdc" , et "/dev/sdb" en mirroir avec "/dev/sdd"

Maintenant il reste a trouver la correspondance avec les slots physiques du NAS. Pour ca on peut utiliser les numeros de serie (et la gestion des disques sur DSM):

hdparm -I /dev/hda /dev/hdc /dev/sdb /dev/sdd | grep -e "/dev/" -e "Serial Number"

--------------------------------------------------------------------------------------------------------------------------------------------

Bon, c'est bien beau tout ca mais il faut tout de meme verifier... On preleve un morceau du debut de chaque disque :

dd if=/dev/hda3 of=/root/hda_1M bs=1M count=1
dd if=/dev/hdc3 of=/root/hdc_1M bs=1M count=1
dd if=/dev/sdb3 of=/root/sdb_1M bs=1M count=1
dd if=/dev/sdd3 of=/root/sdd_1M bs=1M count=1

puis on les compare :

diff -q /root/hda_1M /root/hdc_1M
diff -q /root/hda_1M /root/sdb_1M
diff -q /root/hda_1M /root/sdd_1M

La premiere commande "diff" ne devrait rien donner alors que les 2 suivantes devraient retouner "Files xxx and xxx differ"

Modifié par Fravadona
Lien à poster
Partager sur d’autres sites

A priori ton RAID 10 correspond a /dev/md2 :

Le "Layout" (ici "near=2") correspond a l'arrangement des disques dans le RAID 10

Mais je dois regarder la doc plus en detail pour pouvoir en dire plus :rolleyes:

D'apres plusieurs sources dont http://www.ilsistemista.net/index.php/linux-a-unix/35-linux-software-raid-10-layouts-performance-near-far-and-offset-benchmark-analysis.html?start=1 :

On devrait avoir "/dev/hda" en mirroir avec "/dev/hdc" , et "/dev/sdb" en mirroir avec "/dev/sdd"

Maintenant il reste a trouver la correspondance avec les slots physiques du NAS. Pour ca on peut utiliser les numeros de serie (et la gestion des disques sur DSM):

hdparm -I /dev/hda /dev/hdc /dev/sdb /dev/sdd | grep -e "/dev/" -e "Serial Number"

--------------------------------------------------------------------------------------------------------------------------------------------

Bon, c'est bien beau tout ca mais il faut tout de meme verifier... On preleve un morceau du debut de chaque disque :

dd if=/dev/hda3 of=/root/hda_1M bs=1M count=1
dd if=/dev/hdc3 of=/root/hdc_1M bs=1M count=1
dd if=/dev/sdb3 of=/root/sdb_1M bs=1M count=1
dd if=/dev/sdd3 of=/root/sdd_1M bs=1M count=1

puis on les compare :

diff -q /root/hda_1M /root/hdc_1M
diff -q /root/hda_1M /root/sdb_1M
diff -q /root/hda_1M /root/sdd_1M

La premiere commande "diff" ne devrait rien donner alors que les 2 suivantes devraient retouner "Files xxx and xxx differ"

Merci pour ton aide mais là je suis largué, j'essaye betement de rentrer les lignes de codes que tu m'a donné, voici le résultat, mais je pense qu'il y a quelque chose que je n'ai pas saisi:


NasBox> dd if=/dev/hda3 of=/root/hda_1M bs=1M count=1
1+0 records in
1+0 records out
NasBox> dd if=/dev/hdc3 of=/root/hdc_1M bs=1M count=1
1+0 records in
1+0 records out
NasBox> dd if=/dev/sdb3 of=/root/sdb_1M bs=1M count=1
1+0 records in
1+0 records out
NasBox> dd if=/dev/sdd3 of=/root/sdd_1M bs=1M count=1
1+0 records in
1+0 records out
NasBox> diff -q /root/hda_1M /root/hdc_1M
Files /root/hda_1M and /root/hdc_1M differ
NasBox> diff -q /root/hda_1M /root/sdb_1M
Files /root/hda_1M and /root/sdb_1M differ
NasBox> diff -q /root/hda_1M /root/sdd_1M
Files /root/hda_1M and /root/sdd_1M differ
NasBox>

et aussi :


NasBox> hdparm -I /dev/hda /dev/hdc /dev/sdb /dev/sdd | grep -e "/dev/" -e "Seri
al Number"
/dev/hda:
        Serial Number:      S2R8J9KCC03730
/dev/hdc:
        Serial Number:      S2R8J9DC906671
/dev/sdb:
        Serial Number:      S2R8J9KCC03732
/dev/sdd:
        Serial Number:      S2R8J9DC906694
NasBox>

Mais quel est la différence entre hd et sd ?

Lien à poster
Partager sur d’autres sites

Merci pour ton aide mais là je suis largué, j'essaye betement de rentrer les lignes de codes que tu m'a donné, voici le résultat, mais je pense qu'il y a quelque chose que je n'ai pas saisi:

NasBox> diff -q /root/hda_1M /root/hdc_1M
Files /root/hda_1M and /root/hdc_1M differ
NasBox> diff -q /root/hda_1M /root/sdb_1M
Files /root/hda_1M and /root/sdb_1M differ
NasBox> diff -q /root/hda_1M /root/sdd_1M
Files /root/hda_1M and /root/sdd_1M differ

Ca c'est une erreur de ma part, il y a un superblock ou le RAID stocke les metadata de la partion, ca se complique un peu :P

On va avoir besoin des resultats des commandes

fdisk -l /dev/hda

et

mdadm --examine /dev/hda3

==================================================================================

NasBox> hdparm -I /dev/hda /dev/hdc /dev/sdb /dev/sdd | grep -e "/dev/" -e "Serial Number"
/dev/hda:
        Serial Number:      S2R8J9KCC03730
/dev/hdc:
        Serial Number:      S2R8J9DC906671
/dev/sdb:
        Serial Number:      S2R8J9KCC03732
/dev/sdd:
        Serial Number:      S2R8J9DC906694

Avec ces numeros de serie, et en regardant sur DSM dans "Start Menu -> Storage Manager -> Hdd Management -> Disk Info" (pour les disques 1, 2 ,3, 4), tu vas pouvoir faire la correspondance entre les "/dev/xxx" et le numero de baie sur le NAS

===========================================================================================

Mais quel est la différence entre hd et sd ?

Normalement les "/dev/hdX" sont des peripheriques sur nappe IDE alors que les "/dev/sdX" sont des peripheriques sur SATA/SAS/SCSI

Je pense que Synology a modifie les drivers dans son noyau Linux de DSM et maintenant ces noms sont maintenant affectes "au pif"

Moi si je reboote ces noms changent dans mon RAID6

Lien à poster
Partager sur d’autres sites
fdisk -l /dev/hda

Cela donne :

NasBox> fdisk -l /dev/hda

Disk /dev/hda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/hda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/hda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/hda3             588      121601   972041440+ fd Linux raid autodetect
NasBox>
mdadm --examine /dev/hda3

Cela donne:

NasBox> mdadm --examine /dev/hda3
/dev/hda3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : e88000eb:cfc23ed2:7ca723b5:e2dfa739
           Name : NasBox:2  (local to host NasBox)
  Creation Time : Sun Apr 14 20:48:31 2013
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 1944080833 (927.01 GiB 995.37 GB)
     Array Size : 3888161024 (1854.02 GiB 1990.74 GB)
  Used Dev Size : 1944080512 (927.01 GiB 995.37 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : d708e3e7:e15ba13b:3dc85d94:31f99b21

    Update Time : Wed Nov  6 21:25:56 2013
       Checksum : 2f0c672c - correct
         Events : 2

         Layout : near=2
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing)
NasBox>

Lien à poster
Partager sur d’autres sites

On devrait avoir "/dev/hda" en mirroir avec "/dev/hdc" , et "/dev/sdb" en mirroir avec "/dev/sdd"

Maintenant il reste a trouver la correspondance avec les slots physiques du NAS. Pour ca on peut utiliser les numeros de serie (et la gestion des disques sur DSM):

hdparm -I /dev/hda /dev/hdc /dev/sdb /dev/sdd | grep -e "/dev/" -e "Serial Number"
Grace a cette commande et en ce basant sur les resultats precedents de "/dev/md2 " je constate tout simplement que les disques 1 et 2 ainsi que 3 et 4 sont en sont raid 1 et ces 2 volumes en raid 0.

Merci a tous !

Pour moi : sujet clos!!!

Modifié par Osteel
Lien à poster
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.