This site uses cookies! Learn More

Ce site utilise des cookies !

En continuant à utiliser ce site, vous vous engagez à nous permettre de stocker des cookies sur votre ordinateur.

 

Si nous utilisons des cookies et retenons des données anonymes, c’est pour nous aider à mieux gérer notre mesure d’audience, aider nos partenaires commerciaux à nous rémunérer et nos partenaires publicitaires à proposer des annonces qui vous correspondent.

 

Grâce à ces cookies, le forum est en mesure de savoir qui écrit un message et utile pour le système d'authentification.

 

En cliquant sur « J'accepte », vous acceptez l'utilisation par NAS-Forum de cookies publicitaires et de mesure d'audience fine.

Superthx

Changement Disques, pas d'augmentation

Messages recommandés

Salut !!

Voila je change 2 anciens disque dur de 2To par des 4To en SHR1.

Donc je change le premier disque, reconstruction OK.

Je met le 2 disque, reconstruction, OK.

Mais la je me rend compte qu'au lieu de 10To j'ai toujours 8To.

KESAKO ???????

Sans titre-2.jpg

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon après vérification SMART étendu, tous les disques sont OK.

Au redémarrage il me propose bien le choix d'augmenter vers les +9To....

Mais il fait une erreur, comme quoi il faut vérifier les système de fichier.

Il me propose de redémarrer pour corriger, je m’exécute et on a plus accès au nas sauf en SSH.

Au bout de quelques temps j'ai accès par le DSM, mais je tente l’opération à nouveau et même problème......

C'est quoi l'erreur ??? 

Partager ce message


Lien à poster
Partager sur d’autres sites

Salut

Alors je suis carrement pas un pro pour te situer mon niveau

Le premier HDD changé c' est le 5? et le deuxieme HDD changé c'est le disque 3?

Mais je crois que si tu rajoutes des HDD sur un RAID SHR , ils doivent être égal ou supérieur en taille (donc dans la grappe les plus gros disque doivent toujours etre a la fin)

Je pense que tu aurais du changer les disques 4 et 5 et pas 3 et 5 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Si tes HDD 3 et 5 tombent en panne tu les remplace par des HDD de même capacité

Si tu veut augmenter la capacité en changeant de HDD par des HDD plus gros tu dois changer les derniers il me semble

Mais bon j' y connais rien...

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Bonsoir,

La capacité de 7.15To me semble  normale.

Ne pas oublier que si les données sont organisés en Raid 5, le DSM et la Swap sont en raid 1 et donc sur les 5 disques.

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 2 heures, Vasyjeannot a dit :

Si tu veut augmenter la capacité en changeant de HDD par des HDD plus gros tu dois changer les derniers il me semble

Pas du tout. La position du disque n'a rien à voir. L'augmentation peut se faire en remplaçant au moins deux disques de la grappe par des disques plus gros et ce quel que soit leur emplacement.

il y a 42 minutes, PPJP a dit :

La capacité de 7.15To me semble  normale.

Non. Les partitions swap et système sont trop petites pour avoir un tel impact sur le total.

J'opterais pour un problème de disque. Avez-vous vérifié les disques avant de les associer au SHR ?

Lancez un test smart étendu sur tous les disques et postez le résultat.

Partager ce message


Lien à poster
Partager sur d’autres sites

Oui j'ai bien un Test SMART Etendu pour chaque et RAS.

Je vais tenter de changer un des Disque dur de 4To par un autre voir si j'ai pas le message d'erreur.

Je laisse les copies d'ecran pour le message d'erreur en etape

1.jpg

2.jpg

3.jpg

4.jpg

5.jpg

Partager ce message


Lien à poster
Partager sur d’autres sites

Bon pour test j'ai retirer le dernier disque dur que j'avais mis.

Donc volume degrader, arret du NAS et remise du HDD de 4To.

La il me refait une verification de la coherence de parité (Donc c'est parti pour un bon moment).

Je que je comprends pas c'est que lorsque je l'avais fais pour la derniere fois il l'avait fait en 5 minutes montre en main. Bizarre ?

C'est parti pour un lonnnnnnnnnnng week-end.

Modifié par Superthx

Partager ce message


Lien à poster
Partager sur d’autres sites

Pas de changement depuis mon dernier message.

en faisant parter / print sur /dev/sdc et /dev/sde (les disques de 4To) j'ai trouver peut etre un truc bizarre.


# parted /dev/sdc
GNU Parted 3.2
Using /dev/sdc
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
print
Model: WDC WD40EFRX (scsi)
Disk /dev/sdc: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid

 5      4840MB  2000GB  1996GB                        raid
 6      2000GB  4001GB  2000GB                        raid

(parted)

Apparement 2 partitions de 2To chacune et pas de Type
 

idem pour / dev/ sde

alors que pour les autres (les disques de 2To) j'ai:

# parted /dev/sda
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
print
Model: WDC WD20EARS (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system  Flags
 1      1049kB  2551MB  2550MB  primary                raid
 2      2551MB  4699MB  2147MB  primary                raid
 3      4832MB  2000GB  1996GB  extended               lba
 5      4840MB  2000GB  1996GB  logical                raid

(parted)

 

Donc Dans les nouveaux en rouge (4To) ce qui comparer au vert les disque de 2To.

Est-ce normal ????

J'ai essayer de supprimer toutes les partitions avec parted sur sde et maintenant je fais une reparation.

Aussi j'avais lu sur le forum les commande 

syno_poweroff_task -d
vgchange -ay
lvdisplay | grep " LV Name"

Installer optware de memoire.

Mais impossible de demonter les volumes.......

HELP !!!!!!!!!!!!!

Modifié par Superthx

Partager ce message


Lien à poster
Partager sur d’autres sites

Ce que vous voyez est normal puisque c'est le principe du SHR.

Votre groupe est formé d'un RAID5 sur 2To de tous les disques et d'un RAID1sur les 2To restants des deux 4To.

Que donne la commande

cat /proc/mdstat

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Là je suis en reparation.

Sinon j'ai :

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/1] [U_]
      [==>..................]  recovery = 14.8% (289298880/1953398528) finish=299.7min speed=92538K/sec

md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
        resync=DELAYED

md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Effectivement, la reconstruction est en cours. Il faudra relancer la commande une fois que ce sera fait. Ceci dit, on voit bien les deux RAID le RAID5 (md2) et le RAID1 (md3). Le gestionnaire de stockage devrait vous donner une capacité de 9To.

Partager ce message


Lien à poster
Partager sur d’autres sites

Ok je vais attendre j'ai pas trop le choix.

Par contre comment cela peux foirer autant ????

Je reviens plus tard......Là j'ai avec la command cat /proc/mdstat

recovery = 34.2% finish 186 min

 et en Reparation (Verification de la coherence des parité 17,29%)

C'est normal aussi ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Apparement il vient de finir une partie....

maintenant j'ai :

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/2] [UU]
      
md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
      [>....................]  recovery =  0.4% (9284096/1948779648) finish=1471.0min speed=21973K/sec
      
md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]
      
md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]

Dans Reparation (Verification de la coherence de parité) était a environ/proche du 51% et il vient de se remettre à 0,00% et monte doucement.....

Donc apparement j'en ai encore pour 24H......:evil::Grrrrr:

Partager ce message


Lien à poster
Partager sur d’autres sites

Le RAID1 (md3) est terminé. Par contre, je ne comprends pas bien pourquoi le contrôle de parité du RAID5 du md2 a été relancé. Il aurait dû poursuivre indépendamment du md3.

Mais êtes vous sûr de ça ?

Il y a 5 heures, Superthx a dit :

recovery = 34.2% finish 186 min

Parce qu'au départ, il y avait ça :

Il y a 6 heures, Superthx a dit :

resync=DELAYED

Ce qui porterait à croire que la reconstruction ne peut se faire que sur un md à la fois. Surtout que 34.2% en à peine une heure, c'est improbable.

Qu'elle est maintenant la capacité indiquée par le gestionnaire ?

Partager ce message


Lien à poster
Partager sur d’autres sites

sur md3 c'est bien fini

maintenant j'ai ceci:

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/2] [UU]
      
md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
      [=>...................]  recovery =  7.8% (153190528/1948779648) finish=1020.2min speed=29331K/sec
      
md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]
      
md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]
      
unused devices: <none>

Maintenant il est sur md2........

Dans Gestionnaire de stockage / volume / statut j'ai:

Reparation (Verification de la coherence des parité 8,20%)

Edit:

Je vais attendre qu'il termine.

Faire un reboot et essayer a nouveau "cat /proc/mdstat" et mettre le résultat ici.

Ensuite essayer d'étendre la capacité via le DSM.

 

Modifié par Mic13710
inutile de répéter le message précédent si ça n'apporte rien de plus à la compréhension

Partager ce message


Lien à poster
Partager sur d’autres sites
Il y a 6 heures, Mic13710 a dit :

Le gestionnaire de stockage devrait vous donner une capacité de 9To.

 

il y a une heure, Mic13710 a dit :

Qu'elle est maintenant la capacité indiquée par le gestionnaire ?

Et donc ? Elle devrait logiquement être à 9To approx.

Partager ce message


Lien à poster
Partager sur d’autres sites

dv -h ne fonctionne pas

sinon j'ai:

# df –h
df: ‘–h’: No such file or directory
# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               7.26 TiB / not usable 3.94 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              1903104
  Free PE               0
  Allocated PE          1903104
  PV UUID               n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x
   
  --- Physical volume ---
  PV Name               /dev/md3
  VG Name               vg1000
  PV Size               1.82 TiB / not usable 3.75 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              476903
  Free PE               0
  Allocated PE          476903
  PV UUID               9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL
   
# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                9.08 TiB
  Current LE             2380007
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Les volumes physiques et logiques sont OK et sont utilisés en totalité. Vous avez bien vos 9To. Il s'agit à mon avis d'une erreur d'affichage de l'interface de DSM.

Je me souviens que le cas s'est déjà présenté. Attendez la fin de la reconstruction puis redémarrez le NAS. Si le problème persiste, il va falloir contacter le support pour qu'ils corrigent l'erreur.

Partager ce message


Lien à poster
Partager sur d’autres sites

Il vient de terminer et j'ai toujours une erreur a la fin, "System failed to repair [Volume 1] with disk [5]"
Il me propose de passer le volume a 9296 Go.

avant le reboot j'ai :

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/2] [UU]

md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               7.26 TiB / not usable 3.94 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              1903104
  Free PE               0
  Allocated PE          1903104
  PV UUID               n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x

  --- Physical volume ---
  PV Name               /dev/md3
  VG Name               vg1000
  PV Size               1.82 TiB / not usable 3.75 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              476903
  Free PE               0
  Allocated PE          476903
  PV UUID               9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL

# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 1
  LV Size                9.08 TiB
  Current LE             2380007
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0

Je demande d'augmenter le volume et l'erreur revient et me demande de "Executez une verification du systeme de fichiers". En SSH je retape les commandes et j'ai :

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda5[0] sde5[8] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

md3 : active raid1 sdc6[0] sde6[2]
      1953398528 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3] sde2[4]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               7.26 TiB / not usable 3.94 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              1903104
  Free PE               0
  Allocated PE          1903104
  PV UUID               n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x

  --- Physical volume ---
  PV Name               /dev/md3
  VG Name               vg1000
  PV Size               1.82 TiB / not usable 3.75 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              476903
  Free PE               0
  Allocated PE          476903
  PV UUID               9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL

# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 1
  LV Size                9.08 TiB
  Current LE             2380007
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0

Donc que faire ?????????

Partager ce message


Lien à poster
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.