Aller au contenu

Changement Disques, pas d'augmentation


Superthx

Messages recommandés

Bon après vérification SMART étendu, tous les disques sont OK.

Au redémarrage il me propose bien le choix d'augmenter vers les +9To....

Mais il fait une erreur, comme quoi il faut vérifier les système de fichier.

Il me propose de redémarrer pour corriger, je m’exécute et on a plus accès au nas sauf en SSH.

Au bout de quelques temps j'ai accès par le DSM, mais je tente l’opération à nouveau et même problème......

C'est quoi l'erreur ??? 

Lien vers le commentaire
Partager sur d’autres sites

Salut

Alors je suis carrement pas un pro pour te situer mon niveau

Le premier HDD changé c' est le 5? et le deuxieme HDD changé c'est le disque 3?

Mais je crois que si tu rajoutes des HDD sur un RAID SHR , ils doivent être égal ou supérieur en taille (donc dans la grappe les plus gros disque doivent toujours etre a la fin)

Je pense que tu aurais du changer les disques 4 et 5 et pas 3 et 5 

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, Vasyjeannot a dit :

Si tu veut augmenter la capacité en changeant de HDD par des HDD plus gros tu dois changer les derniers il me semble

Pas du tout. La position du disque n'a rien à voir. L'augmentation peut se faire en remplaçant au moins deux disques de la grappe par des disques plus gros et ce quel que soit leur emplacement.

il y a 42 minutes, PPJP a dit :

La capacité de 7.15To me semble  normale.

Non. Les partitions swap et système sont trop petites pour avoir un tel impact sur le total.

J'opterais pour un problème de disque. Avez-vous vérifié les disques avant de les associer au SHR ?

Lancez un test smart étendu sur tous les disques et postez le résultat.

Lien vers le commentaire
Partager sur d’autres sites

Bon pour test j'ai retirer le dernier disque dur que j'avais mis.

Donc volume degrader, arret du NAS et remise du HDD de 4To.

La il me refait une verification de la coherence de parité (Donc c'est parti pour un bon moment).

Je que je comprends pas c'est que lorsque je l'avais fais pour la derniere fois il l'avait fait en 5 minutes montre en main. Bizarre ?

C'est parti pour un lonnnnnnnnnnng week-end.

Modifié par Superthx
Lien vers le commentaire
Partager sur d’autres sites

Pas de changement depuis mon dernier message.

en faisant parter / print sur /dev/sdc et /dev/sde (les disques de 4To) j'ai trouver peut etre un truc bizarre.


# parted /dev/sdc
GNU Parted 3.2
Using /dev/sdc
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
print
Model: WDC WD40EFRX (scsi)
Disk /dev/sdc: 4001GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid

 5      4840MB  2000GB  1996GB                        raid
 6      2000GB  4001GB  2000GB                        raid

(parted)

Apparement 2 partitions de 2To chacune et pas de Type
 

idem pour / dev/ sde

alors que pour les autres (les disques de 2To) j'ai:

# parted /dev/sda
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
print
Model: WDC WD20EARS (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system  Flags
 1      1049kB  2551MB  2550MB  primary                raid
 2      2551MB  4699MB  2147MB  primary                raid
 3      4832MB  2000GB  1996GB  extended               lba
 5      4840MB  2000GB  1996GB  logical                raid

(parted)

 

Donc Dans les nouveaux en rouge (4To) ce qui comparer au vert les disque de 2To.

Est-ce normal ????

J'ai essayer de supprimer toutes les partitions avec parted sur sde et maintenant je fais une reparation.

Aussi j'avais lu sur le forum les commande 

syno_poweroff_task -d
vgchange -ay
lvdisplay | grep " LV Name"

Installer optware de memoire.

Mais impossible de demonter les volumes.......

HELP !!!!!!!!!!!!!

Modifié par Superthx
Lien vers le commentaire
Partager sur d’autres sites

Là je suis en reparation.

Sinon j'ai :

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/1] [U_]
      [==>..................]  recovery = 14.8% (289298880/1953398528) finish=299.7min speed=92538K/sec

md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
        resync=DELAYED

md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

 

Lien vers le commentaire
Partager sur d’autres sites

Apparement il vient de finir une partie....

maintenant j'ai :

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/2] [UU]
      
md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
      [>....................]  recovery =  0.4% (9284096/1948779648) finish=1471.0min speed=21973K/sec
      
md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]
      
md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]

Dans Reparation (Verification de la coherence de parité) était a environ/proche du 51% et il vient de se remettre à 0,00% et monte doucement.....

Donc apparement j'en ai encore pour 24H......:evil::Grrrrr:

Lien vers le commentaire
Partager sur d’autres sites

Le RAID1 (md3) est terminé. Par contre, je ne comprends pas bien pourquoi le contrôle de parité du RAID5 du md2 a été relancé. Il aurait dû poursuivre indépendamment du md3.

Mais êtes vous sûr de ça ?

Il y a 5 heures, Superthx a dit :

recovery = 34.2% finish 186 min

Parce qu'au départ, il y avait ça :

Il y a 6 heures, Superthx a dit :

resync=DELAYED

Ce qui porterait à croire que la reconstruction ne peut se faire que sur un md à la fois. Surtout que 34.2% en à peine une heure, c'est improbable.

Qu'elle est maintenant la capacité indiquée par le gestionnaire ?

Lien vers le commentaire
Partager sur d’autres sites

sur md3 c'est bien fini

maintenant j'ai ceci:

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/2] [UU]
      
md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_]
      [=>...................]  recovery =  7.8% (153190528/1948779648) finish=1020.2min speed=29331K/sec
      
md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]
      
md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]
      
unused devices: <none>

Maintenant il est sur md2........

Dans Gestionnaire de stockage / volume / statut j'ai:

Reparation (Verification de la coherence des parité 8,20%)

Edit:

Je vais attendre qu'il termine.

Faire un reboot et essayer a nouveau "cat /proc/mdstat" et mettre le résultat ici.

Ensuite essayer d'étendre la capacité via le DSM.

 

Modifié par Mic13710
inutile de répéter le message précédent si ça n'apporte rien de plus à la compréhension
Lien vers le commentaire
Partager sur d’autres sites

dv -h ne fonctionne pas

sinon j'ai:

# df –h
df: ‘–h’: No such file or directory
# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               7.26 TiB / not usable 3.94 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              1903104
  Free PE               0
  Allocated PE          1903104
  PV UUID               n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x
   
  --- Physical volume ---
  PV Name               /dev/md3
  VG Name               vg1000
  PV Size               1.82 TiB / not usable 3.75 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              476903
  Free PE               0
  Allocated PE          476903
  PV UUID               9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL
   
# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88
  LV Write Access        read/write
  LV Creation host, time , 
  LV Status              available
  # open                 1
  LV Size                9.08 TiB
  Current LE             2380007
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0

 

Lien vers le commentaire
Partager sur d’autres sites

Les volumes physiques et logiques sont OK et sont utilisés en totalité. Vous avez bien vos 9To. Il s'agit à mon avis d'une erreur d'affichage de l'interface de DSM.

Je me souviens que le cas s'est déjà présenté. Attendez la fin de la reconstruction puis redémarrez le NAS. Si le problème persiste, il va falloir contacter le support pour qu'ils corrigent l'erreur.

Lien vers le commentaire
Partager sur d’autres sites

Il vient de terminer et j'ai toujours une erreur a la fin, "System failed to repair [Volume 1] with disk [5]"
Il me propose de passer le volume a 9296 Go.

avant le reboot j'ai :

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sde6[2] sdc6[0]
      1953398528 blocks super 1.2 [2/2] [UU]

md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               7.26 TiB / not usable 3.94 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              1903104
  Free PE               0
  Allocated PE          1903104
  PV UUID               n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x

  --- Physical volume ---
  PV Name               /dev/md3
  VG Name               vg1000
  PV Size               1.82 TiB / not usable 3.75 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              476903
  Free PE               0
  Allocated PE          476903
  PV UUID               9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL

# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 1
  LV Size                9.08 TiB
  Current LE             2380007
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0

Je demande d'augmenter le volume et l'erreur revient et me demande de "Executez une verification du systeme de fichiers". En SSH je retape les commandes et j'ai :

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sda5[0] sde5[8] sdd5[6] sdc5[7] sdb5[5]
      7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU]

md3 : active raid1 sdc6[0] sde6[2]
      1953398528 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3] sde2[4]
      2097088 blocks [5/5] [UUUUU]

md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4]
      2490176 blocks [5/5] [UUUUU]

unused devices: <none>

# pvdisplay
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               7.26 TiB / not usable 3.94 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              1903104
  Free PE               0
  Allocated PE          1903104
  PV UUID               n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x

  --- Physical volume ---
  PV Name               /dev/md3
  VG Name               vg1000
  PV Size               1.82 TiB / not usable 3.75 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              476903
  Free PE               0
  Allocated PE          476903
  PV UUID               9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL

# lvdisplay
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              available
  # open                 1
  LV Size                9.08 TiB
  Current LE             2380007
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     512
  Block device           253:0

Donc que faire ?????????

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.