Superthx Posté(e) le 12 janvier 2018 Posté(e) le 12 janvier 2018 Salut !! Voila je change 2 anciens disque dur de 2To par des 4To en SHR1. Donc je change le premier disque, reconstruction OK. Je met le 2 disque, reconstruction, OK. Mais la je me rend compte qu'au lieu de 10To j'ai toujours 8To. KESAKO ??????? 0 Citer
Superthx Posté(e) le 12 janvier 2018 Auteur Posté(e) le 12 janvier 2018 Bon après vérification SMART étendu, tous les disques sont OK. Au redémarrage il me propose bien le choix d'augmenter vers les +9To.... Mais il fait une erreur, comme quoi il faut vérifier les système de fichier. Il me propose de redémarrer pour corriger, je m’exécute et on a plus accès au nas sauf en SSH. Au bout de quelques temps j'ai accès par le DSM, mais je tente l’opération à nouveau et même problème...... C'est quoi l'erreur ??? 0 Citer
Vasyjeannot Posté(e) le 12 janvier 2018 Posté(e) le 12 janvier 2018 Salut Alors je suis carrement pas un pro pour te situer mon niveau Le premier HDD changé c' est le 5? et le deuxieme HDD changé c'est le disque 3? Mais je crois que si tu rajoutes des HDD sur un RAID SHR , ils doivent être égal ou supérieur en taille (donc dans la grappe les plus gros disque doivent toujours etre a la fin) Je pense que tu aurais du changer les disques 4 et 5 et pas 3 et 5 0 Citer
Superthx Posté(e) le 12 janvier 2018 Auteur Posté(e) le 12 janvier 2018 Cela n'a pas de sens...... Si ton HDD 3 et 5 tombent en panne, on va pas changer le 4 au lieu du 3.......... 0 Citer
Vasyjeannot Posté(e) le 12 janvier 2018 Posté(e) le 12 janvier 2018 Si tes HDD 3 et 5 tombent en panne tu les remplace par des HDD de même capacité Si tu veut augmenter la capacité en changeant de HDD par des HDD plus gros tu dois changer les derniers il me semble Mais bon j' y connais rien... 0 Citer
PPJP Posté(e) le 12 janvier 2018 Posté(e) le 12 janvier 2018 Bonsoir, La capacité de 7.15To me semble normale. Ne pas oublier que si les données sont organisés en Raid 5, le DSM et la Swap sont en raid 1 et donc sur les 5 disques. 0 Citer
Mic13710 Posté(e) le 12 janvier 2018 Posté(e) le 12 janvier 2018 Il y a 2 heures, Vasyjeannot a dit : Si tu veut augmenter la capacité en changeant de HDD par des HDD plus gros tu dois changer les derniers il me semble Pas du tout. La position du disque n'a rien à voir. L'augmentation peut se faire en remplaçant au moins deux disques de la grappe par des disques plus gros et ce quel que soit leur emplacement. il y a 42 minutes, PPJP a dit : La capacité de 7.15To me semble normale. Non. Les partitions swap et système sont trop petites pour avoir un tel impact sur le total. J'opterais pour un problème de disque. Avez-vous vérifié les disques avant de les associer au SHR ? Lancez un test smart étendu sur tous les disques et postez le résultat. 0 Citer
Superthx Posté(e) le 13 janvier 2018 Auteur Posté(e) le 13 janvier 2018 J’ai déjà fais un test étendu sur tous les disques.... 0 Citer
Superthx Posté(e) le 13 janvier 2018 Auteur Posté(e) le 13 janvier 2018 Oui j'ai bien un Test SMART Etendu pour chaque et RAS. Je vais tenter de changer un des Disque dur de 4To par un autre voir si j'ai pas le message d'erreur. Je laisse les copies d'ecran pour le message d'erreur en etape 0 Citer
Superthx Posté(e) le 13 janvier 2018 Auteur Posté(e) le 13 janvier 2018 (modifié) Bon pour test j'ai retirer le dernier disque dur que j'avais mis. Donc volume degrader, arret du NAS et remise du HDD de 4To. La il me refait une verification de la coherence de parité (Donc c'est parti pour un bon moment). Je que je comprends pas c'est que lorsque je l'avais fais pour la derniere fois il l'avait fait en 5 minutes montre en main. Bizarre ? C'est parti pour un lonnnnnnnnnnng week-end. Modifié le 13 janvier 2018 par Superthx 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 (modifié) Pas de changement depuis mon dernier message. en faisant parter / print sur /dev/sdc et /dev/sde (les disques de 4To) j'ai trouver peut etre un truc bizarre. # parted /dev/sdc GNU Parted 3.2 Using /dev/sdc Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) print print Model: WDC WD40EFRX (scsi) Disk /dev/sdc: 4001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 2000GB 1996GB raid 6 2000GB 4001GB 2000GB raid (parted) Apparement 2 partitions de 2To chacune et pas de Type idem pour / dev/ sde alors que pour les autres (les disques de 2To) j'ai: # parted /dev/sda GNU Parted 3.2 Using /dev/sda Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) print print Model: WDC WD20EARS (scsi) Disk /dev/sda: 2000GB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 1049kB 2551MB 2550MB primary raid 2 2551MB 4699MB 2147MB primary raid 3 4832MB 2000GB 1996GB extended lba 5 4840MB 2000GB 1996GB logical raid (parted) Donc Dans les nouveaux en rouge (4To) ce qui comparer au vert les disque de 2To. Est-ce normal ???? J'ai essayer de supprimer toutes les partitions avec parted sur sde et maintenant je fais une reparation. Aussi j'avais lu sur le forum les commande syno_poweroff_task -d vgchange -ay lvdisplay | grep " LV Name" Installer optware de memoire. Mais impossible de demonter les volumes....... HELP !!!!!!!!!!!!! Modifié le 14 janvier 2018 par Superthx 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Ce que vous voyez est normal puisque c'est le principe du SHR. Votre groupe est formé d'un RAID5 sur 2To de tous les disques et d'un RAID1sur les 2To restants des deux 4To. Que donne la commande cat /proc/mdstat 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 Là je suis en reparation. Sinon j'ai : # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md3 : active raid1 sde6[2] sdc6[0] 1953398528 blocks super 1.2 [2/1] [U_] [==>..................] recovery = 14.8% (289298880/1953398528) finish=299.7min speed=92538K/sec md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5] 7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_] resync=DELAYED md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0] 2097088 blocks [5/5] [UUUUU] md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3] 2490176 blocks [5/5] [UUUUU] unused devices: <none> 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Effectivement, la reconstruction est en cours. Il faudra relancer la commande une fois que ce sera fait. Ceci dit, on voit bien les deux RAID le RAID5 (md2) et le RAID1 (md3). Le gestionnaire de stockage devrait vous donner une capacité de 9To. 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 Ok je vais attendre j'ai pas trop le choix. Par contre comment cela peux foirer autant ???? Je reviens plus tard......Là j'ai avec la command cat /proc/mdstat recovery = 34.2% finish 186 min et en Reparation (Verification de la coherence des parité 17,29%) C'est normal aussi ? 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Je ne vois rien d'anormal. On y verra plus clair une fois les processus terminés. 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 Apparement il vient de finir une partie.... maintenant j'ai : cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md3 : active raid1 sde6[2] sdc6[0] 1953398528 blocks super 1.2 [2/2] [UU] md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5] 7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_] [>....................] recovery = 0.4% (9284096/1948779648) finish=1471.0min speed=21973K/sec md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0] 2097088 blocks [5/5] [UUUUU] md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3] 2490176 blocks [5/5] [UUUUU] Dans Reparation (Verification de la coherence de parité) était a environ/proche du 51% et il vient de se remettre à 0,00% et monte doucement..... Donc apparement j'en ai encore pour 24H...... 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Le RAID1 (md3) est terminé. Par contre, je ne comprends pas bien pourquoi le contrôle de parité du RAID5 du md2 a été relancé. Il aurait dû poursuivre indépendamment du md3. Mais êtes vous sûr de ça ? Il y a 5 heures, Superthx a dit : recovery = 34.2% finish 186 min Parce qu'au départ, il y avait ça : Il y a 6 heures, Superthx a dit : resync=DELAYED Ce qui porterait à croire que la reconstruction ne peut se faire que sur un md à la fois. Surtout que 34.2% en à peine une heure, c'est improbable. Qu'elle est maintenant la capacité indiquée par le gestionnaire ? 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 (modifié) sur md3 c'est bien fini maintenant j'ai ceci: cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md3 : active raid1 sde6[2] sdc6[0] 1953398528 blocks super 1.2 [2/2] [UU] md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5] 7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [UUUU_] [=>...................] recovery = 7.8% (153190528/1948779648) finish=1020.2min speed=29331K/sec md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0] 2097088 blocks [5/5] [UUUUU] md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3] 2490176 blocks [5/5] [UUUUU] unused devices: <none> Maintenant il est sur md2........ Dans Gestionnaire de stockage / volume / statut j'ai: Reparation (Verification de la coherence des parité 8,20%) Edit: Je vais attendre qu'il termine. Faire un reboot et essayer a nouveau "cat /proc/mdstat" et mettre le résultat ici. Ensuite essayer d'étendre la capacité via le DSM. Modifié le 14 janvier 2018 par Mic13710 inutile de répéter le message précédent si ça n'apporte rien de plus à la compréhension 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Il y a 6 heures, Mic13710 a dit : Le gestionnaire de stockage devrait vous donner une capacité de 9To. il y a une heure, Mic13710 a dit : Qu'elle est maintenant la capacité indiquée par le gestionnaire ? Et donc ? Elle devrait logiquement être à 9To approx. 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 (modifié) Non toujours 7,15 To, voici une capture Modifié le 14 janvier 2018 par Superthx 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Pas normal. Que donnent les commandes df –h pvdisplay lvdisplay 0 Citer
Superthx Posté(e) le 14 janvier 2018 Auteur Posté(e) le 14 janvier 2018 dv -h ne fonctionne pas sinon j'ai: # df –h df: ‘–h’: No such file or directory # pvdisplay --- Physical volume --- PV Name /dev/md2 VG Name vg1000 PV Size 7.26 TiB / not usable 3.94 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 1903104 Free PE 0 Allocated PE 1903104 PV UUID n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x --- Physical volume --- PV Name /dev/md3 VG Name vg1000 PV Size 1.82 TiB / not usable 3.75 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 476903 Free PE 0 Allocated PE 476903 PV UUID 9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL # lvdisplay --- Logical volume --- LV Path /dev/vg1000/lv LV Name lv VG Name vg1000 LV UUID cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88 LV Write Access read/write LV Creation host, time , LV Status available # open 1 LV Size 9.08 TiB Current LE 2380007 Segments 2 Allocation inherit Read ahead sectors auto - currently set to 512 Block device 253:0 0 Citer
Mic13710 Posté(e) le 14 janvier 2018 Posté(e) le 14 janvier 2018 Les volumes physiques et logiques sont OK et sont utilisés en totalité. Vous avez bien vos 9To. Il s'agit à mon avis d'une erreur d'affichage de l'interface de DSM. Je me souviens que le cas s'est déjà présenté. Attendez la fin de la reconstruction puis redémarrez le NAS. Si le problème persiste, il va falloir contacter le support pour qu'ils corrigent l'erreur. 0 Citer
Superthx Posté(e) le 15 janvier 2018 Auteur Posté(e) le 15 janvier 2018 Il vient de terminer et j'ai toujours une erreur a la fin, "System failed to repair [Volume 1] with disk [5]" Il me propose de passer le volume a 9296 Go. avant le reboot j'ai : # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md3 : active raid1 sde6[2] sdc6[0] 1953398528 blocks super 1.2 [2/2] [UU] md2 : active raid5 sde5[8] sda5[0] sdd5[6] sdc5[7] sdb5[5] 7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU] md1 : active raid1 sde2[4] sdd2[3] sdc2[2] sdb2[1] sda2[0] 2097088 blocks [5/5] [UUUUU] md0 : active raid1 sde1[4] sda1[0] sdb1[1] sdc1[2] sdd1[3] 2490176 blocks [5/5] [UUUUU] unused devices: <none> # pvdisplay --- Physical volume --- PV Name /dev/md2 VG Name vg1000 PV Size 7.26 TiB / not usable 3.94 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 1903104 Free PE 0 Allocated PE 1903104 PV UUID n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x --- Physical volume --- PV Name /dev/md3 VG Name vg1000 PV Size 1.82 TiB / not usable 3.75 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 476903 Free PE 0 Allocated PE 476903 PV UUID 9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL # lvdisplay --- Logical volume --- LV Path /dev/vg1000/lv LV Name lv VG Name vg1000 LV UUID cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88 LV Write Access read/write LV Creation host, time , LV Status available # open 1 LV Size 9.08 TiB Current LE 2380007 Segments 2 Allocation inherit Read ahead sectors auto - currently set to 512 Block device 253:0 Je demande d'augmenter le volume et l'erreur revient et me demande de "Executez une verification du systeme de fichiers". En SSH je retape les commandes et j'ai : # cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sda5[0] sde5[8] sdd5[6] sdc5[7] sdb5[5] 7795118592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/5] [UUUUU] md3 : active raid1 sdc6[0] sde6[2] 1953398528 blocks super 1.2 [2/2] [UU] md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3] sde2[4] 2097088 blocks [5/5] [UUUUU] md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4] 2490176 blocks [5/5] [UUUUU] unused devices: <none> # pvdisplay --- Physical volume --- PV Name /dev/md2 VG Name vg1000 PV Size 7.26 TiB / not usable 3.94 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 1903104 Free PE 0 Allocated PE 1903104 PV UUID n6s89P-dFLP-LB2G-cBjO-bitS-EUSP-4lxL2x --- Physical volume --- PV Name /dev/md3 VG Name vg1000 PV Size 1.82 TiB / not usable 3.75 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 476903 Free PE 0 Allocated PE 476903 PV UUID 9cv5uU-HQJn-QaKZ-ztuu-JUQJ-qB4o-y4RSVL # lvdisplay --- Logical volume --- LV Path /dev/vg1000/lv LV Name lv VG Name vg1000 LV UUID cNm3mW-rUSh-7jdq-1P5C-xtZW-EB22-17Ks88 LV Write Access read/write LV Creation host, time , LV Status available # open 1 LV Size 9.08 TiB Current LE 2380007 Segments 2 Allocation inherit Read ahead sectors auto - currently set to 512 Block device 253:0 Donc que faire ????????? 0 Citer
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.