Aller au contenu

PPJP

Membres
  • Compteur de contenus

    393
  • Inscription

  • Dernière visite

  • Jours gagnés

    5

Tout ce qui a été posté par PPJP

  1. Maintenant il faut juste un peu de patience (selon la taille du disque, et son état). Bonne chance
  2. Pour ma part, si je veux voir où en est badblock, j'ouvre tout simplement le fichier log avec vi.
  3. Bonjour, La commande que tu utilises ne doit pas être suffisante, et Putty doit continuer à gérer l'affichage. Je te propose d'essayer avec (pour test non destructif): badblocks -nvs /dev/sdh > /volume1/un/dossier/sdh.log 2>&1 Bien sû,r lettre à adapter selon le disk. Une autre méthode: (celle que utilise car je suis fainéant): Dans le planificateur de tâche du DSM, on crée une tâche (non activée) avec cette commande. Ensuite, il suffit de la corriger en fonction du disque à tester et de la lancer manuellement. J’espère que cela répondra a ta question
  4. Bonsoir, Il est possible de fermer la fenêtre Putty après le lancement de badblock. La fermeture se fait par la commande exit.
  5. Bonjour, Les dernières version de Livebox autorisent le loopback. Sinon une solution consiste à utiliser le serveur DNS du Nas.
  6. Je ne vois pas ce qui peut bloquer en dehors d'un problème de pare-feu. En espérant que quelqu'un de plus compétant que moi consultera ce fil. Désolé
  7. S'il n'a aucune règle dans le pare-feu toutes interfaces,Il faut vérifier les règles pour le LAN utilisé pour la connexion au réseau (point 2 de mon post précédent) Autoriser le port TCP 3493 pour l'IP du NAS faisant serveur UPS Il est également possible (mais fortement déconseillé) d'ouvrir tous les ports (en bas de la fenêtre) Inverse de ci-dessous Il est toujours préférable de n'ouvrir que les ports nécessaires et de refuser l’accès au reste. (comme ci-dessus)
  8. Est-ce que ‘aucune restriction’ signifie : Aucune règle dans le pare-feu toutes interfaces Aucune règle dans le pare-feu (et bouton radio ‘si aucune règle n’est remplie autoriser l’accès’ coché) du LAN connecté à votre réseau, Si tel est le cas, je ne vois pas ou peut se situer le blocage, Désolé de ne pas pouvoir plus vous aider.
  9. Bonjour, Juste une observation, (mais c'est sans doute un hasard) 71°F = 22°C Pb dans conversion d'unité?
  10. Panneau de configuration => Sécurité : onglet parefeu clic sur bouton "Modifier les règles"
  11. Bonjour, Les ports 3493 sont-il ouverts sur les NAS "esclaves" ?
  12. Effectuée sur un ds1815+. RAS, mais nécessite un reboot.
  13. Installé sur un ds1815+ sans pb. Nécessite un reboot
  14. PPJP

    DSM 6.0.2-8451 Update 4

    Installé sans problème sur un 1815+ Mais avec reboot.
  15. Je reviens vers vous afin de terminer ce fil correctement. Il est en effet très désagréable, quand on recherche des infos dans un forum, de tomber sur des fils se terminant brusquement,sans en avoir le résultat final. A l’étape précédente, le gestionnaire de stockage m'indiquait un volume au statut normal, mais le disque 4 était au statut initialisé et non normal. Il m'a été impossible d’intégrer ce disque à md2. Je ne suis pas passé immédiatement à une installation à partir de 0 car le remplacement de mon compteur EDF (par un Linky) m'était annoncé, et que le syno fonctionnait sans aucun pb. J'ai essayé quelques autres manip,(par exemple retirer le disque 4 de md1 et md2) ,sans succès. Dès le changement du compteur EDF, l'installation à partir de 0 s'est déroulée sans aucun pb. Au final, je reste un peu frustré de ne pas savoir la raison de mon échec dans l'application du tuto de Gaëtan Cambier. Je remercie Mic1370 pour l'aide qu'il a bien voulu m'accorder.
  16. C'était bien une grosse c****ie! J'ai poursuivi jusqu'à avoir sfdisk -l /dev/sdd /dev/sdd1 2048 4982527 4980480 fd /dev/sdd2 4982528 9176831 4194304 fd /dev/sdd5 9453280 11720838239 11711384960 fd c'est à dire des partitions identiques aux premiers disques cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sda5[2] sdc5[3] sdb5[1] 11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU] md1 : active raid1 sda2[0] sdb2[1] sdc2[2] 2097088 blocks [8/3] [UUU_____] md0 : active raid1 sda1[0] sdb1[1] sdc1[2] 2490176 blocks [8/3] [UUU_____] mdadm --add /dev/md0 /dev/sdd1 mdadm: added /dev/sdd1 cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sda5[2] sdc5[3] sdb5[1] 11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU] md1 : active raid1 sdd2[3] sda2[0] sdb2[1] sdc2[2] 2097088 blocks [8/4] [UUUU____] md0 : active raid1 sdd1[3] sda1[0] sdb1[1] sdc1[2] 2490176 blocks [8/4] [UUUU____] et sdd apparait dans md0 et md1! Partition système dégradée Ce que je ne comprends vraiment pas c'est quand je regarde cette séquence C"est une copie directe de la console sans discontinuité, j'ai même laissée l'erreur de frappe (frappe du message sur le forum en même temps) root@DiskStation_02:~# mdadm --add /dev/md0 /dev/sdd1 mdadm: added /dev/sdd1 root@DiskStation_02:~# ^C^C -ash: $'\003^C': command not found root@DiskStation_02:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sda5[2] sdc5[3] sdb5[1] 11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU] md1 : active raid1 sda2[0] sdb2[1] sdc2[2] 2097088 blocks [8/3] [UUU_____] md0 : active raid1 sdd1[3] sda1[0] sdb1[1] sdc1[2] 2490176 blocks [8/4] [UUUU____] unused devices: <none> root@DiskStation_02:~# cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sda5[2] sdc5[3] sdb5[1] 11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU] md1 : active raid1 sdd2[3] sda2[0] sdb2[1] sdc2[2] 2097088 blocks [8/4] [UUUU____] md0 : active raid1 sdd1[3] sda1[0] sdb1[1] sdc1[2] 2490176 blocks [8/4] [UUUU____] unused devices: <none> 2 cat /proc/mdstat sans commande entre Pourquoi sdd2([3] apparait-il soudain? Je pense que je vais arrêter là pour aujourd’hui!
  17. Je pense avoir un peu progressé (ou fait une grosse c***ie?): sfdisk -M1 /dev/sdd Error: /dev/sdd: unrecognised disk label no gpt table, skip zero final sector No default signature. sfdisk -N 1 -o 2048 -z 4980480 -t fd /dev/sdd sfdisk -l /dev/sdd /dev/sdd1 2048 4982527 4980480 fd sfdisk -N 2 -o 4982528 -z 4194304 -t fd /dev/sdd sfdisk -l /dev/sdd /dev/sdd1 2048 4982527 4980480 fd /dev/sdd2 4982528 9176831 4194304 fd sfdisk -N 5 -o 9453280 -z 11711384960 -t fd /dev/sdd sfdisk -l /dev/sdd /dev/sdd1 2048 4982527 4980480 fd /dev/sdd2 4982528 9176831 4194304 fd /dev/sdd5 9453280 11720838239 11711384960 fd mdadm –add /dev/md0 /dev/sdd1 mdadm: An option must be given to set the mode before a second device (/dev/md0) is listed Il y a encore de l'espoir. Je continue mes recherches. S'il y a du nouveau, je vous tiendrais, bien entendu, informé.
  18. J'ai déjà tenté ces commandes sans constater de changements. Elles donnent: dd if=/dev/zero of=/dev/sdx bs=512 count=1 1+0 records in 1+0 records out 512 bytes (512 B) copied, 0.000484341 s, 1.1 MB/s
  19. Voir ma dernière réponse ci -dessus . (c'est juste un peu d'humour!] En tout cas de nouveau un grand merci de la peine que tu te donnes pour m'aider.
  20. En DSM 6, il est toujours possible de se connecter directement en root avec une clé. la cde sfdisk -l /dev/cdX passent correctement pour a b et c. La commande synopartition figure bien dans /usr/syno/sbin De plus elle répond avec les paramètres --HELP, --CHECK et LIST (bien que je comprenne mal les réponses) synopartition --check /dev/sda /dev/sda: dont contain partition [3] /dev/sda: partition layout is version 8, list index is 12. synopartition --list Index Version 1-Bay Size of Root/Swap/Reserved Partition 1. 1 YES 273042/ 787185/ 273042 sectors ( 133/ 384/ 133 MB) 2. 2 YES 4980087/ 1044225/ 257040 sectors ( 2431/ 509/ 125 MB) 3. 3 YES 530082/ 787185/ 16002 sectors ( 258/ 384/ 7 MB) 4. 5 YES 722862/ 594405/ 16002 sectors ( 352/ 290/ 7 MB) 5. 6 YES 4980087/ 4192965/ 257040 sectors ( 2431/ 2047/ 125 MB) 6. 7 YES 4980480/ 4194304/ 262144 sectors ( 2431/ 2048/ 128 MB) 7. 8 YES 4980480/ 4194304/ 260352 sectors ( 2431/ 2048/ 127 MB) 8. 1 NO 1574307/ 787185/ 273105 sectors ( 768/ 384/ 133 MB) 9. 2 NO 4980087/ 1044225/ 257040 sectors ( 2431/ 509/ 125 MB) 10. 6 NO 4980087/ 4192965/ 257040 sectors ( 2431/ 2047/ 125 MB) 11. 7 NO 4980480/ 4194304/ 262144 sectors ( 2431/ 2048/ 128 MB) 12. 8 NO 4980480/ 4194304/ 260352 sectors ( 2431/ 2048/ 127 MB) Pourquoi ce renvoi a help pour synopartition __remove??? Nos messages se sont croisés. # synopartition --help Copyright (c) 2003-2016 Synology Inc. All rights reserved. Usage: synopartition (Version ) --help Show this help. --list List the partition layout table. --check disk_path(eg./dev/sda) Check the partition layout version. --remove disk_path [part_no] Remove specific partition of disk. Remove all partitions if not specific. --part [--force] disk_path index_of_list(1~14) [logical_size_GB ... 0] Partition the disk with specific layout. If you select layout version less than 6, the logical size will be skip. Else you can assign max to 11 logical partitions size with unit GB and end with 0. If you don't assign logical size parameters, primary data partition will be created instead. Please note the index of list may modified in future.
  21. Toutes les commandes sont bien passées en tant que root
  22. Les infos que j’ai communiquées ne semblent pas assez claires ou trop dispersées, donc un petit résumé : Nas 1815 DSM 6.0.2-8451 Update 2 (en BTRFS) 5 WD Red 6To (3 en services & 2 nouveaux) Sur les 2 nouveaux (sans autre intervention préalable) test avec succès dans le Nas (dd if=/dev/zero of=/dev/sdx bs=1M) grep "sd." /proc/partitions donne alors (sdx sdx1 sdx2 sdx5) pour les 3 en service et sdd sde pour les 2 nouveaux La remise à 0 de la table de partition (synopartition ––remove /dev/sdx) de ces 2 disques échoue (renvoi a l’aide) De meme sfdisk -N 1 -o 2048 -z 4980480 -t fd /dev/sdd (renvoi : get disk fail et get prévious partition end ail) Afin de vérifier que cela n’était pas du a l’absence de partition, j’ai formaté le disque d (sous windows, car s’agissant de supprimer des partitions il ne me semble pas que le type de celles-ci soit important) Ceci n’a rien changé (si ce n’est l'apparition de sdd1 et sdd2) Enfin les test SMART sont corrects pour d & e, Les partition des 3 premiers disques étant strictement identiques, l’extension du volume par un 4éme ne m’apportera pas d’infos supplémentaires, La cde parted –list donne : Model: WDC WD60EFRX-68L0BN1 (scsi) Disk /dev/hda: 6001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Model: WDC WD60EFRX-68L0BN1 (scsi) Disk /dev/sda: 6001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Model: WDC WD60EFRX-68L0BN1 (scsi) Disk /dev/sdb: 6001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Model: WDC WD60EFRX-68L0BN1 (scsi) Disk /dev/sdc: 6001GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 6001GB 5996GB raid Model: WDC WD60EFRX-68L0BN1 (scsi) Disk /dev/sdd: 6001GB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Model: WDC WD60EFRX-68L0BN1 (scsi) Disk /dev/sde: 6001GB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Model: Linux Software RAID Array (md) Disk /dev/md0: 2550MB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 2550MB 2550MB ext4 Model: Linux Software RAID Array (md) Disk /dev/md1: 2147MB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 2147MB 2147MB linux-swap(v1) Model: Linux Software RAID Array (md) Disk /dev/md2: 12.0TB Sector size (logical/physical): 512B/512B Partition Table: unknown Disk Flags: Model: Unknown (unknown) Disk /dev/zram0: 312MB Sector size (logical/physical): 4096B/4096B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 312MB 312MB linux-swap(v1) Model: Unknown (unknown) Disk /dev/zram1: 312MB Sector size (logical/physical): 4096B/4096B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 312MB 312MB linux-swap(v1) Model: Unknown (unknown) Disk /dev/zram2: 312MB Sector size (logical/physical): 4096B/4096B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 312MB 312MB linux-swap(v1) Model: Unknown (unknown) Disk /dev/zram3: 312MB Sector size (logical/physical): 4096B/4096B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 312MB 312MB linux-swap(v1) Model: Synology DiskStation (scsi) Disk /dev/synoboot: 126MB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 32.3kB 16.5MB 16.4MB primary boot 2 16.5MB 115MB 98.7MB primary et la cde df (df -h ne fonctionne pas) : Filesystem 1K-blocks Used Available Use% Mounted on /dev/md0 2385528 829528 1437216 37% / none 1013116 4 1013112 1% /dev /tmp 1017304 688 1016616 1% /tmp /run 1017304 2636 1014668 1% /run /dev/shm 1017304 4 1017300 1% /dev/shm none 4 0 4 0% /sys/fs/cgroup /dev/vg1000/lv 11242926244 4615441260 6627484984 42% /volume1 En conclusion, je suis toujours dans le brouillard !
  23. Bonjour. Merci de votre attention. Quelques détails complémentaires: Les 2 disques nouveaux (sdd et sde) sont des WD Red 6To. Il ont été testés avec succès par les commandes dd if=/dev/zero of=/dev/sdd bs=1M & dd if=/dev/zero of=/dev/sde bs=1M La cde grep "s]d." /proc/partitions m'indiquait bien ces deux disques uniquement en sdd et sde (pas de sdd1, sdd2 ...) La cde synopartition --remove /dev/sdx renvoie directement à l'aide. ( synopartition --list également) Le disque sdd après formatage sous windows (avec sdd1 et ssd2) réagit de même J'avais déjà tenté les cde que vous me préconisez: sfdisk -l /dev/sdx renvoie:Error: /dev/sde: unrecognised disk label get disk fail dd if=/dev/zero of=/dev/sdd bs=512 count=1 renvoie:1+0 records in 1+0 records out 512 bytes (512 B) copied, 0.000459022 s, 1.1 MB/s Je précise que les tests smart sont toujours corrects. Je ne voie toujours l'erreur que je commets car selon les commentaires sur le site de Gaetan cette procédure à déjà été appliquée avec succès sur DSM6. Peut être une piste EXT4 d'un coté, btrfs (mon cas) de l'autre? (bien que cela me semble peu probable). Encore merci pour votre interet pour mon cas PS: je vais m'absenter de ce site quelques heures
  24. Alors je vais apprendre à lire. J'arriverai peut-être a comprendre ceci: https://www.cambier.org/2014/12/23/migration-de-shr-1-vers-shr-2/ Je vais patienter en espérant que gaëtan lira ce message. Merci quand meme
  25. Merci de ta réponse Mais je suis désolé de te contredire. La procédure est exposée de façon détaillée par Gaetan Gambier sur son site. D'après les commentaires, certains l'ont utilisée sans problème ( y compris sous DSM 6) C'est pourquoi je ne comprends pas ou est le problème pour moi.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.