Savana Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 Re-bonjours tous le monde ;) Suite à la résolution de doigt de maitre d'un premier problème et suite à l'apparition d'un second me revoilà ! J'ai un disque WD de 2To que j'essaie de 'mount' avec la technique appris hier, mais...ça marche pas. C'est un disque qui à été préparé pas le syno sans problème avec control de parité, j'y ai mis des data puis au redémarrage du syno il m'a trouvé des tonnes de secteur défectueux !? N’arrivant pas y accédé avec le syno je l'ai connecté a mon pc, allez savoir pourquoi !? Puis ayant plus de connaissance de puis hier grâce à ce fofo, je me suis dit tiens je vais réessayé sous linux, mais visiblement comme dans le télépode de la mouche, des infos ce sont perdu... ;) -- commande : mdadm --assemble --force /dev/md22 /dev/sdb5 mount /dev/md22 /mnt/md22 -o ro retour : mount: unknown filesystem type 'LVM2_member' -- Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x000ed7b9 Device Boot Start End Sectors Size Id Type /dev/sdb1 2048 4982527 4980480 2.4G fd Linux raid autodetect /dev/sdb2 4982528 9176831 4194304 2G fd Linux raid autodetect /dev/sdb3 9437184 3907015007 3897577824 1.8T f W95 Ext'd (LBA) /dev/sdb5 9453280 3906822239 3897368960 1.8T fd Linux raid autodetect en rouge ce qui est peut être pas bon ... Si quelqu'un à une idée je suis preneur ;) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 (modifié) mount le raid => ok mount le LVM => pas ok mount le FS => pas possible avant 2 Vois LVM comme un système de fichiers, il faut le "monter" avant de tenter de monter ce qu'il y a dessus, selon les distributions, le faut d'installer LVM suffit, ou pas ... (dans ce cas, vgsan et/ou vgchange) edit : j'ai écrit "mount", mais c'est trompeur, ce n'est pas de la commande dont je parlais mais de l'action Modifié le 11 septembre 2017 par Fenrir 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 merci Fenrir c'est possible de me donner dans l'ordre les commande et la syntaxe que je dois taper ? 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 Si les groupes sont bien détectés : vgscan vgchange -a y 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 root@NAS2:/mnt# vgscan -ash: vgscan: command not found 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 lvm vgscan 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 Reading all physical volumes. This may take a while... Found volume group "vg1000" using metadata type lvm2 lvm vgchange -a y ? maintenant 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 ok, commande suivante 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 root@NAS2:/# lvm vgchange -a y 1 logical volume(s) in volume group "vg1000" now active fdisk -l Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x000ed7b9 Device Boot Start End Sectors Size Id Type /dev/sdb1 2048 4982527 4980480 2.4G fd Linux raid autodetect /dev/sdb2 4982528 9176831 4194304 2G fd Linux raid autodetect /dev/sdb3 9437184 3907015007 3897577824 1.8T f W95 Ext'd (LBA) /dev/sdb5 9453280 3906822239 3897368960 1.8T fd Linux raid autodetect Disk /dev/md22: 1.8 TiB, 1995451858944 bytes, 3897366912 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/md23: 2.4 GiB, 2549940224 bytes, 4980352 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/mapper/vg1000-lv: 1.8 TiB, 1995448516608 bytes, 3897360384 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes mdadm --assemble --force /dev/md123 /dev/sdb5 ? maintenant 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 maintenant tu devrais pouvoir monter ta partition (/dev/lvm/... ou un /dev/mapper/... ou /dev/volxxx ou ..., ça dépend de la distribution) dmesg ou fdisk -l devraient t'indiquer le nom du device 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 root@NAS2:/# mdadm --assemble --force /dev/md123 /dev/sdb5 mdadm: cannot open device /dev/sdb5: Device or resource busy mdadm: /dev/sdb5 has no superblock - assembly aborted distribution, c'est sur un syno 412+ en dsm 6.1.3 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 (modifié) ça c'est déjà fait Il y a 1 heure, Fenrir a dit : monte le raid => ok monte le LVM => pas ok monte le FS => pas possible avant 2 Un truc curieux, je vois tes messages tronqués, puis quand je reviens, il y a plein d'infos en plus ... => mount /dev/mapper/vg1000-lv /mnt/XX edit : LVM ça fonctionne comme ça : Dans ton cas la différence c'est que tu as du raid entre la première et la deuxième ligne Modifié le 11 septembre 2017 par Fenrir 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 root@NAS2:/# mount /dev/md0 on / type ext4 (rw,relatime,journal_checksum,barrier,data=ordered) none on /dev type devtmpfs (rw,nosuid,noexec,relatime,size=501960k,nr_inodes=125490,mode=755) none on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000) none on /proc type proc (rw,nosuid,nodev,noexec,relatime) none on /sys type sysfs (rw,nosuid,nodev,noexec,relatime) /tmp on /tmp type tmpfs (rw,relatime) /run on /run type tmpfs (rw,nosuid,nodev,relatime,mode=755) /dev/shm on /dev/shm type tmpfs (rw,nosuid,nodev,relatime) none on /sys/fs/cgroup type tmpfs (rw,relatime,size=4k,mode=755) cgmfs on /run/cgmanager/fs type tmpfs (rw,relatime,size=100k,mode=755) cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,relatime,cpuset,release_agent=/run/cgmanager/agents/cgm-release-agent.cpuset,clone_children) cgroup on /sys/fs/cgroup/cpu type cgroup (rw,relatime,cpu,release_agent=/run/cgmanager/agents/cgm-release-agent.cpu) cgroup on /sys/fs/cgroup/cpuacct type cgroup (rw,relatime,cpuacct,release_agent=/run/cgmanager/agents/cgm-release-agent.cpuacct) cgroup on /sys/fs/cgroup/memory type cgroup (rw,relatime,memory,release_agent=/run/cgmanager/agents/cgm-release-agent.memory) cgroup on /sys/fs/cgroup/devices type cgroup (rw,relatime,devices,release_agent=/run/cgmanager/agents/cgm-release-agent.devices) cgroup on /sys/fs/cgroup/freezer type cgroup (rw,relatime,freezer,release_agent=/run/cgmanager/agents/cgm-release-agent.freezer) cgroup on /sys/fs/cgroup/blkio type cgroup (rw,relatime,blkio,release_agent=/run/cgmanager/agents/cgm-release-agent.blkio) none on /proc/bus/usb type devtmpfs (rw,nosuid,noexec,relatime,size=501960k,nr_inodes=125490,mode=755) none on /sys/kernel/debug type debugfs (rw,relatime) securityfs on /sys/kernel/security type securityfs (rw,relatime) /dev/md2 on /volume1 type ext4 (rw,relatime,journal_checksum,synoacl,stripe=32,data=writeback,jqfmt=vfsv0,usrjquota=aquota.user,grpjquota=aquota.group) none on /config type configfs (rw,relatime) root@NAS2:/# mdadm --assemble --force /dev/md20 /dev/sdb5 mdadm: cannot open device /dev/sdb5: Device or resource busy mdadm: /dev/sdb5 has no superblock - assembly aborted root@NAS2:/# ********** je n'arrive pas à avancer ... 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Fenrir Posté(e) le 11 septembre 2017 Partager Posté(e) le 11 septembre 2017 Je répète : monte le raid => ça tu l'as déjà fait tout au début avec mdadm --assemble --force /dev/md22 /dev/sdb5 monte le lvm => tu viens de le faire avec lvm vgscan et lvm vgchange -a y monte le système de fichier : mount /dev/mapper/vg1000-lv /mnt/XX (remplace /mnt/XXX par le dossier vide de ton choix) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Savana Posté(e) le 11 septembre 2017 Auteur Partager Posté(e) le 11 septembre 2017 merci Fenrir pour ton aide, je test ça demain à tête reposé ! passe une bonne nuit ;-) 0 Citer Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.