Ah, je savais pas que certains nas le pouvaient, merci !
Ça doit être de gros modèles, surement plus chers qu'un 416j qui permettrait aussi d'avoir un volume en raid1 et 2 autres volumes hors raid, non ?
Un seul volume par disque : je n'ai pas de continuité de service si je perds le disque où sont installés les paquets.
Un volume redondé sur les 2 disques : je perds la moitié de l'espace.
Vous avez raison, ça risque d'être embêtant à gérer. Mais le volume en "raid" n'est pas amené à bouger ou à saturer, j'ai prévu 1To pour 200Go de données (et paquets) sur lesquelles je souhaite de la continuité de service.
J'ai avancé avec mes ptits doigts !
J'ai un sda3 de 1To sur mon 2ème disque.
fdisk -l Disk /dev/sda: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID /dev/sda3 9177088 2156660735 2147483648 1T Linux RAID
/dev/sda4 2156660736 7814037134 5657376399 2.6T Linux RAID
Il est dans une array md5, dans laquelle je pourrais mettre la partition sdb3 :
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid1 sdb3[0]
2925444416 blocks super 1.2 [1/1] md5 : active raid1 sda3[0]
1073740800 blocks super 1.2 [1/1]
md1 : active raid1 sda2[0] sdb2[1]
2097088 blocks [2/2] [UU]
md0 : active raid1 sda1[1] sdb1[0]
2490176 blocks [2/2] [UU]
Y'a un PV qui contient md5, un VG qui contient le PV, et un LV qui contient le VG, et tout ça est monté. Vu en ssh, ça semble tout comme le SHR df -h Filesystem Size Used Avail Use% Mounted on
/dev/root 2.4G 874M 1.4G 39% /
/dev/md2 2.7T 1.9T 832G 70% /volume1 /dev/VolGroupRaid1/lvraid1 1008G 899M 1007G 1% /volume5
Mais DSM ne voit pas ce volume. J'en suis à essayer de trouver comment mapper ce volume dans DSM, maintenant. Pour l'instant j'ai un peu de temps et ça me plait, donc je vais chercher encore un peu. Je vous partagerai si je trouve ou pas !
J'ai bien noté vos mises en garde, merci pour vos retours ;)
Flo