Larson Posté(e) le 16 novembre 2023 Posté(e) le 16 novembre 2023 Bonjour, J'ai différents NAS chez un client qui génère beaucoup de datas. L'espace manquant régulièrement, je cherche une méthode simple et propre pour archiver les données ayant plus d'un certain âge. Je comptais utiliser Hyper Backup ou Amazon Glacier pour cela, en sélectionnant un dossier ou ces données datées seraient déplacées (surement via un script). Le problème, c'est qu'il ne me semble pas possible (nativement sur Hyper Backup) de vider ledit dossier une fois l'export effectué vers S3 ou Azure. Idem avec le paquet Amazon Glacier. Le but du jeu étant de ne plus encombrer le NAS avec des données bonnes à archiver. Le client étant dans le médical, nous avons une obligation de conservation très longue. Merci pour votre aide ou vos idées. 😉 0 Citer
.Shad. Posté(e) le 17 novembre 2023 Posté(e) le 17 novembre 2023 Je pense qu'Hyper Backup ne va pas aimer que tu supprimes toutes les données à chaque fois. Quid de rclone ? 0 Citer
Larson Posté(e) le 22 novembre 2023 Auteur Posté(e) le 22 novembre 2023 Du coup, personne n'a de pistes? Personne n'a jamais eu cela à faire? Étonnant. 0 Citer
.Shad. Posté(e) le 23 novembre 2023 Posté(e) le 23 novembre 2023 Comme suggéré précédemment (!), as-tu regardé ce que pourrait faire rclone ? https://rclone.org/install/ 0 Citer
Messages recommandés
Rejoindre la conversation
Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.