Aller au contenu

Monitoring multiple Active Backup for Business


Messages recommandés

Bonjour la communauté.

Actuellement, nous avons presque une centaine de NAS en production chez nos clients qui sont utilisés principalement pour de la sauvegarde via Active Backup for Business et une sauvegarde Cloud via Hyper Backup.

Le monitoring devient très compliqué via les notifications par email et de plus, il manque certains éléments comme une sauvegarde qui n'a pas été effectuée depuis x jours, par exemple.

Synology Active Insight ne propose pas le monitoring de ces paquets et CMS non plus. 

Nous avons essayé d'utiliser certaines solutions proposées par des utilisateurs, comme l'export de la base de données en CSV pour un retraitement ultérieur. Cependant, la mise en place est très fastidieuse et semble être plutôt un gadget.

Est-ce que vous avez des solutions à proposer (gratuites ou payantes) afin de pouvoir avoir un monitoring complet des NAS en gestion et des sauvegardes mise en place ?

Merci d'avance pour vos retours.

Alexandre

Lien vers le commentaire
Partager sur d’autres sites

  • 3 mois après...

Bonjour arobase.alsace,

Je ne sais pas si mon post va t'aider mais, en cherchant comment monitorer mes sauvegardes ABB je suis tombé sur ta question. Ayant trouvé une solution à mon problème, je viens de créer un compte ici pour apporter un peu d'eau à ton moulin au cas où tu sois à sec.

Mon problème était de vérifier que la dernière sauvegarde de mes VM était réussie pour installer automatiquement les MàJ système de mes VM (oui oui, c'est très criticable je sais). J'ai donc ouvert mon éditeur de texte préféré et ai entammé des recherches. Mes VM étant sous Windows, j'ai choisi de faire du Powershell vu que c'est géré en natif par l'OS.

J'avais déjà trouvé la solution pour les MàJ et ce n'est pas le sujet de ta demande donc passons à la suite.

J'ai appris qu'ABB stockait les résultats de ses sauvegardes dans deux bases de données SQLite, config.db et activity.db, dans le dossier /volumeX/@Active Backup/ et j'ai trouvé directement les requêtes à lancer (source).
En parallèle, j'ai trouvé comment interpreter les valeurs de la colonne status (source).

Par conséquent, il ne me restait plus qu'à faire coïncider le hostname de mes VM avec celui présent dans la base de données activity.db, vérifier la date de la dernière sauvegarde et son status.

Bon, pour consulter la base de données ou simplement pour attaquer le dossier de stockage des bases, il faut se connecter en SSH car le dossier n'est pas exposé via l'interface web. De plus, seuls les utilisateurs du groupe Administrators peuvent se connecter en SSH. Du coup, il faut utiliser une connexion par clé publique / clé privée afin de ne pas stocker un mot de passe dans un script (pas de source pour l'instant car mon script n'integrera cela que dans plusieurs jours).

Pour lancer les requêtes SQL en SSH, rien de plus simple : le NAS dispose des outils sqlite3.

Voici la fin de mon expérience, car moi j'ai tout géré dans un script Powershell mais pour toi qui veut du reporting centralisé, je me dirigerais vers un développeur freelance (sur fiverr par exemple... je n'ai pas d'action chez eux) afin de créer une application web en Python Django qui te fera un joli tableau dans ton navigateur avec le dernier résultat de sauvegarde de tes NAS déportés en clientèle. J'imagine qu'il te faut :

  • du temps pour réaliser un cahier des charges,
  • 1000 à 3000€ de budget
Lien vers le commentaire
Partager sur d’autres sites

Si un script peut stocker toutes les infos sur le NAS, Telegraf peut ensuite via ses plugins (Python, Shell, etc...) en extraire les données et les stocker dans InfluxDB pour les visionner dans Grafana (pour avoir une idée des possibilités, voir mon tutoriel : https://www.nas-forum.com/forum/topic/63273-tuto-monitoring-réseau-telegraf-influxdb-18-grafana/)
Telegraf en lui-même n'inclut pas (encore) d'outil pour extraire le contenu de requêtes sqlite.

 

Lien vers le commentaire
Partager sur d’autres sites

Bonjour .Shad.

Ca va même plus loin, les données sont déjà stockée dans le NAS, elles sont dans activity.db.
De mon côté l'idée sous-jacente était la suivante, on ne stock pas l'information côté NAS mais on l'extrait via SSH pour la stocker dans un monitoring local chez le prestataire (chez arobase.alsace) afin de consolider en un point les résultats des sauvegardes de sa centaine de NAS clients.

Je vais quand même aller lire ton tuto pour ouvrir mes chakras

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.