Aller au contenu

oracle7

Membres
  • Compteur de contenus

    5559
  • Inscription

  • Dernière visite

  • Jours gagnés

    80

Tout ce qui a été posté par oracle7

  1. @Pascalou59 Bonjour, Tu dois avoir a minima ceux là : Adaptes ndd.tld selon ton domaine. Cordialement oracle7😉
  2. @Dimebag Darrell Bonjour, Dans le cas de speedtest les panels sont assez "standards". Voici un lien temporaire pour les fichiers json des miens si cela t'intéresse : https://1drv.ms/u/s!Aoy5wiA-9lJNuU9zB_OXYO-MJAbg?e=RTW2fB Cordialement oracle7😉
  3. oracle7

    [TUTO] Docker : Introduction

    @Diplo95 Bonjour, J'attire ton attention sur la valeur de cette version, pour certain conteneur "éxotiques" mettre une version trop récente peut poser problème car ces conteneurs peuvent utiliser encore des fonctionnalités qui sont dépréciées avec les nouvelles version de docker-compose. Dans ce cas, il vaut mieux je crois, laisser la version indiquée pour le conteneur. @.Shad. et @EVOTk corrigez moi si je dis une c...ie ou si c'est mal exprimé. PS : Arreeuuhh !!! grillé par @EVOTk 😜 Cordialement oracle7😉
  4. @Dimebag Darrell Bonjour, Désolé, mais je crains que tu mélanges un peu les notions. Dans un dashboard, on ne peut pas dire que l'on utilise un json spécifique. Tu construis ton dashboard comme bon te semble en créant directement tes panels avec tes requêtes spécifiques ou tu en importes des déjà tout faits. A mon sens, il faut mieux voir le fichier json d'un dashboard ou d'un panel comme un moyen d'échange facile. Tu peux exporter ton dashbord dans un fichier json et c'est alors utile pour le communiqué à quelqu'un par exemple. Comme tu peux aussi importer un autre dashboard dans grafana en rechargeant le fichier json correspondant ou encore ajouter des panels particulier à ton dashboard courant en important le fichier json de ces panels (bien qu'il soit plus facile dans ce cas de passer directement par un C/C du panel depuis un dashboard X vers ton dashboard courant). Cordialement oracle7😉
  5. oracle7

    Présentation Thomas

    @overcraft4768 Bienvenue à toi sur ce forum, comme tu l'as constaté, c'est en faisant que l'on apprend le mieux ... J'invite néanmoins à regarder et suivre ces deux TUTOs pour bien démarrer. TUTO : Débuter avec un NAS Synology TUTO : Sécuriser les accès à son NAS Cordialement oracle7😉
  6. oracle7

    Bonjour

    @Clemest Bonjour, Eh bien tant mieux, au moins tu pars sur une bonne base alors. Astuce : Pour avertir un membre de ta réponse, tu tapes dans ton message "@" + les premiers caractères de son pseudo. Dans le popup qui apparaît tu cliques alors sur le pseudo recherché et il s'affiche sur fond bleu dans ton texte. Ainsi ton interlocuteur est informé/notifié de ta réponse sinon il ne voit rien sauf à rebalayer en arrière tous les messages (ce que peu de monde fait). Cordialement oracle7😉
  7. @Pascalou59 Bonjour, Désolé pour toi, effectivement c'est pénible cette limitation à 5 essais. Sinon, on est bien d'accord que ce sont les enregistrements TXT nommés "_acme_challenge.ndd.tld" qu'il faut supprimer dans la zone DNS chez OVH, pas les autres ... Cordialement oracle7😉
  8. oracle7

    Bonjour

    @Clemest Bienvenue à toi sur ce forum. J'invite à regarder et suivre ces deux TUTOs pour bien démarrer. TUTO : Débuter avec un NAS Synology TUTO : Sécuriser les accès à son NAS Cordialement oracle7😉
  9. @FUOLAM Bonjour, Je crains que le problème soit du coté de ton portable et non du NAS puisque tu dis pouvoir y accéder sans problème depuis ta tour. Sinon, comment tu te connectes au NAS avec ce portable : via http(s)://@IPduNAS/TonDossierPartagé ou http(s)://NomNetBiosDuNAS/TonDossierPartagé ? Normalement avec l'@IP cela devrait marcher directement. Enfin, je t'invite à regarder et suivre ces deux TUTOs pour bien démarrer. TUTO : Débuter avec un NAS Synology TUTO : Sécuriser les accès à son NAS Cordialement oracle7😉
  10. @Pascalou59 Bonjour, Sous réserves, je serais tenté de te dire que cette erreur est dûe à la présence d'un enregistrement de type TXT _acme_challenge déjà présent dans ta Zone DNS chez OVH (donc il y a eut probablement un problème à un moment donné et il n'a pas été supprimé automatiquement). Normalement il ne doit pas en exister. Ce type d'enregistrement est créé juste le temps de la vérification de l'authentification du domaine par LE puis il est supprimé. Je t'invite donc à vérifier cela dans ta zone DNS chez OVH et relance le processus (attention 5 essais maxi par semaine au delà tu seras bloqué pour une semaine complète !). Cordialement oracle7😉
  11. @Dimebag Darrell Bonjour, Bah, voilà avec un peu de persévérance tu y es arrivé, bravo 🤗👍 Si cela peut te rassurer, si le conteneur fonctionne, c'est que ton fichier config.ini fonctionne lui aussi. Cordialement oracle7😉
  12. @Dimebag Darrell Bonjour, Oups, je viens de m'apercevoir que j'ai fait un double C/C de la commande en question. Je corrige et voici la bonne commande : docker build -f Dockerfile --rm --tag speedtest2 . Cordialement oracle7😉
  13. @Dimebag Darrell Bonjour, Avant de lancer la création du conteneur speedtest avec le docker-compose, as-tu bien créée la nouvelle image speedtest2 avec la commande : docker build -f Dockerfile --rm --tag speedtest2 . Puis vérifier qu'elle existait bien avec la commande : docker image ls Cordialement oracle7😉
  14. @Dimebag Darrell Bonjour, Tu dois rater un truc quelque part, aussi pour prolonger la précédente recommandation de @Jeff777 qui a tout à fait raison, je te propose si tu veux bien de bien nettoyer/supprimer tout ce qui concerne speedtest (images, conteneur, etc ...) et de reprendre la procédure dans l'ordre en utilisant uniquement un fichier docker-compose bien formaté. Par rapport à la procédure de @bruno78 dans son post du 07/01 (page 22) il faut juste commencer par créer la BD sous influxdb telle que : Cordialement oracle7😉
  15. @TuringFan Bonjour, Je ne te comprends plus, relis ton post du 25/04 ... Oui c'est évident, les snapshot sont considérés comme d'autres données (films, Photo, etc ...), non ? Là cela me paraît pour le coup moins évident, (en fait je ne sais pas trop pas assez connaisseur pour le coup). Cordialement oracle7😉
  16. @Dimebag Darrell Bonjour, Ne serait-ce pas la variable "TZ" valeur = "Europe/Paris" ? Mais pourquoi passes-tu par l'interface Docker de DSM, il est plus simple d'utiliser le fichier docker-compose.yml, non ? Maintenant c'est toi qui voit ... Pour mémoire : Le premier "speedtest.tar" par rapport à la version originelle, permettait de ne pas à avoir à spécifier l'administrateur admin et son Mdp dans le fichier config.ini mais un autre utilisateur "lambda". Il corrigeait l'image de base dans ce sens. Le second fichier "speedtest.tar", apporte lui un "fix" suite à une évolution de l'image de base. C'est pour cela, avec ce "fix" on doit reconstruire l'image une nouvelle fois. Cordialement oracle7😉
  17. @TuringFan Bonjour, Je peux me tromper mais je crois que l'on a affaire ici à deux visions bien différentes dont l'usage est aussi bien différent : Le snapshot qui porte bien son nom et qui n'est pour moi qu'une photo instantanée du système et que s'assimilerais ni plus ni moins à la création d'un point de restoration sous Windows. De plus, pour moi ce n'est pas une sauvegarde à part entière dans la mesure (et c'est son défaut quelque part) elle se fait en local sur le même support. Elle n'a donc qu'une finalité ponctuelle. La sauvegarde pure et dure réalisée par Hyperbackup sur un autre support (quelqu'il soit sur disque USB externe ou Disques distants). Là, la finalité est pour moi bien plus sécurisante et correspond exactement à ce que l'on entend quand on parle de sauvegarde : sécuriser une copie des données actuelles sur un support externe. Du coup, chacune répond à un besoin bien spécifique. Pour la solution 2 quant à l'exécuter toutes les heures, cela me paraît un peu (beaucoup) exagéré sauf si tes données (dont celles les plus récentes) sont capitales pour ton fonctionnement. Mais si ce sont des photos de familles, vidéos etc... une sauvegarde toutes les semaines me paraît amplement suffisante. Sans parler de "l'occupation" du réseau et des ressources CPU du NAS que cela engendre ainsi que de l'activité disque intense générée qui diminue aussi la durée de vie de tes disques par ex. Pour la solution 4 du backup en continu, cela relève plutôt de données dites "stratégiques" pour une entreprise, pour un particulier c'est plus que discutable, non ? En plus, si d'aventure tes données venaient à être corrompues alors ta sauvegarde le serait immédiatement aussi. Mais ce n'est que mon avis ... Les autres intervenants sus-cités auront sûrement d'autres arguments. C'est juste ma vision des choses. Cordialement oracle7😉
  18. @Jeff777 Bonjour, Effectivement tu as raison on peut très bien conserver le dossier speedtest. J'avais personnellement simplement séparer les choses pour conserver la version initiale au cas où et ne pas mélanger les fichiers vu que certains sont différents et ne sont pas renommés. Cordialement oracle7😉
  19. @Dimebag Darrell Bonjour, A tout hasard, lorsque tu installes speedtest la première fois, tu travailles avec un répertoire "/volume1/docker/speedtest". Mais quand tu appliques le "fix" de @bruno78 il te faut alors travailler avec un répertoire "/volume1/docker/speedtest2" et y mettre les nouveaux fichiers (config.ini et docker-compose.yml correspondant de l'image speedtest2). Sauf erreur de ma part, la nuance est importante. Enfin je crois... Cordialement oracle7😉
  20. @YanHulbert Bonjour, Vu que tu utilises le port 25 pour tes envois/réception d'eMAILs, saches qu'Orange ignore toutes les communications arrivant sur le port 25 si elles ne viennent pas d'un réseau Orange. En clair Orange bloque le port 25. Ceci pouvant expliquer cela et donc tes soucis d'envoi d'eMails via le routeur 4G. Mais je peut me tromper ... C'est pour cela aussi que je t'ai dis qu'il fallait passer par le relai SMTP d'Orange pour envoyer/recevoir des eMails via le réseau Orange. Cordialement oracle7😉
  21. @YanHulbert Bonjour, Quand tu faisais tes tests d'envoi, es-tu sûr que ta connexion ADSL Free n'était pas tombée au profit de la connexion 4G Orange ? Au quel cas pour envoyer des eMails via Orange il faut passer impérativement par le smtp.orange.fr et le port 587 et TLS/SSL activé seulement si ton compte eMail l'impose avec aussi un compte eMail Orange valide, cela va de soit. Du coup, si tes notifications sont définies dans DSM sur un compte Free correspondant à ta connexion ADSL Free principale, cela ne marchera pas (les notifications s'entend) lorsque tu basculeras sur la connexion 4G "de secours" qui elle attaque un compte Orange . Manifestement et sauf erreur de ma part, Synology DSM ne permet pas de configurer un second compte eMail pour les notifications DSM, du moins je n'ai pas cette connaissance. Tout cela même si on peux définir par ailleurs, plusieurs comptes eMail pour un même utilisateur (Menu Perso du bonhomme en haut à droite du bureau DSM). Cordialement oracle7😉
  22. @Dimebag Darrell Bonjour, IL n'y a pas de question "bête". Attention quand même, les fichiers Dockerfile et speedtest.py ne servent que lorsque tu crées la nouvelle image speedtest2. Après ils ne sont plus d'aucune utilité. Le fichier "config.ini" doit se trouver dans le MEME répertoire que le docker-compose.yml du conteneur speedtest2. Que je saches tu ne peux les séparer vu la configuration retenue. C'est le pourquoi du "./config.ini" dans la section volumes où le "./" signifie "le même répertoire" qui contient le docker-compose. C'est de la notation UNIX/LINUX de base ... Maintenant tu pourrais très bien aussi mettre le fichier "config.ini" ailleurs par ex dans : "/volume1/mondossier/monsousdossier/" mais cela n'aurait pas de sens en tout cas pas cohérent. Mais c'est toi qui voit ... Oui pas de soucis, c'est ce qu'il faut faire pour que chaque conteneur trouve bien ses "petits" à la réserve d'indiquer correctement les chemins respectifs aux sous-répertoires respectif dans la section volumes de chaque conteneur. A coté de cela, si tu utilises un docker-compose "commun" à ces trois applications, il vaut mieux sauf erreur de ma part, mettre ce fichier "docker-compose.yml" dans un répertoire spécifique nommé comme tu le veux (par ex "monitoring" comme dans le TUTO). Cordialement oracle7😉
  23. @Dimebag Darrell Bonjour, J'ai édité entre temps ma précédente réponse. Ton docker-compose me semble presque correct mais il te manque la variable d'environnement TZ sinon tu auras des décalages de valeurs : environment: - TZ=Europe/Paris et pour container_name c'est speedtest2 et pas speedtest. Vérifies aussi tes indentations : avec que des blancs pas de tabulations ! J'ai une architecture un peu différente (tous mes scripts d'installation sont dans un répertoire spécifique qui contient un dossier spécifique à chaque conteneur ou groupe de conteneurs (comme monitoring pour le triplet ITG): /volume1/docker/scripts_instal/speedtest2 config.ini docker-compose.yml /volume1/docker/speedtest Dockerfile speedtest.py Cordialement oracle7😉
  24. @Dimebag Darrell Bonjour, Le message d'erreur me semble clair, vérifies le chemin que tu as donné. Sinon je te propose de regarder en page 22 du présent post mon message du 30/03 où j'ai donné la procédure complète qui marche chez moi. Edit : Utilises-tu bien le nouveau fichier "Dockerfile" fournit dans le fichier "speedtest_fix.tar" de @bruno78 ? Cordialement oracle7😉
  25. @Dimebag Darrell Bonjour, Pour ta gouverne, dans tes réponses, il n'est pas nécessaire de re citer le post précédant dans sa totalité, ce serait bien que tu ne cites que la partie à la quelle tu réponds, cela surcharge moins les posts et ils sont plus faciles à lire. Merci. Si tu as fait un docker-compose spécifique pour speedtest2 alors soit tu laisses docker créer/associer un sous-réseau (ave une @IP "quelconque" au conteneur sinon tu définis toi même de façon externe le network à utiliser par ex "data_export" en fixant l'@IP de ton choix au conteneur. Dans ce derier cas, et veilles à ce que ce sous-réseau ne soit pas non plus déjà utilisé par un autre conteneur. Pour cela regarde le TUTO Introduction à Docker @.Shad. l'a très expliqué comment faire. Par contre si tu as adjoint le service spedtest2 au docker-compose du triplet InfluxTelegrafGrafana alors tu dois utiliser le network "monitoring" de celui-ci. Au final il te faut juste rester cohérent au niveau network ... Sinon pour les deux entrées network que tu évoques, elles permettent de dire pour la première que tu utilises le network "data_export" et que ton conteneur sera joignable avec l'@IP 172.18.0.5 dans le sous-réseau 172.18.0.0 celui-ci étant alors spécifique au conteneur speedtest2 car non attribué automatiquement par docker). La seconde entrée network quant à elle signifie que le réseau data-export est un réseau bridge qui a été créé de façon externe. Il sera alors "persistant" lorsque tu supprimeras le conteneur sinon le sous-réseau associé au conteneur est détruit et est recréé avec la création du conteneur mais cette fois avec une possible @IP diférente. Donc créer le network en externe te permet de le rendre persistant et ainsi de garder toujours la même @IP pour ton conteneur si besoin en est. Voilà en espérant ne pas avoir été trop confus ... 🤪 Cordialement oracle7😉
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.