Aller au contenu

Diplo95

Membres
  • Compteur de contenus

    139
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Diplo95

  1. Bonjour, j'ai moi aussi installé stirling récemment (aujourd'hui en fait 🙂 ) Je n'ai pas eu trop de soucis. J'étais parti du même tuto que toi @PascalFr, pour finalement utiliser le fichier docker-compose.yml que l'on trouve sur le github du projet. J'ai utilisé la version complète. Dans le message que tu as publié, je vois qu'il y a déjà des problèmes : en particulier des messages d'erreur qui arrivent assez vite : Trying to download from: https://github.com/Stirling-Tools/Stirling-PDF/releases/download/v0.22.0/Stirling-PDF-with-login.jar /scripts/init.sh: line 19: usermod: command not found id: unknown user stirlingpdfgroup /scripts/init.sh: line 23: groupmod: command not found Il faut peut-être chercher par ici. Pourrais-tu poster ton fichier docker-compose ?
  2. Bonjour @.Shad., merci de te pencher sur mon problème. APP_PORT : je prends ta remarque, mais j'avoue que je trouve Docker très pratique, mais que je n'ai encore tout compris des rouages du fonctionnement. Donc Joplin fonctionnant parfaitement, pour l'instant je ne creuse pas plus loin, je ne suis pas assez calé en réseau pour être sûr de ne pas répondre une bêtise, j'essaie quand même : je pensais rendre joignable gotify par l'intermédiaire de mon proxy inverse. J'imagine alors que n'importe quelle appli qui souhaite ensuite push des notifications fera appel à ce service par une requête qui passera par le wan. Si c'est le cas, effectivement, ça peut être plus intéressant de ne pas faire sortir ces messages de mon réseau local. J'ai cependant résolu mon problème. Il était dû à ces warnings concernant les containers orphelins. J'ai fait une rapide recherche et découvert que docker compose utilise le nom du dossier dans lequel le docker-compose.yml est situé ici. Ainsi, si on met tous ses docker-compose.yml dans des dossiers qui portent le même nom, docker-compose trouve alors différents projets qui portent le même nom. J'ai résolu en utilisant cette méthode : https://stackoverflow.com/questions/50947938/docker-compose-orphan-containers-warning Dans mon dossier script, j'ai crée un fichier .env dans lequel j'ai inséré une variable d'environnement : COMPOSE_PROJECT_NAME=myproject Et j'ai maintenant un container qui se construit sans intérférer avec le container joplin et une appli qui tourne. Ne me reste plus qu'à me pencher sur la config réseau de mon appli.
  3. Bonjour j'ai un serveur joplin qui fonctionne parfaitement depuis des mois. J'essaie aujoud'hui de monter un serveur de notifications gotify en docker. Mais il semble qu'il y ait un conflit entre les deux, sans que j'arrive à comprendre où. Voici le docker-compose de joplin : version: '3' services: db: image: postgres:13.1 # Download latest postgres image container_name: postgres-db # Here you can give the container a name of your liking restart: unless-stopped # Restart if not stopped manually volumes: - /volume1/docker/joplin/joplin-data:/var/lib/postgresql/data # Make database files persistent. Otherwise your data is lost when the container is destroyed. environment: - APP_PORT=22300 # Specify port joplin-server is reachable at - POSTGRES_PASSWORD=****** # Specify database password - POSTGRES_USER=****** # Specify database user - POSTGRES_DB=joplin # Specify database name app: image: joplin/server:latest # Download joplin-server image 2.2.5 the latest at the time container_name: joplin-server labels: - com.centurylinklabs.watchtower.enable=true depends_on: - db ports: - "22300:22300" # Expose internal port to LAN restart: unless-stopped environment: - APP_BASE_URL=https://joplin.**********.fr # If you do not want to expose joplin-server to the internet use your LAN-IP and port - DB_CLIENT=pg - POSTGRES_PASSWORD=****** # Must be the same as above - POSTGRES_DATABASE=joplin # Must be the same as above - POSTGRES_USER=******* # Must be the same as above - POSTGRES_PORT=5432 # Postgres internal port - POSTGRES_HOST=db Voici le docker-compose du serveur gotify : version: "3" services: app: image: gotify/server container_name: gotify restart: unless-stopped ports: - 127.0.0.1:8764:80 environment: - TZ='Europe/Paris' - GOTIFY_DEFAULTUSER_NAME=admin - GOTIFY_DEFAULTUSER_PASS=admin - GOTIFY_PASSSTRENGTH=10 - GOTIFY_UPLOADEDIMAGESDIR=data/images - GOTIFY_PLUGINSDIR=data/plugins volumes: - ./data:/app/data Lorsque j'essaie de monter le conteneur gotify, voici le retour en ligne de commandes : root@DS220:/volume1/docker/gotify/script# docker-compose up -d [+] Running 5/5 ⠿ app Pulled 9.3s ⠿ 00d3338ddf14 Pull complete 3.5s ⠿ 557ea8465e9a Pull complete 4.6s ⠿ 3ecb6f16884e Pull complete 5.5s ⠿ 793754435704 Pull complete 6.6s WARN[0009] Found orphan containers ([sabnzbd sonarr radarr jellyfin postgres-db watchtower]) for this project. If you removed or renamed this service in your compose file, you can run this command with the --remove-orphans flag to clean it up. [+] Running 1/2 ⠿ Container joplin-server Recreated 39.9s ⠼ Container gotify Starting 6.4s Error response from daemon: driver failed programming external connectivity on endpoint gotify (a9b441ca577a1716274272aca0f4d30b8df97e992610938065568ad31b04d1fa): Error starting userland proxy: listen tcp4 127.0.0.1:8000: bind: address already in use root@DS220:/volume1/docker/gotify/script# Et donc je constate qu'il me recrée l'image joplin, et je ne sais pas pourquoi. Plus problématique : en fait, il le recrée, mais ça plante : je ne peux plus synchroniser avec les clients joplin. J'ai pensé à un problème de ports, alors j'ai cherché des conflits : root@DS220:/volume1/docker/gotify/script# netstat -tulpn | grep LISTEN tcp 0 0 0.0.0.0:662 0.0.0.0:* LISTEN 10076/statd tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 9150/sshd: /usr/bin tcp 0 0 127.0.0.1:33304 0.0.0.0:* LISTEN 2004/synomibactiono tcp 0 0 127.0.0.1:5432 0.0.0.0:* LISTEN 20407/postgres tcp 0 0 0.0.0.0:443 0.0.0.0:* LISTEN 15980/nginx: master tcp 0 0 0.0.0.0:892 0.0.0.0:* LISTEN 10052/mountd tcp 0 0 0.0.0.0:8989 0.0.0.0:* LISTEN 501/docker-proxy tcp 0 0 0.0.0.0:445 0.0.0.0:* LISTEN 13522/smbd tcp 0 0 0.0.0.0:8096 0.0.0.0:* LISTEN 419/jellyfin tcp 0 0 127.0.0.1:512 0.0.0.0:* LISTEN 29315/termd tcp 0 0 0.0.0.0:8000 0.0.0.0:* LISTEN 29198/docker-proxy tcp 0 0 0.0.0.0:2049 0.0.0.0:* LISTEN - tcp 0 0 127.0.0.1:161 0.0.0.0:* LISTEN 10516/snmpd tcp 0 0 0.0.0.0:9090 0.0.0.0:* LISTEN 3325/docker-proxy tcp 0 0 0.0.0.0:6690 0.0.0.0:* LISTEN 5194/syncd tcp 0 0 0.0.0.0:9091 0.0.0.0:* LISTEN 18872/transmission- tcp 0 0 0.0.0.0:10211 0.0.0.0:* LISTEN 26005/docker-proxy tcp 0 0 0.0.0.0:10212 0.0.0.0:* LISTEN 25963/docker-proxy tcp 0 0 0.0.0.0:7878 0.0.0.0:* LISTEN 32194/docker-proxy tcp 0 0 0.0.0.0:9000 0.0.0.0:* LISTEN 29171/docker-proxy tcp 0 0 0.0.0.0:5000 0.0.0.0:* LISTEN 15980/nginx: master tcp 0 0 0.0.0.0:5001 0.0.0.0:* LISTEN 15980/nginx: master tcp 0 0 0.0.0.0:139 0.0.0.0:* LISTEN 13522/smbd tcp 0 0 0.0.0.0:5357 0.0.0.0:* LISTEN 15980/nginx: master tcp 0 0 0.0.0.0:4045 0.0.0.0:* LISTEN - tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 7439/rpcbind tcp 0 0 0.0.0.0:8080 0.0.0.0:* LISTEN 3351/docker-proxy tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 15980/nginx: master tcp 0 0 0.0.0.0:10002 0.0.0.0:* LISTEN 15980/nginx: master tcp 0 0 127.0.0.1:915 0.0.0.0:* LISTEN 23389/httpd24 tcp 0 0 0.0.0.0:51413 0.0.0.0:* LISTEN 18872/transmission- tcp6 0 0 :::662 :::* LISTEN 10076/statd tcp6 0 0 :::22 :::* LISTEN 9150/sshd: /usr/bin tcp6 0 0 :::3001 :::* LISTEN 23745/AdGuardHome tcp6 0 0 :::443 :::* LISTEN 15980/nginx: master tcp6 0 0 :::892 :::* LISTEN 10052/mountd tcp6 0 0 :::8989 :::* LISTEN 506/docker-proxy tcp6 0 0 :::3261 :::* LISTEN - tcp6 0 0 :::445 :::* LISTEN 13522/smbd tcp6 0 0 :::3263 :::* LISTEN - tcp6 0 0 :::8000 :::* LISTEN 29203/docker-proxy tcp6 0 0 :::3264 :::* LISTEN - tcp6 0 0 :::3265 :::* LISTEN 5859/scsi_plugin_se tcp6 0 0 :::2049 :::* LISTEN - tcp6 0 0 :::9090 :::* LISTEN 3331/docker-proxy tcp6 0 0 :::6690 :::* LISTEN 5194/syncd tcp6 0 0 :::10211 :::* LISTEN 26020/docker-proxy tcp6 0 0 :::10212 :::* LISTEN 25969/docker-proxy tcp6 0 0 :::7878 :::* LISTEN 32200/docker-proxy tcp6 0 0 :::9000 :::* LISTEN 29177/docker-proxy tcp6 0 0 :::5000 :::* LISTEN 15980/nginx: master tcp6 0 0 :::5001 :::* LISTEN 15980/nginx: master tcp6 0 0 :::139 :::* LISTEN 13522/smbd tcp6 0 0 :::5005 :::* LISTEN 17507/httpd tcp6 0 0 :::5357 :::* LISTEN 15980/nginx: master tcp6 0 0 :::4045 :::* LISTEN - tcp6 0 0 :::5006 :::* LISTEN 17507/httpd tcp6 0 0 :::111 :::* LISTEN 7439/rpcbind tcp6 0 0 :::8080 :::* LISTEN 3360/docker-proxy tcp6 0 0 :::80 :::* LISTEN 15980/nginx: master tcp6 0 0 :::10002 :::* LISTEN 15980/nginx: master tcp6 0 0 :::51413 :::* LISTEN 18872/transmission- tcp6 0 0 :::53 :::* LISTEN 23745/AdGuardHome root@DS220:/volume1/docker/gotify/script# Mais il n'y a rien qui me saute aux yeux. Une petite idée ? Merci
  4. @Einsteinium, @oracle7 Bonjour, pour mon cas personnel, en changeant dans le fichier account.conf les variables SAVED_SYNO_Username et SAVED_SYNO_Password en respectivement SYNO_Username et SYNO_Password, je n'ai plus aucun message d'erreur, le déploiement se fait à nouveau. En toute humilité, je pense comme @Eridani78 qu'il faudrait modifier le tuto.
  5. @oracle7 Je comprends toutes les remarques que tu me fais et elles sont toutes cohérentes. MAIS : tout fonctionnait à merveille depuis des mois avec la configuration que j'avais. Je sais que ce n'est pas un argument recevable lorsque soudainement ça bugge, et c'est donc l'occasion de repartir sur des bases plus saines. 1. Je suis d'accord avec tes remarques. Cependant, je ne me rappelle plus pourquoi j'avais dû adapter le fichier account.conf à l'époque. J'ai changé les ports d'accès à mon NAS en suivant les très bons tutos trouvés sur ce forum. Je pense que tu as raison pour le port 443 : c'est l'unique port d'entrée à mon NAS, mais depuis l'extérieur uniquement, grâce à l'utilisation du reverse proxy. Je vais revoir cet aspect. 2. Je vais donc essayer en enlevant tous les caractères spéciaux. Mais encore une fois, tout fonctionnait bien jusqu'à il y a quelques jours. Est-ce que ça ne baisse pas le niveau de protection du mot de passe ? 3. J'ai bien lu le tuto, et plusieurs fois. Je ne comprends toujours pas l'utilité du docker-compose.yml. En effet, n'est-ce pas la tache planifiée quotidienne qui crée le docker ?
  6. Merci @oracle7 de te pencher sur mon problème. J'aurais dû rentrer en peu plus dans les détails : 1. Pour le AUTOUPGRADE : Je ne savais pas. Cependant, après avoir défini la tâche paramétrable comme ceci : docker pull neilpang/acme.sh:3.0.5 docker stop Acme docker rm Acme docker image prune -f docker volume ls -qf dangling=true | xargs -r docker volume rm docker run -d --cpu-shares=10 --memory=134217728 --name=Acme -v /volume1/docker/Acme:/acme.sh:rw --restart always neilpang/acme.sh:latest daemon et changé account.conf comme ceci : LOG_FILE="/acme.sh/acme.sh.log" LOG_LEVEL=1 AUTO_UPGRADE='0' #NO_TIMESTAMP=1 USER_PATH='/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin' SAVED_OVH_AK='**************' SAVED_OVH_AS='*************************' SAVED_OVH_CK='**************************' DEFAULT_ACME_SERVER='https://acme-v02.api.letsencrypt.org/directory' SAVED_SYNO_Scheme='http' SAVED_SYNO_Hostname='192.168.*.*' SAVED_SYNO_Port='443' SAVED_SYNO_Username='*******************' SAVED_SYNO_Password='*********************' SAVED_SYNO_DID='' SAVED_SYNO_Certificate='ACME_Wilcard_LE_*.*************.fr' UPGRADE_HASH='***************************************' lorsque je lance manuellement la tache, je m'attends donc à avoir la version 3.0.5 du script acme.sh. Or : 2. J'ai lu comme toi le message d'erreur et j'ai bien vérifié les variables du fichier account.conf -> elles sont correctes et ne créaient pas d'erreur jusque là. J'ai un doute sur un caractère que j'ai utilisé dans mon MDP : '&' . En effet, dans mon message d'erreur, il recopie le mot de passe après ce caractère. Peut être est un caractère qui induit une particularité, y compris entre ' '. 3. J'aurais dû être beaucoup plus précis en effet. Je trouve bien le fichier docker-compose en première page du post (d'ailleurs comment sais tu que je porte effectivement des lunettes 🙂 ). Je ne le retrouve par contre dans aucun de mes dossiers sur le NAS.
  7. Bonjour à tous, j'ai un soucis lors du renouvellement de mon certificat depuis quelques jours. J'ai lu les commentaires récents et je l'attribue donc éventuellement au déploiement de la version 3.0.6 du script Acme. Tout d'abord, voici mon message d'erreur : Le planificateur de tâches a terminé une tâche planifiée. Tâche : RenewCertifLE_Docker Heure de début : Sun, 05 Feb 2023 05:00:01 GMT Heure d'arrêt : Sun, 05 Feb 2023 05:00:02 GMT État actuel : 1 (Interrompu) Sortie/erreur standard : /usr/local/bin/acme.sh: eval: line 2401: **************: not found [Sun Feb 5 04:00:02 UTC 2023] SYNO_Username & SYNO_Password must be set [Sun Feb 5 04:00:02 UTC 2023] Error deploy for domain:gpointeau.fr [Sun Feb 5 04:00:02 UTC 2023] Deploy error. Il se trouve que les ************* correspondent à une partie de mon mot de passe pour accéder au compte créé exclusivement pour le renouvellement de mon certificat Let's Encrypt. Je rajoute que ce renouvellement se passait sans aucun soucis jusqu'à maintenant. Pour faire un test, je souhaite donc revenir à la version 3.0.5 du script Acme. C'est là que mes lacunes apparaissent. J'ai suivi le tuto de la première page, mais je ne trouve plus le fichier docker-compose.yml en Cbis. Je pense donc que j'ai dû faire uniquement la partie C. J'ai donc modifié la tache récurrente en : docker pull neilpang/acme.sh:3.0.5 docker stop Acme docker rm Acme docker image prune -f docker volume ls -qf dangling=true | xargs -r docker volume rm docker run -d --cpu-shares=10 --memory=134217728 --name=Acme -v /volume1/docker/Acme:/acme.sh:rw --restart always J'ai lancé manuellement cette tâche, mais la version du script reste toujours la même : 3.0.6. Pouvez-vous m'expliquer comment revenir à la version 3.0.5 svp ? Merci
  8. Bonjour @.Shad. si je suis ta procédure, le dossier se monte correctement. Le problème est dans le montage automatique au démarrage.
  9. Merci @.Shad., je suis en déplacement en ce moment. J'essaierai dès que possible.
  10. J'ai bien des services qui portent ces noms : ... network-online.target network-pre.target network.target ...
  11. Je rencontre un autre problème : au boot, le dossier ne se monte pas automatiquement. Voici le message d'erreur dans journalctl -u media-greg-DonneesPartagees.mount : sept. 19 22:18:07 greg-nuc systemd[1]: Mounting cifs mount for DonneesPartagees shared folder... sept. 19 22:18:07 greg-nuc mount[1150]: mount error(101): Network is unreachable sept. 19 22:18:07 greg-nuc mount[1150]: Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log messages (dmesg) lines 1-38 Je vous remets le fichier media-greg-DonneesPartagees.mount : [Unit] Description = cifs mount for DonneesPartagees shared folder Requires=network-online.target After=network-online.target [Mount] What=//192.168.1.4/DonneesPartagees Where=/media/greg/DonneesPartagees Type=cifs Options=uid=1000,gid=1000,credentials=/home/greg/.synology/ds220,vers=2.0 [Install] WantedBy=multi-user.target Je ne comprends pas pourquoi il n'attend pas que le réseau s'initialise. J'ai pourtant bien inséré les lignes Requires et After. Une idée ? Merci.
  12. Oups, non ! Il faut donc mettre comme protocole maximum SMB 3 j'imagine. Mais pour le minimum ? Est ce qu'il y a des versions de SMB obsolètes présentant un risque, ou bien, on peut laisser SMB1 ? Merci
  13. Bonjour à tous, je me joins à la discussion car je rencontre un problème lorsque je tente de monter un dossier partagé sur mon DS220+ sur mon PC avec Ubuntu 22.04. Mon but : monter le dossier volume1/DonneesPartagees de mon NAS sur mon PC J'ai donc suivi le tuto : 1 : j'ai supprimé la ligne dans /etc/fstab (et oui, j'avais aussi commencé par cette méthode) 2: j'ai créé un fichier ds220 à l'emplacement /home/greg/.synology j'ai rempli les noms d'utilisateurs et password nécessaires pour me connecter à la session propriétaire du dossier partagé 3 : j'ai ensuite créé le fichier /etc/systemd/system/media-greg-ds220.mount [Unit] Description = cifs mount for DonneesPartagees shared folder Requires=network-online.target After=network-online.target [Mount] What=//192.168.1.4/volume1/DonneesPartagees Where=/media/greg/ds220 Type=cifs Options=uid=1000,gid=1000,credentials=/home/greg/.synology/ds220 [Install] WantedBy=multi-user.target Lorsque je teste le montage, j'ai ce résultat : greg@greg-nuc:~/.synology$ sudo systemctl start media-greg-ds220.mount && sudo systemctl status media-greg-ds220.mount Job failed. See "journalctl -xe" for details. greg@greg-nuc:~/.synology$ sudo journalctl -u media-greg-ds220.mount sept. 19 16:02:02 greg-nuc systemd[1]: Mounting cifs mount for DonneesPartagees shared folder... sept. 19 16:02:02 greg-nuc mount[9849]: mount: /media/greg/ds220: bad option; for several filesystems (e.g. nfs, cifs) you might need a /sbin/mount.<type> helper program. sept. 19 16:02:02 greg-nuc systemd[1]: media-greg-ds220.mount: Mount process exited, code=exited, status=32/n/a sept. 19 16:02:02 greg-nuc systemd[1]: media-greg-ds220.mount: Failed with result 'exit-code'. sept. 19 16:02:02 greg-nuc systemd[1]: Failed to mount cifs mount for DonneesPartagees shared folder. sept. 19 16:09:21 greg-nuc systemd[1]: Mounting cifs mount for DonneesPartagees shared folder... sept. 19 16:09:21 greg-nuc mount[10516]: mount error(95): Operation not supported sept. 19 16:09:21 greg-nuc mount[10516]: Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log messages (dmesg) sept. 19 16:09:21 greg-nuc systemd[1]: media-greg-ds220.mount: Mount process exited, code=exited, status=32/n/a sept. 19 16:09:21 greg-nuc systemd[1]: media-greg-ds220.mount: Failed with result 'exit-code'. sept. 19 16:09:21 greg-nuc systemd[1]: Failed to mount cifs mount for DonneesPartagees shared folder. sept. 19 16:26:42 greg-nuc systemd[1]: Mounting cifs mount for DonneesPartagees shared folder... sept. 19 16:26:42 greg-nuc mount[11447]: mount error(95): Operation not supported sept. 19 16:26:42 greg-nuc mount[11447]: Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log messages (dmesg) sept. 19 16:26:42 greg-nuc systemd[1]: media-greg-ds220.mount: Mount process exited, code=exited, status=32/n/a sept. 19 16:26:42 greg-nuc systemd[1]: media-greg-ds220.mount: Failed with result 'exit-code'. sept. 19 16:26:42 greg-nuc systemd[1]: Failed to mount cifs mount for DonneesPartagees shared folder. greg@greg-nuc:~/.synology$ J'ai installé cifs-utils, mais ça ne résout pas mon problème. Auriez-vous une idée du problème ? EDIT : J'ai trouvé la solution. L'erreur 95 renvoie visiblement un problème de version du protocole SMB. Il faut rajouter la version 2.0 dans les options pour lancer "le montage" : <code> [Unit] Description = cifs mount for DonneesPartagees shared folder Requires=network-online.target After=network-online.target [Mount] What=//192.168.1.4/DonneesPartagees Where=/media/greg/ds220 Type=cifs Options=uid=1000,gid=1000,credentials=/home/greg/.synology/ds220,vers=2.0 [Install] WantedBy=multi-user.target </code>
  14. Je n'ai pas la possibilité de le répéter tous les deux mois : j'ai tous les mois, ou ensuite tous les 3 mois. Comment faites-vous pour personnaliser la fréquence ?
  15. Bonjour @Einsteinium, j'ai tenté d'utiliser le script python pour le renouvellement de mon certificat, mais ça s'est soldé par un échec à chaque fois. Ayant entre temps basculé sur DSM 7, j'ai donc décidé de basculer sur la méthode par docker. J'ai sauté le pas ce jour. Il m'a fallu environ 3 heures pour arriver au bout du tuto. En effet, j'ai buté longtemps sur deux points : Lors de l'édition du fichier account.conf : malgré le fait de l'avoir créé dans notepad++, les sauts de ligne n'étaient pas correctement codés, générant des erreurs de création de certificats chez OVH. Le symptôme était ce message d'erreur : Les lignes en question étant les lignes ne comportant qu'un saut de ligne. J'ai aussi rencontré beaucoup de difficultés pour résoudre les problèmes d'identification lors du lancement de la commande suivante : docker exec Acme sh -c "acme.sh --deploy -d 'mydomain.com' --deploy-hook synology_dsm" En effet, il a fallu que je m'y reprenne à plusieurs fois pour effectivement supprimer la vérification en 2 étapes pour le compte que j'ai créé spécialement pour le renouvellement. Maintenant, je me pose des questions pour l'automatisation du certificat. Si je comprends bien le tuto, il faut créer deux taches : Une pour la création du conteneur : point 2.C Une pour le renouvellement du certificat : point 2.D Mais à quelle fréquence faut-il les déclencher dans le planificateur ? Tous les jours, tous les mois ? En tout cas, merci pour le boulot !
  16. Merci @.Shad. Premièrement désolé pour la réponse tardive à ta réponse : j'ai été pris par d'autres projets puis les congés sont arrivés... Deuxièmement, j'ai une autre question 🙂. Alors que j'avais mis à jour des conteneurs, j'ai finalisé l'installation par un petit nettoyage, comme il est souvent préconisé sur les tutos que l'on trouve sur le net. J'ai donc tapé la commande : docker image prune Il se trouve que ça a bien fait le nettoyage demandé, mais ça m'a aussi désinstallé des images qui étaient utilisées et à jour. Il me semble que c'est en rapport avec des images "orphelines". Qu'est-ce qu'un conteneur orphelin ? Merci
  17. Bonjour, il y a encore quelques notions qui m'échappent sur Docker. En effet, après une mise à jour d'images un peu hasardeuse, je me suis retrouvé avec quelques applications ayant disparues. J'ai donc relancé tous mes conteneurs grâce aux fichiers docker-compose que j'avais créés (et pour le coup, je suis bluffé par la facilité que Docker permet réinstaller rapidement des applications !). Par contre j'ai fait la liste des images et celles des conteneurs et il y a quelque chose qui m'échappe : J'ai des images en double, voir triple. Est-ce que je peux les effacer ? Merci
  18. Bonjour, j'ai eu le même problème et je pense que ça vient de la création des key chez OVH : as-tu bien choisi la validité "unlimited" au point 3.1 du tuto : création des clés OVH ? J'ai résolu mon problème en recommençant cette étape et en faisant bien attention sur la durée de validité. J'attends un nouveau renouvellement pour confirmer que c'était bien ça, mais en attendant j'ai pu renouveler "à la main" mon certificat.
  19. @oracle7 Je te suis parfaitement et je suis sûr à 95% de l'avoir fait (j'avais vérifié mes variables en les listant avec la commande export. Tant pis pour cette fois, mais ça soulève la question du comportement du script pour le renouvellement : je serais tenté de dire qu'il respectera les valeurs qu'il y a dans le fichier acme.conf. Qu'en penses-tu ?
  20. @oracle7 Je ne comprends pas. D'ailleurs voici le contenu de mon fichier acme.sh\account.conf : LOG_FILE='/volume1/Certs/Acme_renew/acmelog' #LOG_LEVEL=1 AUTO_UPGRADE='1' #NO_TIMESTAMP=1 CERT_HOME='/volume1/Certs' ACCOUNT_EMAIL='****************' UPGRADE_HASH='*********************' SAVED_OVH_AK='*********************' SAVED_OVH_AS='*******************************' USER_PATH='/sbin:/bin:/usr/sbin:/usr/bin:/usr/syno/sbin:/usr/syno/bin:/usr/local/sbin:/usr/local/bin' SAVED_DID=********************************************************************************************************** Il me semble pourtant avoir bien précisé l'emplacement de stockage. Ça apparait ainsi dans le fichier de conf.
  21. Bonjour, @oracle7, j'ai donc procédé au renouvellement "à la main" de mon certificat en reprenant les points du tuto. Je me suis aperçu qu'il y avait quelques changements dans le script acme.sh. A voir s'il faut les intégrer dans le tuto. Lorsque j'ai voulu créer le certificat, j'ai appelé la commande suivante : ./acme.sh --issue --keylength 4096 -d "$CERT_DOMAIN" -d "$CERT_WDOMAIN" --dns "$CERT_DNS" Et elle a généré le message d'erreur suivant : [Sun Jun 20 12:14:01 CEST 2021] Using CA: https://acme.zerossl.com/v2/DV90 [Sun Jun 20 12:14:02 CEST 2021] Create account key ok. [Sun Jun 20 12:14:02 CEST 2021] No EAB credentials found for ZeroSSL, let's get one [Sun Jun 20 12:14:02 CEST 2021] acme.sh is using ZeroSSL as default CA now. [Sun Jun 20 12:14:02 CEST 2021] Please update your account with an email address first. [Sun Jun 20 12:14:02 CEST 2021] acme.sh --register-account -m my@example.com [Sun Jun 20 12:14:02 CEST 2021] See: https://github.com/acmesh-official/acme.sh/wiki/ZeroSSL.c om-CA [Sun Jun 20 12:14:02 CEST 2021] Please add '--debug' or '--log' to check more details. [Sun Jun 20 12:14:02 CEST 2021] See: https://github.com/acmesh-official/acme.sh/wiki/How-to-de La solution se trouve sur le Github du script : https://github.com/acmesh-official/acme.sh/wiki/Change-default-CA-to-ZeroSSL Les concepteurs du script souhaitent passer par défaut la génération du script par zzerossl. Il faut donc préciser au script que l'on souhaite continuer à générer notre certificat chez LE par la commande : ./acme.sh --set-default-ca --server letsencrypt Le script a changé l'emplacement de stockage du certificat (en tout cas chez moi) et ils se trouvent maintenant ici : /root/.acme.sh/ndd.tld/ C'est assez embêtant car je n'y ai pas accès par WinSCP, même si je suis connecté en root : mon dossier est vide malgré le fait que le certificat est généré et même déployé au moment de la capture de cette image. Sinon j'ai une dernière remarque, car je viens de le remarquer et ça peut peut-être aider ceux qui, comme moi se font piéger. Lorsqu'on arrive à la question de la double authentification au DSM et le paramètre DID, je faisais l'erreur de prendre le cookie généré alors que j'étais connecté à mon NAS par l'URL : ndd.tld:5000. Or, je passais dans les paramètres du script Acme.sh un accès par localhost:5000 et bien sûr la connexion échouait sans que je ne comprenne pourquoi ! Et soudain la lumière est apparue : il faut que le cookie corresponde à la façon de se connecter au NAS (ça me paraît pourtant tellement évident maintenant !)
  22. Merci @oracle7 bien qu'ayant déjà fait la même procédure, j'ai retenté une nouvelle fois et elle a maintenant fonctionné. Peut-être m'étais-je connecté avec mon adresse mail. Désolé du dérangement.
  23. @oracle7 Bonjour, c'est encore moi et je continue à me débattre contre ce script retord 😀 Suite à mes soucis de renouvellement et comme j'avais un peu de temps aujourd'hui, j'ai pris la décision de renouveler mes clés d'API OVH, comme conseillé. J'ai donc utilisé l'URL fournie dans le tuto et je suis arrivé sur cette page : comme j'ai un message d'erreur, je comprends donc qu'il faut que je supprime l'application déjà existante. Je vais donc sur cette page : https://api.ovh.com/console/#/me/api/application/ Seulement voilà : j'ai le même message d'erreur que lors de mon renouvellement : Je ne comprends pas ce qu'est ce credential : ça ne correspond pas à l'application key que j'ai récupéré lorsque j'ai créé les clés la première fois. Une idée ? Merci
  24. @oracle7 Bonjour, je suis allé dans mon tableau de bord OVH et j'ai supprimé le TXT en question. Ensuite, j'ai lancé le script manuellement par le planificateur de taches et voici le message d'erreur que j'ai obtenu : [Wed Jun 9 00:14:32 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Wed Jun 9 00:14:32 CEST 2021] ret='0' [Wed Jun 9 00:14:32 CEST 2021] error {"message":"This credential is not valid","httpCode":"403 Forbidden","errorCode":"INVALID_CREDENTIAL"} [Wed Jun 9 00:14:32 CEST 2021] The consumer key is invalid: vRHxh76RlZ44Vvlobp3KrSx0rCb7tyA2 [Wed Jun 9 00:14:32 CEST 2021] Please retry to create a new one. [Wed Jun 9 00:14:32 CEST 2021] Error add txt for domain:_acme-challenge.gpointeau.fr Effectivement, le consumer key ne correspond pas à celle que j'avais noté lorsque je l'avais créé. Mais je ne sais pas pourquoi.
  25. @oracle7 Voici mon fichier log : [Tue Jun 8 03:00:02 CEST 2021] Lets find script dir. [Tue Jun 8 03:00:02 CEST 2021] _SCRIPT_='/usr/local/share/acme.sh/acme.sh' [Tue Jun 8 03:00:02 CEST 2021] _script='/usr/local/share/acme.sh/acme.sh' [Tue Jun 8 03:00:02 CEST 2021] _script_home='/usr/local/share/acme.sh' [Tue Jun 8 03:00:02 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:02 CEST 2021] Running cmd: cron [Tue Jun 8 03:00:02 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:02 CEST 2021] default_acme_server [Tue Jun 8 03:00:02 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:02 CEST 2021] ===Starting cron=== [Tue Jun 8 03:00:02 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:02 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:02 CEST 2021] Installing from online archive. [Tue Jun 8 03:00:02 CEST 2021] Downloading https://github.com/acmesh-official/acme.sh/archive/master.tar.gz [Tue Jun 8 03:00:02 CEST 2021] GET [Tue Jun 8 03:00:02 CEST 2021] url='https://github.com/acmesh-official/acme.sh/archive/master.tar.gz' [Tue Jun 8 03:00:02 CEST 2021] timeout= [Tue Jun 8 03:00:02 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:03 CEST 2021] ret='0' [Tue Jun 8 03:00:03 CEST 2021] Extracting master.tar.gz [Tue Jun 8 03:00:03 CEST 2021] default_acme_server [Tue Jun 8 03:00:03 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:03 CEST 2021] Skip install cron job [Tue Jun 8 03:00:03 CEST 2021] Installing to /usr/local/share/acme.sh/ [Tue Jun 8 03:00:03 CEST 2021] Installed to /usr/local/share/acme.sh//acme.sh [Tue Jun 8 03:00:03 CEST 2021] Good, bash is found, so change the shebang to use bash as preferred. [Tue Jun 8 03:00:04 CEST 2021] OK [Tue Jun 8 03:00:04 CEST 2021] Install success! [Tue Jun 8 03:00:04 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:04 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] GET [Tue Jun 8 03:00:04 CEST 2021] url='https://api.github.com/repos/acmesh-official/acme.sh/git/refs/heads/master' [Tue Jun 8 03:00:04 CEST 2021] timeout= [Tue Jun 8 03:00:04 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:04 CEST 2021] ret='0' [Tue Jun 8 03:00:04 CEST 2021] Upgrade success! [Tue Jun 8 03:00:04 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:04 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] Auto upgraded to: 2.9.0 [Tue Jun 8 03:00:04 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:04 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] _stopRenewOnError [Tue Jun 8 03:00:04 CEST 2021] _set_level='2' [Tue Jun 8 03:00:04 CEST 2021] di='/volume1/Certs/ndd.tld/' [Tue Jun 8 03:00:04 CEST 2021] d='ndd.tld' [Tue Jun 8 03:00:04 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:04 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] DOMAIN_PATH='/volume1/Certs/ndd.tld' [Tue Jun 8 03:00:04 CEST 2021] Renew: 'ndd.tld' [Tue Jun 8 03:00:04 CEST 2021] Le_API='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] Using config home:/usr/local/share/acme.sh/ [Tue Jun 8 03:00:04 CEST 2021] ACME_DIRECTORY='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] _main_domain='ndd.tld' [Tue Jun 8 03:00:04 CEST 2021] _alt_domains='*.ndd.tld' [Tue Jun 8 03:00:04 CEST 2021] Using ACME_DIRECTORY: https://acme-v02.api.letsencrypt.org/directory [Tue Jun 8 03:00:04 CEST 2021] _init api for server: https://acme-v02.api.letsencrypt.org/directory [Tue Jun 8 03:00:04 CEST 2021] GET [Tue Jun 8 03:00:04 CEST 2021] url='https://acme-v02.api.letsencrypt.org/directory' [Tue Jun 8 03:00:04 CEST 2021] timeout= [Tue Jun 8 03:00:04 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:05 CEST 2021] ret='0' [Tue Jun 8 03:00:05 CEST 2021] ACME_KEY_CHANGE='https://acme-v02.api.letsencrypt.org/acme/key-change' [Tue Jun 8 03:00:05 CEST 2021] ACME_NEW_AUTHZ [Tue Jun 8 03:00:05 CEST 2021] ACME_NEW_ORDER='https://acme-v02.api.letsencrypt.org/acme/new-order' [Tue Jun 8 03:00:05 CEST 2021] ACME_NEW_ACCOUNT='https://acme-v02.api.letsencrypt.org/acme/new-acct' [Tue Jun 8 03:00:05 CEST 2021] ACME_REVOKE_CERT='https://acme-v02.api.letsencrypt.org/acme/revoke-cert' [Tue Jun 8 03:00:05 CEST 2021] ACME_AGREEMENT='https://letsencrypt.org/documents/LE-SA-v1.2-November-15-2017.pdf' [Tue Jun 8 03:00:05 CEST 2021] ACME_NEW_NONCE='https://acme-v02.api.letsencrypt.org/acme/new-nonce' [Tue Jun 8 03:00:05 CEST 2021] Le_NextRenewTime='1622825804' [Tue Jun 8 03:00:05 CEST 2021] Using CA: https://acme-v02.api.letsencrypt.org/directory [Tue Jun 8 03:00:05 CEST 2021] _on_before_issue [Tue Jun 8 03:00:05 CEST 2021] _chk_main_domain='ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] _chk_alt_domains='*.ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] Le_LocalAddress [Tue Jun 8 03:00:05 CEST 2021] d='ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] Check for domain='ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] _currentRoot='dns_ovh' [Tue Jun 8 03:00:05 CEST 2021] d='*.ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] Check for domain='*.ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] _currentRoot='dns_ovh' [Tue Jun 8 03:00:05 CEST 2021] d [Tue Jun 8 03:00:05 CEST 2021] _saved_account_key_hash is not changed, skip register account. [Tue Jun 8 03:00:05 CEST 2021] Read key length:4096 [Tue Jun 8 03:00:05 CEST 2021] _createcsr [Tue Jun 8 03:00:05 CEST 2021] Multi domain='DNS:ndd.tld,DNS:*.ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] Getting domain auth token for each domain [Tue Jun 8 03:00:05 CEST 2021] d='*.ndd.tld' [Tue Jun 8 03:00:05 CEST 2021] d [Tue Jun 8 03:00:05 CEST 2021] url='https://acme-v02.api.letsencrypt.org/acme/new-order' [Tue Jun 8 03:00:05 CEST 2021] payload='{"identifiers": [{"type":"dns","value":"ndd.tld"},{"type":"dns","value":"*.ndd.tld"}]}' [Tue Jun 8 03:00:05 CEST 2021] RSA key [Tue Jun 8 03:00:05 CEST 2021] HEAD [Tue Jun 8 03:00:05 CEST 2021] _post_url='https://acme-v02.api.letsencrypt.org/acme/new-nonce' [Tue Jun 8 03:00:05 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g -I ' [Tue Jun 8 03:00:06 CEST 2021] _ret='0' [Tue Jun 8 03:00:06 CEST 2021] POST [Tue Jun 8 03:00:06 CEST 2021] _post_url='https://acme-v02.api.letsencrypt.org/acme/new-order' [Tue Jun 8 03:00:06 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:07 CEST 2021] _ret='0' [Tue Jun 8 03:00:07 CEST 2021] code='201' [Tue Jun 8 03:00:07 CEST 2021] Le_LinkOrder='https://acme-v02.api.letsencrypt.org/acme/order/118258254/10245171586' [Tue Jun 8 03:00:07 CEST 2021] Le_OrderFinalize='https://acme-v02.api.letsencrypt.org/acme/finalize/118258254/10245171586' [Tue Jun 8 03:00:07 CEST 2021] url='https://acme-v02.api.letsencrypt.org/acme/authz-v3/13797026507' [Tue Jun 8 03:00:07 CEST 2021] payload [Tue Jun 8 03:00:07 CEST 2021] POST [Tue Jun 8 03:00:07 CEST 2021] _post_url='https://acme-v02.api.letsencrypt.org/acme/authz-v3/13797026507' [Tue Jun 8 03:00:07 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:08 CEST 2021] _ret='0' [Tue Jun 8 03:00:08 CEST 2021] code='200' [Tue Jun 8 03:00:08 CEST 2021] url='https://acme-v02.api.letsencrypt.org/acme/authz-v3/13797026546' [Tue Jun 8 03:00:08 CEST 2021] payload [Tue Jun 8 03:00:08 CEST 2021] POST [Tue Jun 8 03:00:08 CEST 2021] _post_url='https://acme-v02.api.letsencrypt.org/acme/authz-v3/13797026546' [Tue Jun 8 03:00:08 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:08 CEST 2021] _ret='0' [Tue Jun 8 03:00:08 CEST 2021] code='200' [Tue Jun 8 03:00:08 CEST 2021] d='ndd.tld' [Tue Jun 8 03:00:08 CEST 2021] Getting webroot for domain='ndd.tld' [Tue Jun 8 03:00:08 CEST 2021] _w='dns_ovh' [Tue Jun 8 03:00:08 CEST 2021] _currentRoot='dns_ovh' [Tue Jun 8 03:00:08 CEST 2021] entry='"type":"dns-01","status":"pending","url":"https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026546/56lzaw","token":"wTq0xRc2X4k76jBGWfmv9pdpwQ1CCxLsizm1bZI6cyM"' [Tue Jun 8 03:00:08 CEST 2021] token='wTq0xRc2X4k76jBGWfmv9pdpwQ1CCxLsizm1bZI6cyM' [Tue Jun 8 03:00:08 CEST 2021] uri='https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026546/56lzaw' [Tue Jun 8 03:00:08 CEST 2021] keyauthorization='wTq0xRc2X4k76jBGWfmv9pdpwQ1CCxLsizm1bZI6cyM.O_4iMlDAwGzW43tglvAXeEfnYPXkYzmRo87jg_33Gd0' [Tue Jun 8 03:00:08 CEST 2021] dvlist='ndd.tld#wTq0xRc2X4k76jBGWfmv9pdpwQ1CCxLsizm1bZI6cyM.O_4iMlDAwGzW43tglvAXeEfnYPXkYzmRo87jg_33Gd0#https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026546/56lzaw#dns-01#dns_ovh' [Tue Jun 8 03:00:08 CEST 2021] d='*.ndd.tld' [Tue Jun 8 03:00:08 CEST 2021] Getting webroot for domain='*.ndd.tld' [Tue Jun 8 03:00:08 CEST 2021] _w='dns_ovh' [Tue Jun 8 03:00:08 CEST 2021] _currentRoot='dns_ovh' [Tue Jun 8 03:00:08 CEST 2021] entry='"type":"dns-01","status":"pending","url":"https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026507/-KCGhw","token":"4MMP_Ci4LyMcUdHyy75BJVdJBKHephinOq-2zVcnHQY"' [Tue Jun 8 03:00:08 CEST 2021] token='4MMP_Ci4LyMcUdHyy75BJVdJBKHephinOq-2zVcnHQY' [Tue Jun 8 03:00:08 CEST 2021] uri='https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026507/-KCGhw' [Tue Jun 8 03:00:08 CEST 2021] keyauthorization='4MMP_Ci4LyMcUdHyy75BJVdJBKHephinOq-2zVcnHQY.O_4iMlDAwGzW43tglvAXeEfnYPXkYzmRo87jg_33Gd0' [Tue Jun 8 03:00:08 CEST 2021] dvlist='*.ndd.tld#4MMP_Ci4LyMcUdHyy75BJVdJBKHephinOq-2zVcnHQY.O_4iMlDAwGzW43tglvAXeEfnYPXkYzmRo87jg_33Gd0#https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026507/-KCGhw#dns-01#dns_ovh' [Tue Jun 8 03:00:08 CEST 2021] d [Tue Jun 8 03:00:08 CEST 2021] vlist='ndd.tld#wTq0xRc2X4k76jBGWfmv9pdpwQ1CCxLsizm1bZI6cyM.O_4iMlDAwGzW43tglvAXeEfnYPXkYzmRo87jg_33Gd0#https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026546/56lzaw#dns-01#dns_ovh,*.ndd.tld#4MMP_Ci4LyMcUdHyy75BJVdJBKHephinOq-2zVcnHQY.O_4iMlDAwGzW43tglvAXeEfnYPXkYzmRo87jg_33Gd0#https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026507/-KCGhw#dns-01#dns_ovh,' [Tue Jun 8 03:00:08 CEST 2021] d='ndd.tld' [Tue Jun 8 03:00:08 CEST 2021] _d_alias [Tue Jun 8 03:00:08 CEST 2021] txtdomain='_acme-challenge.ndd.tld' [Tue Jun 8 03:00:09 CEST 2021] txt='9wCUbbeF-M638OUL1gTjqeNuuHObc2GjDMrJiYKa_xg' [Tue Jun 8 03:00:09 CEST 2021] d_api='/usr/local/share/acme.sh/dnsapi/dns_ovh.sh' [Tue Jun 8 03:00:09 CEST 2021] Found domain api file: /usr/local/share/acme.sh/dnsapi/dns_ovh.sh [Tue Jun 8 03:00:09 CEST 2021] Adding txt value: 9wCUbbeF-M638OUL1gTjqeNuuHObc2GjDMrJiYKa_xg for domain: _acme-challenge.ndd.tld [Tue Jun 8 03:00:09 CEST 2021] Using OVH endpoint: ovh-eu [Tue Jun 8 03:00:09 CEST 2021] OVH_API='https://eu.api.ovh.com/1.0' [Tue Jun 8 03:00:09 CEST 2021] OVH consumer key is empty, Let's get one: [Tue Jun 8 03:00:09 CEST 2021] POST [Tue Jun 8 03:00:09 CEST 2021] _post_url='https://eu.api.ovh.com/1.0/auth/credential' [Tue Jun 8 03:00:09 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:09 CEST 2021] _ret='0' [Tue Jun 8 03:00:09 CEST 2021] validationUrl='https://eu.api.ovh.com/auth/?credentialToken=BkIC9M3gHFcxCqdMAMQBmJh0e2EPkn3hqTM1V7IO0PgF7ImmugCZV3XQLMTPQlLK' [Tue Jun 8 03:00:09 CEST 2021] consumerKey='[hidden](please add '--output-insecure' to see this value)' [Tue Jun 8 03:00:09 CEST 2021] Please open this link to do authentication: https://eu.api.ovh.com/auth/?credentialToken=BkIC9M3gHFcxCqdMAMQBmJh0e2EPkn3hqTM1V7IO0PgF7ImmugCZV3XQLMTPQlLK [Tue Jun 8 03:00:09 CEST 2021] Here is a guide for you: https://github.com/acmesh-official/acme.sh/wiki/How-to-use-OVH-domain-api [Tue Jun 8 03:00:09 CEST 2021] Please retry after the authentication is done. [Tue Jun 8 03:00:09 CEST 2021] Error add txt for domain:_acme-challenge.ndd.tld [Tue Jun 8 03:00:09 CEST 2021] _on_issue_err [Tue Jun 8 03:00:09 CEST 2021] Please check log file for more details: /volume1/Certs/Acme_renew/acmelog [Tue Jun 8 03:00:09 CEST 2021] url='https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026546/56lzaw' [Tue Jun 8 03:00:09 CEST 2021] payload='{}' [Tue Jun 8 03:00:09 CEST 2021] POST [Tue Jun 8 03:00:09 CEST 2021] _post_url='https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026546/56lzaw' [Tue Jun 8 03:00:09 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:09 CEST 2021] _ret='0' [Tue Jun 8 03:00:09 CEST 2021] code='200' [Tue Jun 8 03:00:09 CEST 2021] url='https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026507/-KCGhw' [Tue Jun 8 03:00:09 CEST 2021] payload='{}' [Tue Jun 8 03:00:10 CEST 2021] POST [Tue Jun 8 03:00:10 CEST 2021] _post_url='https://acme-v02.api.letsencrypt.org/acme/chall-v3/13797026507/-KCGhw' [Tue Jun 8 03:00:10 CEST 2021] _CURL='curl --silent --dump-header /usr/local/share/acme.sh//http.header -L -g ' [Tue Jun 8 03:00:10 CEST 2021] _ret='0' [Tue Jun 8 03:00:10 CEST 2021] code='200' [Tue Jun 8 03:00:11 CEST 2021] socat doesn't exist. [Tue Jun 8 03:00:11 CEST 2021] Diagnosis versions: openssl:openssl OpenSSL 1.0.2u-fips 20 Dec 2019 apache: apache doesn't exist. nginx: nginx version: nginx/1.16.1 TLS SNI support enabled socat: [Tue Jun 8 03:00:11 CEST 2021] pid [Tue Jun 8 03:00:11 CEST 2021] No need to restore nginx, skip. [Tue Jun 8 03:00:11 CEST 2021] _clearupdns [Tue Jun 8 03:00:11 CEST 2021] dns_entries [Tue Jun 8 03:00:11 CEST 2021] skip dns. [Tue Jun 8 03:00:11 CEST 2021] Return code: 1 [Tue Jun 8 03:00:11 CEST 2021] Error renew ndd.tld. [Tue Jun 8 03:00:11 CEST 2021] _error_level='1' [Tue Jun 8 03:00:11 CEST 2021] _set_level='2' [Tue Jun 8 03:00:11 CEST 2021] The NOTIFY_HOOK is empty, just return. [Tue Jun 8 03:00:11 CEST 2021] ===End cron===
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.