This site uses cookies! Learn More

Ce site utilise des cookies !

En continuant à utiliser ce site, vous vous engagez à nous permettre de stocker des cookies sur votre ordinateur.

 

Si nous utilisons des cookies et retenons des données anonymes, c’est pour nous aider à mieux gérer notre mesure d’audience, aider nos partenaires commerciaux à nous rémunérer et nos partenaires publicitaires à proposer des annonces qui vous correspondent.

 

Grâce à ces cookies, le forum est en mesure de savoir qui écrit un message et utile pour le système d'authentification.

 

En cliquant sur « J'accepte », vous acceptez l'utilisation par NAS-Forum de cookies publicitaires et de mesure d'audience fine.

FlamingFlowair

Membres
  • Compteur de contenus

    16
  • Inscription

  • Dernière visite

À propos de FlamingFlowair

  • Rang
    Initié

Visiteurs récents du profil

Le bloc de visiteurs récents est désactivé et il n’est pas visible pour les autres utilisateurs.

  1. Ohh merde, désolé Fenrir, j'avais pas vu ton message (je comprend pas trop les notif de ce forum, faut vraiment que j'y jette un œil) J'avais loupé le dernier point de la partie "Good use cases for bind mounts" qui indique que si la structure est toujours là, on peut utiliser du bind mount. Du coup, je suis repassé sur du bind mount, qui est en effet plus simple pour les backups etc. A la base, si je pensais utiliser des volumes pour les données , c'est parce que j'avais lu que c'était plus safe pour le partage de données entre containers, sais-tu ce qu'il en est ?. Pour info, après divers tests sur un VPS, j'ai de nouveau remonté mon architecture sur mon NAS : nginx + docker-gen : reverse proxy à génération de configuration auto docker-letsencrypt-nginx-proxy-companion : génère les certificats par letsencrypt ==> ces trois containers permettent d'avoir des réglages faciles par site (htpasswd, options de config nginx par ex) bdd - containers : rien d'original Un docker de backup auto de bdd : (fradelg/docker-mysql-cron-backup) Voilà, j'ai plus qu'à m'amuser avec du gitlab, un serveur mail, kresus et autres :)
  2. Bonjour, Je souhaite utiliser docker pour monter plusieurs services. Petit à petit, j'ai réussi à monter un reverse proxy avec differents services sur un VPS OVH. Ma configuration utilise des volumes docker nommés pour le stockage des data qui sont alors stockées dans /var/lib/docker/volumes Est-il possible de créer des snapshots de ces dossiers systèmes ?
  3. Hello, je viens cloturer le sujet, je pense qu'une réinstall de Docker sera nécessaire pour les ports déjà utilisés. Pour info, je vais pas utiliser acme-haproxy mais https://github.com/jwilder/nginx-proxy avec letsencrypt etc. J'ai passé du temps à faire fonctionner la solution sur un VPS, je suis pret à la passer sur mon NAS. Plus qu'un petit soucis à régler : les snapshot (instantanés) mais je vais faire un nouveau post pour ça. Merci encore Fenrir pour tes réponses.
  4. Active Internet connections (w/o servers) Proto Recv-Q Send-Q Local Address Foreign Address State tcp 0 0 172.17.0.1:56257 172.17.0.2:https ESTABLISHED tcp 0 0 flamingds916.home:37643 ec2-18-194-76-92.:https ESTABLISHED tcp 0 240 flamingds916.home:225 desktop-33ft11j.ho:4317 ESTABLISHED tcp6 0 0 flamingds916.home:4430 cez63-4-78-248-17:52846 ESTABLISHED tcp6 0 0 flamingds916.home:4430 cez63-4-78-248-17:52956 TIME_WAIT tcp6 0 0 172.17.0.1:29080 172.17.0.2:57068 TIME_WAIT tcp6 0 0 172.17.0.1:29080 172.17.0.2:57071 TIME_WAIT Active UNIX domain sockets (w/o servers) Proto RefCnt Flags Type State I-Node Path unix 2 [ ] DGRAM 24584 /tmp/scemd_event_handler.sock_server unix 30 [ ] DGRAM 4894 /dev/log unix 2 [ ] DGRAM 4898 /var/run/synologd unix 2 [ ] DGRAM 8783139 /run/samba/msg.sock/29688 unix 2 [ ] DGRAM 8778319 /run/samba/msg.sock/29597 unix 2 [ ] DGRAM 8783187 /run/samba/msg.sock/29758 unix 2 [ ] DGRAM 24692 /tmp/scemd_connector.sock_server unix 2 [ ] DGRAM 23374763 /run/samba/msg.sock/19301 unix 3 [ ] STREAM CONNECTED 33098809 unix 2 [ ] STREAM CONNECTED 31852393 unix 3 [ ] STREAM CONNECTED 23378320 unix 3 [ ] STREAM CONNECTED 37707 unix 3 [ ] STREAM CONNECTED 24408 unix 3 [ ] STREAM CONNECTED 37555 /run/postgresql/.s.PGSQL.5432 unix 2 [ ] DGRAM 37394 unix 3 [ ] STREAM CONNECTED 20462 unix 3 [ ] STREAM CONNECTED 31020 unix 2 [ ] DGRAM 20938 unix 3 [ ] STREAM CONNECTED 5957 /var/run/openvswitch/db.sock unix 3 [ ] STREAM CONNECTED 31812846 unix 3 [ ] STREAM CONNECTED 27303 unix 2 [ ] STREAM CONNECTED 23375552 unix 3 [ ] STREAM CONNECTED 16435 unix 3 [ ] STREAM CONNECTED 31852395 unix 2 [ ] STREAM CONNECTED 23375558 unix 2 [ ] DGRAM 9617 unix 2 [ ] DGRAM 16834 unix 3 [ ] STREAM CONNECTED 31856905 unix 3 [ ] STREAM CONNECTED 38759 /run/postgresql/.s.PGSQL.5432 unix 3 [ ] STREAM CONNECTED 31025 unix 3 [ ] STREAM CONNECTED 31850334 unix 3 [ ] STREAM CONNECTED 8782163 unix 2 [ ] STREAM CONNECTED 31850325 unix 3 [ ] STREAM CONNECTED 6248 @/tmp/dbus-r2rQk21Xst unix 3 [ ] STREAM CONNECTED 26359 unix 3 [ ] STREAM CONNECTED 18683 unix 3 [ ] STREAM CONNECTED 31022 unix 2 [ ] DGRAM 16577 unix 3 [ ] STREAM CONNECTED 31802293 /var/run/docker.sock unix 3 [ ] STREAM CONNECTED 16436 unix 2 [ ] DGRAM 17912 unix 3 [ ] STREAM CONNECTED 8782166 unix 3 [ ] STREAM CONNECTED 31810413 /var/run/docker.sock unix 2 [ ] DGRAM 24302 unix 2 [ ] DGRAM 33098850 unix 3 [ ] STREAM CONNECTED 8782168 unix 3 [ ] STREAM CONNECTED 37579 /run/postgresql/.s.PGSQL.5432 unix 2 [ ] STREAM CONNECTED 31850332 unix 3 [ ] STREAM CONNECTED 24407 unix 3 [ ] STREAM CONNECTED 31856906 unix 2 [ ] DGRAM 11291 unix 3 [ ] STREAM CONNECTED 33098810 unix 2 [ ] STREAM CONNECTED 23375571 unix 3 [ ] STREAM CONNECTED 6247 unix 3 [ ] STREAM CONNECTED 31810412 /var/run/docker.sock unix 3 [ ] STREAM CONNECTED 5361 unix 3 [ ] STREAM CONNECTED 5363 /var/run/dbus/system_bus_socket unix 3 [ ] STREAM CONNECTED 8782162 unix 3 [ ] STREAM CONNECTED 31023 unix 3 [ ] STREAM CONNECTED 6202 unix 3 [ ] STREAM CONNECTED 37554 unix 2 [ ] STREAM CONNECTED 31850329 unix 3 [ ] STREAM CONNECTED 8746919 unix 3 [ ] STREAM CONNECTED 8740403 unix 3 [ ] STREAM CONNECTED 26358 unix 3 [ ] STREAM CONNECTED 6244 /var/run/dbus/system_bus_socket unix 3 [ ] STREAM CONNECTED 31852398 unix 3 [ ] STREAM CONNECTED 31014 unix 3 [ ] STREAM CONNECTED 39309 unix 3 [ ] STREAM CONNECTED 31850335 unix 3 [ ] STREAM CONNECTED 17908 unix 3 [ ] STREAM CONNECTED 8782165 unix 3 [ ] STREAM CONNECTED 8782161 unix 3 [ ] STREAM CONNECTED 8741927 /var/run/docker/libcontainerd/docker-containerd.sock unix 2 [ ] DGRAM 38097 unix 3 [ ] STREAM CONNECTED 16665 unix 3 [ ] STREAM CONNECTED 31798829 unix 3 [ ] STREAM CONNECTED 9665 unix 3 [ ] STREAM CONNECTED 26356 unix 2 [ ] DGRAM 33894 unix 3 [ ] STREAM CONNECTED 23375573 unix 3 [ ] STREAM CONNECTED 8242 unix 2 [ ] DGRAM 23408 unix 2 [ ] DGRAM 33098808 unix 2 [ ] DGRAM 15400 unix 3 [ ] STREAM CONNECTED 39210 unix 2 [ ] DGRAM 46779 unix 2 [ ] DGRAM 27862 unix 3 [ ] STREAM CONNECTED 23374630 unix 3 [ ] STREAM CONNECTED 31019 unix 3 [ ] STREAM CONNECTED 20461 unix 3 [ ] STREAM CONNECTED 23374631 /var/run/dbus/system_bus_socket unix 3 [ ] STREAM CONNECTED 39208 /run/postgresql/.s.PGSQL.5432 unix 3 [ ] DGRAM 19408 unix 3 [ ] STREAM CONNECTED 31852396 unix 2 [ ] DGRAM 8740390 unix 3 [ ] STREAM CONNECTED 31798828 unix 2 [ ] DGRAM 39209 unix 3 [ ] STREAM CONNECTED 31028 unix 2 [ ] DGRAM 7239 unix 2 [ ] DGRAM 21669 unix 2 [ ] DGRAM 39202 unix 2 [ ] DGRAM 16625 unix 2 [ ] STREAM CONNECTED 33098848 unix 3 [ ] STREAM CONNECTED 17909 unix 3 [ ] STREAM CONNECTED 31026 unix 3 [ ] STREAM CONNECTED 27302 unix 3 [ ] STREAM CONNECTED 11250 unix 3 [ ] DGRAM 19406 unix 3 [ ] STREAM CONNECTED 16664 unix 3 [ ] DGRAM 19405 unix 3 [ ] DGRAM 6858 unix 2 [ ] DGRAM 25162 unix 3 [ ] STREAM CONNECTED 11251 unix 3 [ ] STREAM CONNECTED 8782164 unix 3 [ ] DGRAM 6857 unix 3 [ ] STREAM CONNECTED 6215 unix 3 [ ] STREAM CONNECTED 6203 unix 3 [ ] STREAM CONNECTED 31812845 unix 3 [ ] STREAM CONNECTED 5362 unix 3 [ ] STREAM CONNECTED 26357 unix 3 [ ] STREAM CONNECTED 6243 unix 2 [ ] DGRAM 33098816 unix 3 [ ] STREAM CONNECTED 23375574 unix 3 [ ] STREAM CONNECTED 31802294 /var/run/docker.sock unix 3 [ ] STREAM CONNECTED 18682 unix 3 [ ] DGRAM 19407 unix 2 [ ] DGRAM 23473 unix 3 [ ] STREAM CONNECTED 8746920 unix 3 [ ] STREAM CONNECTED 39201 unix 3 [ ] STREAM CONNECTED 37706 unix 3 [ ] STREAM CONNECTED 31016 unix 3 [ ] STREAM CONNECTED 39310 unix 3 [ ] STREAM CONNECTED 31024 unix 3 [ ] STREAM CONNECTED 39207 unix 3 [ ] STREAM CONNECTED 31021 unix 3 [ ] STREAM CONNECTED 31852399 unix 3 [ ] STREAM CONNECTED 8782167 unix 3 [ ] STREAM CONNECTED 40716 unix 3 [ ] STREAM CONNECTED 31018 unix 3 [ ] STREAM CONNECTED 31027 unix 2 [ ] DGRAM 5412 unix 3 [ ] STREAM CONNECTED 23379654 /var/run/dbus/system_bus_socket unix 3 [ ] STREAM CONNECTED 39200 unix 3 [ ] STREAM CONNECTED 31013 unix 3 [ ] STREAM CONNECTED 8243 unix 3 [ ] STREAM CONNECTED 31015 unix 2 [ ] DGRAM 26355 unix 3 [ ] STREAM CONNECTED 31017 unix 2 [ ] STREAM CONNECTED 23375568 unix 2 [ ] DGRAM 11222 Pas d'autres conteneurs utilisant des ports qui sont quand même bien particuliers et qui n'ont pas spécialement lieu d'être utilisés par un autre conteneur. Mon hypothèse est qu'à la suppression d'un conteneur, le flush des règles n'a pas été fait. Le soucis ne vient pas non plus des ports < 1024 bien que ta remarque m'ait fait me poser la question. Le port j'utilise actuellement le port interne 800 étant donné que le 880 ne m'est pas accessible Pour ce qui est du second soucis, je ne comprend pas puisque le conteneur que je tentais de mettre à jour continue de reconnaitre dockerhost et résout actuellement mes sites. Je regarde de nouveau https://hub.docker.com/r/fenrir/acme-haproxy/ voir si l'image m'intéresse plus que mon actuelle ou non.
  5. FlamingFlowair

    Conflit port local

    Bonjour, Suite à l'ajout et à la suppression de conteneurs, je me retrouve face à l'erreur suivante lorsque j’essaie d'installer mon reverse proxy : "Le port local 4443,880 est en conflit avec d'autres ports utilisés par d'autres services." Or, je suis certain de ne pas utiliser ces ports là, preuve en est : $sudo netstat -tnlp Active Internet connections (only servers) Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name tcp 0 0 127.0.0.1:5432 0.0.0.0:* LISTEN 10835/postgres tcp 0 0 127.0.0.1:953 0.0.0.0:* LISTEN 13308/named tcp 0 0 0.0.0.0:443 0.0.0.0:* LISTEN 11112/nginx: master tcp 0 0 127.0.0.1:4700 0.0.0.0:* LISTEN 10381/cnid_metad tcp 0 0 0.0.0.0:445 0.0.0.0:* LISTEN 19301/smbd tcp 0 0 0.0.0.0:3262 0.0.0.0:* LISTEN 15479/iscsi_snapsho tcp 0 0 127.0.0.1:512 0.0.0.0:* LISTEN 27943/termd tcp 0 0 0.0.0.0:225 0.0.0.0:* LISTEN 8030/sshd tcp 0 0 0.0.0.0:9093 0.0.0.0:* LISTEN 16230/transmissiond tcp 0 0 0.0.0.0:5000 0.0.0.0:* LISTEN 11112/nginx: master tcp 0 0 0.0.0.0:5001 0.0.0.0:* LISTEN 11112/nginx: master tcp 0 0 0.0.0.0:139 0.0.0.0:* LISTEN 19301/smbd tcp 0 0 127.0.0.1:1195 0.0.0.0:* LISTEN 12375/openvpn tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 11112/nginx: master tcp 0 0 0.0.0.0:16881 0.0.0.0:* LISTEN 16230/transmissiond tcp 0 0 172.17.0.1:53 0.0.0.0:* LISTEN 13308/named tcp 0 0 169.254.101.203:53 0.0.0.0:* LISTEN 13308/named tcp 0 0 10.8.0.1:53 0.0.0.0:* LISTEN 13308/named tcp 0 0 192.168.1.10:53 0.0.0.0:* LISTEN 13308/named tcp 0 0 127.0.0.1:53 0.0.0.0:* LISTEN 13308/named tcp6 0 0 :::29080 :::* LISTEN 27370/docker-proxy tcp6 0 0 :::33306 :::* LISTEN 26979/docker-proxy tcp6 0 0 :::33307 :::* LISTEN 26969/docker-proxy tcp6 0 0 :::443 :::* LISTEN 11112/nginx: master tcp6 0 0 :::445 :::* LISTEN 19301/smbd tcp6 0 0 :::3261 :::* LISTEN - tcp6 0 0 :::5566 :::* LISTEN 11846/synobtrfsrepl tcp6 0 0 :::3263 :::* LISTEN - tcp6 0 0 :::800 :::* LISTEN 1116/docker-proxy tcp6 0 0 :::3264 :::* LISTEN - tcp6 0 0 :::225 :::* LISTEN 8030/sshd tcp6 0 0 :::548 :::* LISTEN 10380/afpd tcp6 0 0 :::27880 :::* LISTEN 27540/docker-proxy tcp6 0 0 :::5000 :::* LISTEN 11112/nginx: master tcp6 0 0 :::5001 :::* LISTEN 11112/nginx: master tcp6 0 0 :::139 :::* LISTEN 19301/smbd tcp6 0 0 :::4430 :::* LISTEN 1106/docker-proxy tcp6 0 0 :::80 :::* LISTEN 11112/nginx: master tcp6 0 0 :::16881 :::* LISTEN 16230/transmissiond tcp6 0 0 :::53 :::* LISTEN 13308/named Pour l'instant, j'ai juste changé de port mais ça pue un peu comme soucis, surtout sachant que j'ai un second soucis. Second soucis : j'ai mis à jour mon container de reverse proxy, à savoir https://hub.docker.com/r/steveltn/https-portal/ et j'ai désormais l'erreur nginx suivante : 2017-11-22 18:48:11 stdout Starting crond ... 2017-11-22 18:48:11 stdout [services.d] done. 2017-11-22 18:48:11 stdout [services.d] starting services 2017-11-22 18:48:11 stdout [cont-init.d] done. 2017-11-22 18:48:11 stdout [cont-init.d] 20-set-docker-gen-status: exited 0. 2017-11-22 18:48:11 stdout [cont-init.d] 20-set-docker-gen-status: executing... 2017-11-22 18:48:11 stdout [cont-init.d] 10-setup: exited 0. 2017-11-22 18:48:10 stdout nginx: [emerg] host not found in upstream "dockerhost" in /etc/nginx/conf.d/sub.myWebsiteAddr.eu.ssl.conf:24 2017-11-22 18:48:10 stdout 2017/11/22 18:48:10 [emerg] 211#211: host not found in upstream "dockerhost" in /etc/nginx/conf.d/sub.myWebsiteAddr.eu.ssl.conf:24 Sachant que le dockerhost en question es probablement lié à la variable d'environnement que je donne : sub.myWebsiteAddr.eu -> http://dockerhost:27880 #local J'ai posté une issue sur le github de l'image docker https://github.com/SteveLTN/https-portal/issues/107 mais les deux issues étant peut-être liées, je demande aussi ici. J'ai déjà testé deux ou trois trucs mais je préfère passer un petit appel à l'aide avant de balancer mon NAS par la fenêtre de tenter le tout pour le tout en désinstallant carrément Docker. Merci déjà d'avoir lu ce gros pavé :)
  6. Hey, je vois ton message que maintenant, j'étais pas revenu sur le forum et j'ai pas vu de notif mail (pas réglée / dossier spam). Je songerait à mettre une sauvegarde par heure quand je referai mon système. J'ai actuellement deux soucis arégler avant de refaire un peu mon architecture (cf nouveau thread soon :p)
  7. Roulement des snapshots : 7 quotidiennes, 4 hebdomadaires, 12 mensuelles, 3 annuelles, ça devrait être assez pour de la backup blog / nextcloud :)
  8. Je me renseigne, c'est peut-être bien ce que je recherche :)
  9. J'ai checké vite fait j'ai rien vu d'intéressant, je vais juste arrêter là. J'ai pas perdu tant que ça et la perte vient d'une erreur de ma part donc bon, problème clos disons. J'ai lancé deux micro dockers : https://hub.docker.com/r/fradelg/mysql-cron-backup/ ça me fera des backups de mes bdd. J'ai plus qu'à faire une commande planifiée de copie de sauvegarde des volumes et je devrait être paré Merci encore :)
  10. Désolé pour le mp, ma question me semblait un peu hors sujet du coup je pensais qu'elle n'avait pas sa place ici. Voici le résultat des commandes : Information importante néanmoins, j'ai supprimé mon container mariadb, certain que j'avais tout perdu. (un grep -rni / "keyword" n'avait donné aucun résultat) Je ne sais pas comment analyser le résultat des commandes mais ça peut-être son importance. ash-4.3# docker ps -a CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 54d52cd96feb fradelg/mysql-cron-backup:latest "/run.sh" 9 minutes ago Up 9 minutes cronBackupMariadbNC 85eee42698b1 fradelg/mysql-cron-backup:latest "/run.sh" 17 minutes ago Up 9 minutes cronBackupMariadbWPAus f8302d2d8158 wordpress:4.8.3-php7.1-apache "docker-entrypoint..." 3 hours ago Up 3 hours 0.0.0.0:27880->80/tcp wordpressAustralie4.8.3 10a54d0bbfd4 mariadb:10.3.2 "docker-entrypoint..." 3 hours ago Up 3 hours 0.0.0.0:33306->3306/tcp mariadbWP10.3.2 10e5aa50af28 mariadb:10.3.1 "docker-entrypoint..." 2 months ago Up 4 hours 0.0.0.0:33307->3306/tcp mariadbNC 1fbb11ff35bc nextcloud:12.0.2-apache "/entrypoint.sh ap..." 2 months ago Up 4 hours 0.0.0.0:29080->80/tcp nextcloud12.0.2 acf646efc680 82646fdb34be "/init" 5 months ago Up 4 hours 0.0.0.0:880->80/tcp, 0.0.0. ash-4.3# docker volume ls DRIVER VOLUME NAME local 11928d957f23430e73a8b4a507236d14951223bbd14cc355dfaf5eb64afecd1f local 16cd371ea11b545a39161f335cba877b6caac85d7e3b5d288f698a7173754c45 local 1c7fe9ff9e1d950f211dc24a260de00adc2a02561e9ab1562b8722767eae7528 local 1d6b10f27b73c20bae3bd8901b6953566d612cda7eca845e195e0627769f7c08 local 23c59fa142cbd46197346a495957542ec03bb0cc64fd7b6222f7cb5330e93460 local 4b932482190c3a6c3d79d360cebfc730aab91267da6c6763d3f8a713a0f4e551 local 50bc34176b27e625cdf934fd3146a06f695bbb186c298e29e7268420aeb21f13 local 52ea3f216b3d462187ad85e56859b90468ae49e6e7a33f121e22c2310b522351 local 566518cc7784420481f5d060b8bc311bb9b47bf79cff7443ba05589bf2c4b02d local 57051ffc7edf2e5d78036d5689639f5e3b707f69f5e585254992a3543d601a79 local 5a4cc76e1520d625e21139ce54695d5d624f8e310a0f134642f6ae2f72ce0569 local 5b6a231cf3fc0e0ba3f944b8f0938828794bfe476d7f8f257b21c1d605b12207 local 6648277e002f186277a3fdd35989fa651200a4e0efa31c2e8dc41f88eb7b1017 local 66b0ddc40f904c35b91be0a5e3350178caabee989ac95b45c59d084b7f6bb771 local 66d0e0d54c1e0c4fe38380a5e8ea1023c047dce86ba6d6361e8172577879712c local 72501ef531c35267d68b2b54c5a6184738292ef9f8e1de40fb219cb6e87c8e63 local 7bb857100612584044843702ca70fa381ab1de0a45ddab0c487123936457b10c local 7c707bd0f0ca7e798605c96e5b61b92ec8c70f73c18a672ac7e5894751cce64a local 82f54862d7ab5601865512c29714de3549470ba80105b37dbf3ec4c3e2ebe45c local 831a358d12b99c04cc06501bd499534a397df424fbdc217c1e9c636362389a0e local 88c2c22ce997c144405e6317cf4d9859f1b67538e1b15d1073850265c6442a27 local a10b539fb984be4541b53793b1aed5510aa0453843695d2bbe7ad892c12d4530 local a511031079212422a536f358381a600417afa42efc5f3444288469a186ce2792 local ad524edf78bf89480ea059acb77036551c7558079bf4bb796d91b2775cf5615d local af231211305b27621ac244389e9294549f54eb04625bbf6c50bf66d9196f9a68 local b7f8ceea0744fa506361eabae2e1f3126d82532547896b13ddacd7622cd9447a local c57037f1922b9966ee508347b1f8b82c98bedad3b54e2e6e982a93679d0ff776 local d85bc98b996bfb7f5988956067c33d028c2cf1b2da6c1929b75c13217527df48 ash-4.3# ls -l /volume1/@docker/containers total 0 drwx------ 1 root root 178 Nov 10 20:56 10a54d0bbfd4bd16bf52fcb18fe5ab355c915c5a9931e75999af8c6be0655f37 drwx------ 1 root root 156 Nov 10 20:55 10e5aa50af28e523b903e65eb3989f5081c3c4d4fadd0f1e349dfc1f9613ef19 drwx------ 1 root root 178 Nov 10 21:00 1fbb11ff35bc547913aecca21f4db30acc1661dc4d32173829e43e5f13ac231f drwx------ 1 root root 178 Nov 10 20:55 54d52cd96feb9b09332df5960198db56e55e4702f48fb23ffed24ea24fe2bb56 drwx------ 1 root root 178 Nov 10 20:56 85eee42698b1d64a38a40eda5eb19c3b88519a7c6e2d55250bc0d4f676f16205 drwx------ 1 root root 266 Nov 10 21:00 acf646efc6805f0ff579263bed296f15d3d30e73eeef9b3127466b7eb1cf2f06 drwx------ 1 root root 178 Nov 10 20:17 f8302d2d8158481d33e98ae20466871e8d682e4691d5c373a9499633af60c47f En tout cas, merci de prendre le temps de regarder
  11. Bon, Je reviens après avoir perdu espoir de récupérer mes données. :( Mon container mariadb était lié à un volume mais le lien était mal fait et je liais le dossier "/var/lib/msql" au lieu de "/var/lib/mysql" *Désormais en position fœtale* ;( Mais au moins, je comprend le soucis.
  12. Avant la maj, je n'avais pas de soucis de volatilité de données avec mes containers mariadb lancés. A chaque reboot, j'obtenais mes données comme d'hab. J'ai suivi la configuration du container mariadb trouvé ici https://hub.docker.com/_/mariadb/ Donc en principe j'ai les données sur un dossier local sur mon NAS. Mais le container semble avoir redémarré et je ne sais pas ou sont passées mes données :? J'ai cependant un second container mariadb ou la bdd semble intacte, je ne peu garantir à 100% que ces deux mariadb soient configurés de manière identique. J'ai éteint mon NAS pour l'instant, je compte voir pour faire un gros dd dessus demain en espérant pourvoir récupérer quelque chose. Mon hdd étant en btrfs, je suis preneur si vous avez une idée de comment récupérer les données.
  13. C'est plus clair en effet. Et oui, je peux confirmer ! ;(
  14. ... Et je peux confirmer, j'ai perdu des données contenues dans ma bdd wordpress au passage.
  15. Bonjour, J'ai une backup de conf d'un container, je peux regarder pour l'importer en tant que nouveau container. J'ai essayé d'importer un container (nextcloud) depuis un json. Je l'ai lancé et j'obtiens la page de login de nextcloud. Je peux me connecter et on dirait qu'il retrouve bien mes fichiers. C'est déjà une bonne chose. Par contre, le tout est d'une lenteur effroyable ! Et mon container mariadb associé log : [Warning] IP address '172.17.0.5' could not be resolved: Temporary fail