This site uses cookies! Learn More

Ce site utilise des cookies !

En continuant à utiliser ce site, vous vous engagez à nous permettre de stocker des cookies sur votre ordinateur.

 

Si nous utilisons des cookies et retenons des données anonymes, c’est pour nous aider à mieux gérer notre mesure d’audience, aider nos partenaires commerciaux à nous rémunérer et nos partenaires publicitaires à proposer des annonces qui vous correspondent.

 

Grâce à ces cookies, le forum est en mesure de savoir qui écrit un message et utile pour le système d'authentification.

 

En cliquant sur « J'accepte », vous acceptez l'utilisation par NAS-Forum de cookies publicitaires et de mesure d'audience fine.

Superthx

Membres
  • Compteur de contenus

    187
  • Inscription

  • Dernière visite

  • Jours gagnés

    2

Messages posté(e)s par Superthx

  1. à l’instant, shadowking a dit :

    Donc pour gérer ton routeur tu peux faire, par exemple, admrouter.ndd.com CNAME ns1.ndd.com

    Et laisser router.ndd.com A 192.168.1.1

    Ton proxy inversé permet d'accéder à un service d'un hôte particulier.

    Tandis que le DNS définit un nom d'hôte, il faut bien voir la différence entre les 2.

    Oui. C'est bien ce que je pensais faire. Dommage que l'on puisse pas faire autrement. Merci.

  2. il y a une heure, shadowking a dit :

    Pourquoi deux fois le même enregistrement ?

    erreur, c'est nas.ndd.com CNAME ns1.ndd.com(NAS Réseau 2)

    il y a une heure, shadowking a dit :

    Si ton routeur expose son interface d'administration sur le port 443, que le domaine/sous-domaine est bien enregistré auprès de Let's Encrypt ça devrait marcher.

    Oui. Cela marche correctement.

    il y a une heure, shadowking a dit :

    Tu veux d'une part que ton routeur soit accessible aux autres périphériques, via son nom de domaine, donc tu gardes ton enregistrement de type A router.ndd.com -> 192.168.1.1

    Oui c'est logique. C'est mieux pour trouver ses appareils.

    il y a une heure, shadowking a dit :

    Au delà de ça, tu veux qu'un service qu'il expose, j'imagine son interface d'administration, soit accessible via le proxy inversé.
    Dans ce cas-là il faut que la requête soit redirigée vers le proxy inversé, tu le fais au moyen d'un enregistrement CNAME router.ndd.com -> ns1.ndd.com, c'est ensuite le proxy inversé qui va rediriger de manière transparente vers 192.168.1.1:80 (80 par exemple, il s'agit du port HTTP sur lequel est exposé la webUI du routeur).

    Alors c'est lá que je comprends pas......

    si j'ai comme enregistrement:

    router.ndd.com A 192.168.1.1

    impossible d'ajouter dans la zone DNS

    router.ndd.com CNAME ns1.ndd.com

    J'ai une erreur le FQDN de CNAME et d'autres enregistrements ne peuvent pas etre identiques.

    Donc ou je choisi de rediriger sur router.ndd.com sur son ip reel et je le retrouve sur le reseau (ping, etc...) ou j'oublie et je met sur 192.168.1.111 pour avoir acces à mes services web en mettant 192.168.1.111. Que cela soit A ou CNAME il faut choisir une IP.

     

     

  3. Salut à nouveau.

    Je reviens avec mon problème. Car j'ai pas de réponse.

    J'utilise openvpn.

    Pour ce qui est du reverse proxy c'est galère.

    Mon NAS avec Reverse proxy est sur 192.168.1.111

    Dans mes DNS Server de chaque côter c'est comme ceci.

     

    ns1.ndd.com 192.168.1.111(NAS Réseau 1)

    ns2.ndd.com 192.168.0.1(Router Réseau2)

    router.ndd.com 192.168.1.1(Router Réseau 1 - Serveur VPN)

    maison.ndd.com (Router Réseau 2 - Client VPN)

    nas.ndd.com CNAME ns1.ndd.com(NAS Réseau 1)

    nas.ndd.com CNAME ns1.ndd.com(NAS Réseau 2)

    Jusqu'ici pas de problème. Depuis l'extérieur de ces 2 réseaux. Les gens ce connectent.

    Mais c'est sur les 2 réseaux en local ou sa foire méchant.

    Si depuis Reseau 1 ou 2 je veux me connecter sur router.ndd.com 192.168.1.1, j'ai une erreur 443. 

    curl -v https://router.ndd.com

    * Failed to connect to router.ndd.com port 443: Connection refused

    curl: (7) Failed to connect to router.ndd.com port 443: Connection refused

    nslookup router.ndd.com ne me donne correctement l'adresse.

     

    nslookup router.ndd.com 192.168.1.111

    Server:    192.168.1.111

    Address 1: 192.168.1.111

    Name:      router.ndd.com

    Address 1: 192.168.1.1

     

    nslookup router.ndd.com 192.168.0.1

    Server:    192.168.0.1

    Address 1: 192.168.0.1

    Name:      router.ndd.com

    Address 1: 192.168.1.1

    La seul solution pour que cela puisse fonctionner correctement c'est modifier toutes les ip que n'ont pas de services sur 192.168.1.111 dans les DNS SERVER.

    exemple :

    router.ndd.com 192.168.1.111(l'ip réel est 192.168.1.1)

    hub.ndd.com 192.168.1.111(l'ip réel est 192.168.1.11)

    camera.ndd.com 192.168.1.111(l'ip réel est 192.168.1.101)

    nas.ndd.com 192.168.1.111

    download.ndd.com 192.168.1.111

    localhost.ndd.com 192.168.1.111

    Donc qu'est-ce qui me*de en local pour avoir cette erreur 443?

    Merci......

     

     

     

  4. il y a 28 minutes, maxou56 a dit :

    Bonjour, @Superthx

    Je sais pas si ça peut t'aider. Mais tu peux installer ton certificat dans le NAS.

    Puis après utiliser ce certificat pour LDAP Server (dans "sécurité - certificat - configurer" tu peux changer le certificat de chaque services)

    Merci @maxou56, mais ce n'est pas ceci.

    Dans un windows server "normal" il y a une page web dédié a cela. Du type http://localhost/certsrv.

    Pour gestionner son Active Directory sur son Syno il faut installer dans un client Remote Administration Tool.

    Ce dernier utilise bien la stratégie de groupe, les utilisateurs, etc......

    Sauf que certsrv ne fonctionne pas avec synology

  5. Bonjour !

    J'ai une question. Pour signer un script powershell je dois signer mon fichier script et créer un certificat.

    Pour que le certificat soit valide dans Active directory je dois installer min certificat dans le serveur ou le générer par celui ci.

    Mais dans Active directory de synology il n'y a pas d'endroit ou stocker les certificats.

    Est ce normal ?

  6. Le 20/08/2019 à 07:47, shadowking a dit :

    Oui je pense que c'est normal, c'est notamment un problème de mémoire à mon avis, InfluxDB en réclame pas mal.

    En effet, j'ai rajouter 2 Go de ram à mon vieux DS1511+. LibreNMS ainsi que ce tuto fonctionne nickel.

  7. Salut !

    Je rencontre un problème sur mon reverse proxy. Et je but sèchement.

    mon NAS est sur l'ip 192.168.1.111. Tout les services comme portainer et autres services web fonctionne correctement.

    Exemple: https://test.ndd.com -> http://localhost:9000

    Mais j'ai fait aussi des redirections pour un router et un hub.

    https://router.ndd.com -> http://192.168.1.1:8080

    https://hub.ndd.com -> http://192.168.1.11

    Et chaque fois que me connecte sur une ip qui est rediriger autre que le NAS (localhost=192.168.1.111) impossible de se connecter.

    Sous chrome c'est ERR_CONNECTION_REFUSED.

    Cela ne le fais que sur les DNS en vue LAN.

    Car en vue DNS WAN ben sa marche bien.

    Faisant nslookup router.ndd.com. J'ai bien mon ip public

    Faisant nslookup router.ndd.com 192.168.1.111 . J'ai bien mon ip local de mon router 192.168.1.1

    Les reponse au ping de router.ndd.com est bien 192.168.1.1

    Quelqu'un peut m’éclairer ?

    Merci d'avance.

     

     

  8. Salut,
    Oui je pense que c'est normal, c'est notamment un problème de mémoire à mon avis, InfluxDB en réclame pas mal.
    Tu peux toujours essayer de déporter InfluxDB sur une autre machine, un raspberry pi ou que sais-je.


    Ok. Tu me rassure. Cela aussi le fait avec librenms.
    Merci.
  9. @shadowking, j'ai une question. Lorsque je me en marche tout. Mon nas commence à être saturé.

    Par exemple j'ai mis sur grafana les appareils suivant :

    • Mon NAS
    • Mon Router
    • Mon Router distant sous OPENVPN
    • Mon autre Router distant sous OPENVPN

    Il reçoit apparemment tellement d'info que au bout de 10 minutes je n'ai plus accès à celui ci et je dois éteindre et rallumer le NAS.

    Est ce normal ? Aussi je sais pas si cela est du à ma config. DS1511+ avec 1Go RAM.

     

  10. Le 07/08/2019 à 23:14, PPJP a dit :

    Liste_Url=("https://lists.blocklist.de/lists/") # espace entre chaque site!

    Ok je viens de voir ceci. Si je veux rajouter un site par exemple https://mariushosting.com/wp-content/uploads/2019/08/deny-ip-list.txt

    ce sera du type

    Liste_Url=("https://lists.blocklist.de/lists/ https://mariushosting.com/wp-content/uploads/2019/08/deny-ip-list.txt") # espace entre chaque site!

    ?

  11. Il y a 15 heures, PPJP a dit :

    Je suis repassé sur ce tuto et vous propose un script, pour DSM, un peu modifié.

    Cool, je testerai plus tard....Merci @PPJP

    Il y a 4 heures, Jojo (BE) a dit :

    Cela pourrait)il être un problème docteur ? Ou le Syno "peut là contre" ?
    Sinon, si je mets le blocage à 5 jours, il travaillera plus lors de la mise à jour, mais la DB serait plus petite ? Que pensez)vous qui soit le mieux ?

    Cela me semble normal. Depuis ton dernier post......

    Il y a 4 heures, Jojo (BE) a dit :

    Sinon, si je mets le blocage à 5 jours, il travaillera plus lors de la mise à jour, mais la DB serait plus petite ? Que pensez)vous qui soit le mieux ?

    Pourquoi pas. De toutes façons cel ne prends que quelques Mo.

     

  12. @shadowking salut !!!

    J'ai un probleme avec telegraf, dnas les log j'ai ceci :

    2019-08-02T12:32:10Z E! [outputs.influxdb] when writing to [http://influxdb:8086]: 401 Unauthorized: authorization failed
    
    2019-08-02T12:32:10Z E! [agent] Error writing to output [influxdb]: could not write any address

    D'où cela peut venir ? Merci.

    EDIT:

    J'ai trouvé l'erreur.@+

  13. Le 28/07/2019 à 15:31, shadowking a dit :

    Notes :
    - Il n'est pas possible d'ajouter un label à un container déjà existant. Il faut le recréer et insérer le label dans le script de création du container. Si vous savez les recréer facilement (peu de paramètres à entrer, vous avez monté assez de volumes pour assurer la persistance des données, ou si vous utilisez docker-compose) alors je préconise la méthode des labels, dans le cas contraire préférez MONITOR ou IGNORE suivant l'envie.
    - Une variable d'environnement non précisée dans un script est considérée comme false ou vide. Si par exemple vous utilisez la variable MONITOR, aucun besoin de préciser LABEL_ENABLE=false, c'est sous-entendu. Inversement, si vous utilisez la méthode des labels, implicitement ça signifie MONITOR=" ".

    Je me demande si cette option sous portainer permet de rajouter le label :

    730611112_Capturedcran2019-08-0119_40_23.thumb.png.81874c796c2d6f1e507b3e01545f76e7.png

     

  14. Voila les screens pour le compose suivant:

    version: '2'
    
    services:
      portainer:
        image: portainer/portainer
        container_name: portainer
        network_mode: bridge
        ports:
          - "9000:9000"
        volumes:
          - /volume1/docker/portainer/data:/data
          - /var/run/docker.sock:/var/run/docker.sock
    
        #environment:
            #- TZ=Europe/Madrid
    
    volumes:
      portainer_data:

    Au lancement :

    1129307878_Sanstitre-2.thumb.jpg.0252974784536ab653b021b38da9552f.jpg

    Configuration

    1612525144_Sanstitre-4.thumb.jpg.4be0f28899751e443d0cbfe206d7230d.jpg

    Erreur :

    1397778426_Sanstitre-6.thumb.jpg.7ee96b459f79c7d18e4ad197decf82a6.jpg

    Resultat

    1036619089_Sanstitre-5.thumb.jpg.3418782e2861710dbf8cde7fba852e1b.jpg

    Si tu veux plus dis moi.

    Sans titre-3.jpg

  15. il y a 12 minutes, shadowking a dit :

    Tu montes par contre le docker.sock via /var/run/docker.sock:/var/run/docker.sock

     

    J'ai tester avec :

    /var/run/docker.sock:/var/run/docker.sock

    et

    /volume1/docker/docker.sock:/var/run/docker.sock (j'ai cree un ln -s /var/run/docker.sock /volume1/docker/docker.sock)

    On est d'accord que pour Endpoint URL qu'il faut mettre "localhost:9000" ?

  16. il y a 47 minutes, shadowking a dit :

    EDIT : Tu n'as pas une interférence entre ton volume portainer_data et les volumes que tu montes dans le service ? Essaie de commenter la définition du volume, ça devrait marcher si ton port 9000 est accessible avec ce que tu as écrit là.

    J'ai decommenter :

     

    volumes:
          - /volume1/docker/portainer/data:/data
          - /volume1/docker/docker.sock:/var/run/docker.sock:ro

    J'arrive à me connecter sur sur l'interface mais dans les logs j'ai toujours ceci :

    2019/08/01 13:23:43 background schedule error (endpoint snapshot). Unable to create snapshot (endpoint=MON-NAS, URL=tcp://portainer.ndd.com:9000) (err=Error response from daemon: 404 page not found)
    

    Ceci sur toutes les adresses que je test .

  17. il y a 10 minutes, shadowking a dit :

    A quel niveau as-tu cette erreur ? dans les logs du container à son démarrage ?

    Oui.

    il y a 12 minutes, shadowking a dit :

    Parce que même s'il y avait un problème avec le docker.sock, tu auras juste un souci pour sélectionner un endpoint dans Portainer, ça ne t'empêcherait pas d'accéder à la page, de te logger, et de te balader dans les menus...

    Exact.

    il y a 12 minutes, shadowking a dit :

    J'imagine que tu as vérifié que le port 9000 est accessible sur ton réseau local ?

    Donc je sais pas pourquoi.

  18. Hello a nouveau @shadowking J'ai la meme erreur .

    Le 07/10/2018 à 11:37, shadowking a dit :

    http error: endpoint snapshot error (endpoint=local, URL=tcp://ndd.domaine.tld:9000) (err=Error response from daemon: 404 page not found)

    Mon docker-compose se compose de la maniere suivante....

    version: '2'
    
    services:
      portainer:
        image: portainer/portainer
        container_name: portainer
        network_mode: bridge
        ports:
          - "9000:9000"
        volumes:
          - /volume1/docker/portainer/data:/data
          - /volume1/docker/docker.sock:/var/run/docker.sock:ro
    
        #environment:
            #- TZ=Europe/Madrid
    
    volumes:
      portainer_data:

    Je crois qu'il n'arrive pas a atteindre docker.sock

    ni par 

    - /volume1/docker/docker.sock:/var/run/docker.sock:ro

    ou bien

    - /var/run/docker.sock:/var/run/docker.sock

    J'ai entre chaque essai effacer le contenu de /data. Mais rien ni fait.

    Mon nas est sur ip 192.168.1.111

    En faisant 192.168.1.111:9000 j'ai erreur de ping

    En faisant 172.17.0.1:9000 -> DOWN

    En faisant localhost:9000 -> DOWN

    Donc je sais pas quoi faire..............Merci

     

  19. Hello @shadowking

    Il y a 5 heures, shadowking a dit :

    Pour les labels, c'est à la création d'un container que ça s'ajoute oui, donc il faut recréer les containers qu'on souhaite mettre à jour si on veut utiliser cette méthode.

    Donc je prends l'exemple de jackett j'ai crée son fichier compose comme cela:

    version: "2"
    services:
    
      jackett:
        image: linuxserver/jackett                               
        container_name: jackett
        network_mode: bridge          
        environment:
          - PUID=1024
          - PGID=100
          - TZ=Europe/Madrid
          - RUN_OPTS=run options here #optional
          
        labels:
          -   "com.ouroboros.enable=true"
        volumes:
          - /volume1/docker/jackett/config:/config
          - /volume1/docker/jackett/downloads:/downloads
        ports:
          - 9117:9117
        restart: unless-stopped

    Est-ce bien comme cela qu'il faut rajouter labels ? Si c'est le cas il me reste plus que recréer les compose de chaque.

    EDIT :

    et pour celui de ourobouros

    version: "2"
    services:
    
        ouroboros:
            image: pyouroboros/ouroboros
            container_name: ouroboros
            network_mode: bridge
            environment:
                - CLEANUP=true
                - SELF_UPDATE=true
                - LOG_LEVEL=debug
                - LABEL_ENABLE=true
                - LABELS_ONLY=true
                - CRON="0 * * * *"
                - TZ=Europe/Madrid
                - MONITOR="jackett grafana influxdb telegraf"
            labels:
                - "com.ouroboros.enable=true"
            volumes:
                - "/var/run/docker.sock:/var/run/docker.sock"
            restart: unless-stopped

    Merci de ton aide.