This site uses cookies! Learn More

Ce site utilise des cookies !

En continuant à utiliser ce site, vous vous engagez à nous permettre de stocker des cookies sur votre ordinateur.

 

Si nous utilisons des cookies et retenons des données anonymes, c’est pour nous aider à mieux gérer notre mesure d’audience, aider nos partenaires commerciaux à nous rémunérer et nos partenaires publicitaires à proposer des annonces qui vous correspondent.

 

Grâce à ces cookies, le forum est en mesure de savoir qui écrit un message et utile pour le système d'authentification.

 

En cliquant sur « J'accepte », vous acceptez l'utilisation par NAS-Forum de cookies publicitaires et de mesure d'audience fine.

shadowking

Membres
  • Compteur de contenus

    332
  • Inscription

  • Dernière visite

  • Jours gagnés

    6

shadowking a gagné pour la dernière fois le 22 août

shadowking a eu le contenu le plus aimé !

À propos de shadowking

  • Rang
    Chevalier des Syno

Visiteurs récents du profil

738 visualisations du profil
  1. D'après ce lien, cette faille est corrigée depuis un bail, et un DS218+ vient de base avec DSM 6.x je crois. C'est très étonnant, si tu n'as pas exposé dangereusement ton NAS avant d'avoir bouclé la partie sécurisation, d'être victime de ce genre de chose. A ta place je vérifierais mon réseau local, car dans le tuto on ouvre tous les ports vers le LAN, et il est beaucoup plus facile d'être infecté sur un PC que sur un NAS.
  2. Alors une possibilité serait aussi un problème d'identifiant DynHost. Peut-être en as-tu créé deux, donc vérifier que celui sur OVH correspond à celui entré dans accès externe. Parce que dans ce cas-là tu peux avoir tout qui semble bon sur le NAS, mais n'utilisant pas le même identifiant, OVH met à jour une entrée DynHost n'existant pas/plus. Tout ça de manière totalement transparente.
  3. shadowking

    Bien le bonjour

    Bienvenue 🙂
  4. C'est ça qu'il te faut à ce niveau-là :
  5. La photocopieuse ne bride rien, c'est lorsque tu discutes entre 2 périphériques, la vitesse sera égale à la plus petite des deux vitesses atteignables. Si tu discutes de PC1 à PC2, la photocopieuse n'a aucune espèce d'influence, ce sera la la vitesse minimum de PC1 ou PC2 qui définira la rapidité des échanges entre les deux.
  6. 2 pistes : - Regarder dans le paquet Centre de journaux de Synology si tu vois quelque chose d'intéressant dans les logs. - Voir ce que contient le fichier /var/log/messages en SSH.
  7. Ben c'est normal alors, tu n'as qu'un port Gigabit, en l'état aucun périphérique ne pourra communiquer en gigabit avec ton NAS, vu qu'ils sont sur des ports 10/100. Deux solutions, tu changes ton switch 8p ou, tu ajoutes un switch 5p gigabit (20€) sur ton port gigabit, et tu y relies tous tes périphériques où la vitesse de transfert importe. EDIT : Doublé par @firlin 😛
  8. La récurrence de 48h des déconnexions me fait penser à un bail DHCP arrivant à terme et un conflit d'IP en conséquence. Vu que ton NAS est en IP fixe, as-tu pris soin de lui attribuer une adresse IP en dehors du DHCP range de ta box ? Le mieux étant quand même de ne pas fixer l'IP sur le NAS, mais de faire une réservation d'adresse IP en fonction de l'adresse MAC de ton interface réseau dans la partie DHCP de ta box.
  9. Dans Panneau de configuration -> Accès externe, est-ce que le statut de ton DDNS est sur Normal, ou une erreur au sujet de DSN ?
  10. shadowking

    Hello!!

    Bienvenue 🙂
  11. shadowking

    Bonsoir

    Bonjour Taolinou, Tu peux t'aider du sujet ci-dessous, sinon sur le site de Synology : https://www.synology.com/fr-fr/compatibility Il est intéressant de désactiver le compte admin par défaut, tout simplement car admin c'est évident comme login, le scanneur n'aura plus qu'à trouver le mot de passe. Donc désactiver le compte admin par défaut après avoir créé un compte administrateur personnalisé. Tu peux ensuite créer des comptes utilisateurs qui n'auront que des droits en lecture seule. Je reconnais que c'est quelque chose qui manque sur le forum, un guide des bonnes pratiques concernant la gestion des utilisateurs, je me lancerais bien mais je ne suis moi-même pas sûr de le faire dans les règles de l'art. Les services du NAS sont disponibles via des ports, ce sont des portes si tu veux pour rentrer dans le NAS. Si tu désactives ou si tu l'actives mais que tu ne refuses aucun accès au NAS c'est comme si toutes les portes étaient ouvertes. En général, on donne aux autres périphériques un accès total au NAS en local (tous les ports ouverts), et on bloque un maximum de ports vers l'extérieur, en ouvrant seulement ce pour quoi on n'a pas le choix. On peut fortement limiter le nombre de ports ouverts vers l'extérieur avec une connexion VPN sur ne NAS. Ce sont beaucoup de notions d'un coup, j'ai vraiment surnagé un petit temps avant de comprendre comment tous les paramètres étaient reliés. Bon courage 🙂
  12. De ce que j'ai lu, oui, mais avec moins de probabilité. Après, si tu cumules la durée de vie de tes deux 1815+, tu arriveras à quelque chose de raisonnable. 😉 Assures-toi juste d'avoir un plan de sauvegarde plus fréquent, et vérifie de temps à autre que ta sauvegarde fonctionne en faisant une restauration.
  13. Jusque-là tout va bien. 🙂 Oui pour InfluxDB et Grafana, pas besoin pour Telegraf. Si tu regardes le script du docker-compose de Telegraf : version: "2" services: telegraf: image: telegraf container_name: telegraf hostname: telegraf volumes: - "/volume1/docker/telegraf/telegraf.conf:/etc/telegraf/telegraf.conf:ro" - "/proc:/host/proc:ro" - "/usr/share/snmp/mibs:/usr/share/snmp/mibs:ro" ports: - 8125:8125/udp - 8092:8092/udp - 8094:8094 restart: unless-stopped networks: default: external: name: data_export On ne monte nulle part un dossier data, on monte par contre le fichier telegraf.conf, pour que les données persistent. Si tu ne fais pas ça, à la moindre màj ou suppression du container, tu seras bon pour tout recommencer, car Telegraf aura généré un nouveau fichier au sein du container. Là on lui dit que celui dans le container, c'est celui qu'on a dans notre dossier. Oui, en effet 😛 Tu dois faire correspondre les champs suivants : influxdb: image: influxdb container_name: influxdb hostname: influxdb environment: - INFLUXDB_DB=nas_telegraf # InfluxDB Details : Database - INFLUXDB_ADMIN_USER=admin - INFLUXDB_ADMIN_PASSWORD=admin - INFLUXDB_USER=nas_telegraf # InfluxDB Details & Basic Auth Details : User - INFLUXDB_USER_PASSWORD=nas_telegraf # InfluxDB Details & Basic Auth Details : Password - INFLUXDB_HTTP_AUTH_ENABLED=true ... Ce qui est en majuscule, c'est le nom de la variable, après le signe égal, c'est sa valeur, et c'est toujours la valeur qui nous intéresse. INFLUXDB_DB => Nom de la variable nas_telegraf => Valeur N'hésite pas à relire le tutoriel à tête reposée, il n'est pas des plus simples et vérifie que tu as bien validé chaque étape avant Grafana, car cette dernière est triviale par rapport à ce qui la précède.
  14. Je cite le préambule du tutoriel : En se basant sur l'exemple que je donne avec telegraf, tu pourrais très bien créer un dossier influxdb dans un dossier partagé docker qui reprend les données persistantes de tous tes containers. Si ce n'est toujours pas clair n'hésite pas. Nulle part pour l'instant, tu vas le créer à partir de l'image que tu as normalement déjà téléchargée à ce stade :
  15. Oui c'est la limite des NAS de manière générale, si on veut pouvoir transcoder c'est plutôt un serveur déporté suffisamment puissant pour la tâche qu'il faut employer, un bon i5 peut faire l'affaire.