Aller au contenu

.Shad.

Membres
  • Compteur de contenus

    6647
  • Inscription

  • Dernière visite

  • Jours gagnés

    159

Tout ce qui a été posté par .Shad.

  1. Beaucoup d'images permettent d'utiliser la variable d'environnement TZ qui permet de fixer le fuseau horaire. Voir la doc d'une image Linuxserver, n'importe laquelle, et c'est variable pour bien d'autres.
  2. Essaie de taper ça en SSH sur ton NAS : docker exec -it <nom_du_conteneur> python3 --version Soit l'exécutable n'existe pas, donc le binaire python n'est pas installé, soit il n'est pas dans les chemins de recherche du système (PATH), et donc il faut ajouter l'emplacement du binaire au PATH.
  3. .Shad.

    Gamme DSX22+

    Les spécifications matérielles des NAS Syno évoluent lentement, d'où le fait qu'un modèle de la série 16 est encore parfaitement capable. Certains se plaignent des processeurs peu puissants, mais en ces temps de disette énergétique c'est plutôt une bonne chose, car ils consomment de fait très peu. En revanche, plus le modèle est ancien, plus le support logiciel des versions à venir de DSM sera court. Si je devais acheter un nouveau NAS maintenant, je partirais sûrement sur une série 20 ou plus.
  4. Si tu ne précises pas de ip-range, ça prend le subnet par défaut. Je viens de tester sur mon DS918+ : Je ne sais pas trop quoi te dire, ça devrait fonctionner, vérifie la liste de tes réseaux. Passe sur autre chose que 18.0.0, par exemple passer de /24 à /16, ou encore 18.10.0 en /24, ou tu choisis un autre 2ème octet, tu peux aller jusqu'à 31, tu as l'embarras du choix. 🙂 @_DR64_ Chez moi ça fonctionne (j'ai réimporté le tableau de bord du tutoriel pour l'occasion) : Essaie de voir si dans ton fichier les inputs suivants sont décommentés : [[inputs.disk]] ## By default stats will be gathered for all mount points. ## Set mount_points will restrict the stats to only the specified mount points. # mount_points = ["/"] ## Ignore mount points by filesystem type. ignore_fs = ["tmpfs", "devtmpfs", "devfs", "iso9660", "overlay", "aufs", "squashfs"] # Read metrics about disk IO by device [[inputs.diskio]] ## By default, telegraf will gather stats for all devices including ## disk partitions. ## Setting devices will restrict the stats to the specified devices. # devices = ["sda", "sdb", "vd*"] ## Uncomment the following line if you need disk serial numbers. # skip_serial_number = false # ## On systems which support it, device metadata can be added in the form of ## tags. ## Currently only Linux is supported via udev properties. You can view ## available properties for a device by running: ## 'udevadm info -q property -n /dev/sda' ## Note: Most, but not all, udev properties can be accessed this way. Properties ## that are currently inaccessible include DEVTYPE, DEVNAME, and DEVPATH. # device_tags = ["ID_FS_TYPE", "ID_FS_USAGE"] # ## Using the same metadata source as device_tags, you can also customize the ## name of the device via templates. ## The 'name_templates' parameter is a list of templates to try and apply to ## the device. The template may contain variables in the form of '$PROPERTY' or ## '${PROPERTY}'. The first template which does not contain any variables not ## present for the device is used as the device name tag. ## The typical use case is for LVM volumes, to get the VG/LV name instead of ## the near-meaningless DM-0 name. # name_templates = ["$ID_FS_LABEL","$DM_VG_NAME/$DM_LV_NAME"] Il faut relancer le conteneur que les modifications soient prises en compte.
  5. @oracle7 Si tu crées le réseau par DSM, ça fonctionne ? Tu n'en as pas déjà un existant en 18 ?
  6. Google a changé sa politique concernant les "applications moins sécurisées" comme ils appellent ça. Je crois qu'ils ont mis en place un système de token d'accès à l'API et au SMTP, à confirmer. Si @rodo37 n'a rien changé depuis, c'est possible que simplement aucun email ne parte.
  7. @_DR64_ Est-ce que comme préconisé dans 8-B-3-b tu as passé à true le réglage suivant ? ## If true, no CREATE DATABASE queries will be sent. Set to true when using ## Telegraf with a user without permissions to create databases or when the ## database already exists. skip_database_creation = true Pour ta 2ème question :
  8. .Shad.

    ou sont passés mes Giga ?

    Faudra m'expliquer le réglage à 32 versions par défaut...
  9. @MuadDib J'ai un macvlan fonctionnel sur mon bond (mais c'est un balance-tcp), quel type de bond tu utilises ? et quelle erreur obtiens-tu ?
  10. C'était histoire d'être sûr 🙂
  11. Là : set $app bitwarden
  12. .Shad.

    Newbie du Nas

    Bienvenue parmi nous !
  13. Ce que tu as fait c'est uniquement une étape supplémentaire pour introduire une exception dans le mécanisme de défense de Bitwarden. Ca n'aura jamais aucun impact si tu n'ajoutes pas un subfilter. Et dans le script, vu que Vaultwarden n'est pas explicitement mentionné dans les apps supportées par Theme-park, laisse bitwarden pour voir.
  14. Tu as testé d'ajouter les blocs de subfiltering dans les deux blocs suivant du fichier vaultwarden.subdomain.conf ? location / { # enable the next two lines for http auth #auth_basic "Restricted"; #auth_basic_user_file /config/nginx/.htpasswd; # enable the next two lines for ldap auth #auth_request /auth; #error_page 401 =200 /ldaplogin; # enable for Authelia #include /config/nginx/authelia-location.conf; include /config/nginx/proxy.conf; include /config/nginx/resolver.conf; set $upstream_app vaultwarden; set $upstream_port 80; set $upstream_proto http; proxy_pass $upstream_proto://$upstream_app:$upstream_port; } location ~ (/vaultwarden)?/admin { # enable the next two lines for http auth #auth_basic "Restricted"; #auth_basic_user_file /config/nginx/.htpasswd; # enable the next two lines for ldap auth #auth_request /auth; #error_page 401 =200 /ldaplogin; # enable for Authelia #include /config/nginx/authelia-location.conf; include /config/nginx/proxy.conf; include /config/nginx/resolver.conf; set $upstream_app vaultwarden; set $upstream_port 80; set $upstream_proto http; proxy_pass $upstream_proto://$upstream_app:$upstream_port; }
  15. Oui c'est une bonne solution dans des cas comme le tien. Alors oui, on dépend d'un tiers, mais au moins c'est fonctionnel et très simple à mettre en place.
  16. Quand ce ne sont pas des images Linuxserver c'est de suite beaucoup plus de chipotage 😄 Merci pour la découverte en tout cas !
  17. Sans .sample à la fin ? Pour theme-park je n'ai pas encore testé en auto-hébergé pour l'instant, mais franchement c'est sympa sur Deluge :
  18. Sympa ça ! Je ne connaissais pas, je vais tester 😊
  19. Ah merci je n'avais pas vu ! Je corrige 🙂
  20. Depuis le NAS tu peux exécuter n'importe quelle commande du conteneur : docker exec -it pihole pihole updatechecker Le premier "pihole" étant le nom de ton conteneur pihole, le deuxième faisant partie intégrante de la commande à proprement parler (pihole updatechecker). Voir 8-B-3 de https://www.nas-forum.com/forum/topic/65309-tuto-docker-introduction/
  21. Et pas d'erreur dans les logs ?
  22. Synology est plutôt clean sur ce point, il est possible de l'avoir gratuitement pour 3 NAS ou moins, ce qui couvre déjà la quasi intégralité des utilisateurs comme nous. Et c'est un vrai plus pour ceux qui gèrent un parc professionnel de NAS.
  23. Il aurait fallu aussi recréer le dossier de tête (pihole). Perso, en suivant exactement la procédure au-dessus, voilà ce que j'ai :
  24. Heu chez Plex l'authentification passe par leur serveurs pour les instances perso ? Je pensais que c'était totalement auto-hébergé ?
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.