Aller au contenu

declencher

Membres
  • Compteur de contenus

    235
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

declencher a gagné pour la dernière fois le 14 mars 2022

declencher a eu le contenu le plus aimé !

À propos de declencher

Mon Profil

  • Sex
    Male

Visiteurs récents du profil

3795 visualisations du profil

declencher's Achievements

Contributor

Contributor (5/14)

  • Dedicated Rare
  • First Post Rare
  • Collaborator Rare
  • Conversation Starter Rare
  • Week One Done

Recent Badges

4

Réputation sur la communauté

  1. Si je peux laisser du temps à Synology pour travailler ce sujet, je vais le repousser le plus longtemps possible. Je suis assez étonné d'une telle pratique pour un appareil qui a un tel coût, et pour une marque aussi réputée... Etrange d'autnt plus que tout le monde n'a pas de quoi sortir les données sur un disque externe. Peut être que je me trompe aussi sur le risque que représente une telle opération. Si on peut sauvegarder la config, exporter les données, et tout remettre en quelques clics (et quelques heures de copies), il n'y a peut être pas tant de risque que ça. J'ai trop peur de perdre l'ensemble de la config que j'ai passé tant d'heure à mettre en place...
  2. Salut, Merci pour ces infos. Je suis allé lire vos échanges très intéressants, et désespérants aussi... ça me dépasse qu'on doive tout réinstaller. Cette manipulation me fait flipper : Heureusement j'ai des disques externes pour backup, mais risque autour de la copie, risque pour la réactivation des services... Entre les cron, les conteneurs, et la data, il y a de quoi avoir peur... Je vais chercher une alternative pour installer cette CLI qui m'intéresse ailleurs que sur la partition système. Si vous avez des idées, je prends.
  3. Salut, Merci pour ton retour. Tu sais quel répertoire ils ont supprimer ou quel changement ils ont fait pour que la sauvegarde en question se fasse ailleurs ? Problème réglé : J'ai supprimé la CLI de Heroku avec les commandes de la doc : rm /usr/local/bin/heroku rm -rf /usr/local/lib/heroku /usr/local/heroku rm -rf ~/.local/share/heroku ~/.cache/heroku Ma surprise a été que la librairie fait moins de 400Mo, mais avec ces commandes, j'ai libéré 800Mo environ. Et là, mon DSM revit. Par contre je suis embêté, je dois trouver où installer cette CLI maintenant...
  4. Salut, J'ai un DS920+, 20Go de RAM et 3 HDD de 6To montés en SHR. Je n'ai aucun paquet issu d'un repo tiers, et quelques paquets officiels comme Mail Plus Server, Docker autre autre. Il me reste 1,3 To de libre. Lorsque j'ai voulu installer le dernier update, j'ai vu ce message : Insufficient system capacity for update. Please refer to this article to troubleshoot issues. L'article en question, le voici : https://kb.synology.com/en-id/DSM/tutorial/DSM_update_insufficient_system_capacity_for_update J'ai tout contrôlé, mais je bloque toujours sur ce message. J'ai ensuite trouvé ce post : https://vanderwijk.info/posts/resolving_synology_dsm_insufficient_system_capacity_for_update/ Je vois que ma partition system est probablement trop remplie (md0 ?), mais je ne suis pas concerné par la solution de cet article, ou alors je n'ai pas trouvé d'ancienne mise à jour bloquée. titi@NAS:/$ df -h Filesystem Size Used Avail Use% Mounted on /dev/md0 2.3G 2.1G 146M 94% / devtmpfs 9.7G 0 9.7G 0% /dev tmpfs 9.7G 244K 9.7G 1% /dev/shm tmpfs 9.7G 26M 9.7G 1% /run tmpfs 9.7G 0 9.7G 0% /sys/fs/cgroup tmpfs 9.7G 1.6M 9.7G 1% /tmp /dev/mapper/cachedev_0 11T 8.9T 1.7T 85% /volume1 tmpfs 1.0T 1.0G 1023G 1% /dev/virtualization Les précédentes mises à jour se sont toujours bien passées, à première vue, et là je sèche. Avez-vous déjà rencontré un tel problème ? Edit : je viens de remarquer ça : 341M ./lib/heroku Possible que ça explique tout ou pas ? Comment installer une CLI ailleurs que sur le system ? J'en ai besoin pour faire des sauvegardes... ça ne vient peut être pas de là...
  5. Salut, Je profite d'une insomnie pour faire la mise à jour d'un conteneur docker dont je gère les update manuellement. Après update, je tente d'y accéder depuis l'extérieur avec un nom de domaine, et là plus rien... Accès impossible. Après 1h de test, je découvre qu'un autre mini serveur est bien accessible sur mon réseau. J'ai cru à une défaillance du reverse proxy de DSM car ce qu'il gérait était HS. C'est finalement la default gateway qui avait basculé toute seule sur VPN. J'utilise une connexion VPN pour les backup vers un autre syno. Cette ligne VPN tombe très régulièrement, et je dois tenter 2 ou 3 reconnexion pour qu'elle soit rétablie. Vous savez comment mieux gérer cette connexion VPN instable (en tout cas chez moi) ? Quoi qu'il en soit, je ne comprends pas pourquoi la default gateway a changé (Control Panel > Network > General). Je n'avais jamais modifié ce paramètre. C'est comme s'il avait été modifié tout seul. Avez-vous déjà vécu ça ?
  6. Après dès mois d'alerte quotidienne, les alertes ont disparu. Sûrement un soucis côté package 😇
  7. Bonjour, J'ai suivi les tuto d'installation de Adguard home et de watchtower (encore merci les experts !). Pendants 2 ans RAS. Et voilà que depuis 1 mois, tous les jours sur Telegram, j'ai cette erreur : Watchtower updates on d583e13e656c Could not do a head request for "adguard/adguardhome:latest", falling back to regular pull. Reason: registry responded to head request with "404 Not Found", auth: "not present" Après recherche, ce message apparaît quand le projet concerné n'intègre pas un paramètre ou qu'il lui manque un truc. Quand une mise à jour arrive, elle est bien détectée et installée par watchtower. Savez vous comment corriger ça ? Ça vous arrive aussi ? J'ai plusieurs systèmes sous surveillance chez moi et les faux positifs me font perdre du temps. Et puis... J'aime comprendre 😇
  8. Je comprends mais mon mosquitto est dans un conteneur, et mon script sur l'os du Syno. Et nodered sur un autre conteneur 😅 Il y aurait moyen d'y arriver ? J'ai touché au but avec nodered dans son conteneur, un volume monté spécialement contenant le programme speed test : nodered exécute toutes les 15min et publie sur mqtt. Home assistant récupère, historise en local, historise sur influxdb et restitue.
  9. J'ai monté un volume, et via ssh, je vois qu'il est bien monté. Mon problème est plus basique maintenant : quelle ligne de commande donné à nodered. Habituellement je vais dans le répertoire contenant le programme, puis je fais ./monProgramme Nodered ne permettant que la saisie d'une commande, j'ai tenté "./cheminComplet/monProgramme", mais aucune exécution se produit. Et en ligne de commande via ssh, c'est pareil. Mon linux est rouillé 🙂 @PiwiLAbruti Ayant déjà Mosquitto dans un conteneur, je tenté d'éviter une 2ème installation 😅 Edit : Question idiote, il suffisait d'enlever le "." dans la commande 😊
  10. @.Shad. Je m'en doutais un peu 😅 Je vais tenter la piste de bliz. Merci @bliz pour l'idée. Je vais regarder pour appliquer cette méthode.
  11. Salut, J'ai aussi node-red dans un docker. L'idée serait donc de lancer le script directement dans nodered puis de le push sur mqtt. Je vais voir si je peux déposer un binaire sur node-red (le binaire de speedtest), pour qu'ensuite un script l'exécute, toujours dans node-red... Sauf erreur, mon docker ne peut pas voir les fichiers du NAS citué hors du conteneur ?
  12. Salut, J'ai un script speedtest qui me permet de contrôler le débit du Syno. Je souhaiterai publier le résultat json sur mon broker mosquitto. Je pensais que je pourrai installer un client MQTT mais je ne trouve rien. Auriez-vous des pistes ? Merci !
  13. Finalement le lendemain j'ai encore eu des problèmes d'authentification hyper lente, voir impossible, et hyper backup qui a encore "freezé". J'ai également pensé à mon conteneur Matomo : depuis quelques semaines, j'avais des alertes de disponibilité de uptime kuma, et là aussi, des difficultés sur l'authentification, et des difficultés pour la home de Matomo. Petit feedback pour les fan de NAS qui passeraient par là : ma RAM est arrivé plus tôt (merci père Noël), et tout est rentré dans l'ordre. Avec 20Go de RAM, je suis redescendu à 15% de charge environ, et tout est de nouveau fluide et disponible.
  14. Salut, J'ai fini par trouver comment faire par hasard même si je ne suis pas allé au bout du test pour isoler le problème : j'utilise un hub USB avec alimentation externe, et il est branché sur un des ports arrière du NAS. Sur la face avant, la clé USB était démonté tout seule, elle n'était même plus associé à ma VM.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.