Aller au contenu

hacr

Membres
  • Compteur de contenus

    35
  • Inscription

  • Dernière visite

À propos de hacr

Visiteurs récents du profil

Le bloc de visiteurs récents est désactivé et il n’est pas visible pour les autres utilisateurs.

hacr's Achievements

Rookie

Rookie (2/14)

  • First Post Rare
  • Collaborator Rare
  • Week One Done
  • One Month Later
  • One Year In Rare

Recent Badges

0

Réputation sur la communauté

  1. Oui ça fonctionne, je vais pouvoir regarder l'épisode pilote de columbo 😉 Ca a l'air de bien fonctionner, je viens de récupérer l'épisode 2.... Merci pour tout! PS j'ai retiré l'envoi vers ton serveur, pour ne pas laisser de traces quand je m'attaquerai à l'épisode pilote des mystères de l'ouest...
  2. Je m'étais trompé de host. C'est fait maintenant.
  3. J'ai viré PHP8.0 et relancé
  4. A l'heure où les vilains pirates sont chassés par des ayant droit, c'est un peu compréhensible.... Je vais voir ce que je peux faire.... Je viens de faire la manip, un fichier (un épisode de la saison 1 de Columbo, épuisé 500 fois à la télé) en host waiting. Envoyé en remote log à l'adresse indiquée
  5. Alors: j'ai DSM 7.2.1 rernière release (update 4) Pour PHP en fait je m'aperçois en avoir 2: la 8.0 et 8.2. Une de trop peut-être?
  6. Merci pour ces orientations. J'ai activé l'APIkey et intégré sa valeur dans le champ MdP (j'ai maintenu mon adresse mail en login, par vieux réflexe de vieux). J'ai lancé une récupération d'un fichier 1fichier. Mais je reste en host waiting. Le téléchargement direct du fichier via chrome fonctionne direct. Comment puis-je aider?
  7. Je me réponds: j'ai mis le MdP du compte 1fichier, et malgré le message d'erreur j'ai validé. Et ça télécharge Addon: j'ai ajouté 2 fichiers, ils restent en "host waiting". Mais je rejoins une analyse précédente, c'est peut-être l'hébergeur....
  8. Bonsoir! Tous d'abord merci aux différents devs, qui font vivre ces modules pour le bonheur de tous. J'essaie de suivre les évolutions de ce host. J'étais jusqu'à peu en 3.2.5, jusqu'à une poignée de jours où cela ne marchait plus. J'ai installé la 4.0.2, ça a marché deux trois jours, je vois que la 4.0.6 est en place. Et je rencontre un petit souci. Pour mes ID 1fichier, je mets en login l'adresse mail de mon compte, mais en mot de passe, que je mette le mdp de mon compte 1fichier ou un code API généré via l'admin 1fichier, j'ai une erreur "login ou mdp incorrects". Y a-t-il une manip qui m'échappe? Merci!
  9. Bonjour Le site web ayant grossi et évolué, la solution utilisée était passée à plus de 5 heures, pour presque 6 Go de fichier tar. Du coup j'ai changé de braquet et trouvé la solution crontab d'un serveur linux: J'ai installé tout d'abord sshpass, pour transmettre le mot de passe dans une ligne de commande. Cela donne la syntaxe complète suivante de tar distant: sshpass -p motdepasse ssh -o StrictHostKeyChecking=no login@adressehebergeur tar czvf /chemin-du-backuo/backup-$(date +%Y-%m-%d-%H-%M-%S).tar.gz /chemin-du-repertoire-à-sauver/ Explication: sshpass -p motdepasse c'est pour préparer la commande ssh qui suit, pour y transférer le mot de passe. -o StrictHostKeyChecking=no c'est l'option qui permet d'éviter le check de la clé hôte (important dans un script). backup-$(date +%Y-%m-%d-%H-%M-%S).tar.gz c'est pour créer un fichier tar horodaté. J'ai mis ça en crontab pour compresser à distance le répertoire du site web, tous les jours à 1h du matin. Ca prend 5mn de compression Suivi d'une autre commande crontab de téléchargement 5mn plus tard (pour laisser une marge) wget -m ftp://login:motdepasse@adressehebergeur/chemin-du-backup/*.tar.gz -P /chemin-local-sauvegarde/ Ce qui prend 3 mn Je termine enfin par un simple sshpass -p motdepasse ssh -o StrictHostKeyChecking=no login@adressehebergeur rm /chemin-du-backup/*.tar.gz pour effacer le fichier backup distant, une fois le tar.gz rapatrié. Résultat: j'ai transformé plus de 5 heures de téléchargement de milliers de fichiers en 10mn de transfert d'un seul gros fichier. Si cela peut aider....
  10. Bonjour. Je reviens vers ce post, borgbackup ne m'ayant pas permis d'aboutir. Je fais évoluer ma demande: est-il possible de monter un accès sftp sur un répertoire local de syno? Cela me permettrait d'appliquer les requêtes de compression et de récupération en "local". Merci!
  11. Bonjour Responsable d'un site web hébergé chez un prestataire, j'ai été échaudé par le double incendie OVH, et j'ai donc mis en place un script de sauvegarde automatique du site web sur mon synology domestique. Via le planificateur de taches, j'ai mis en place un script assez simple: wget -m ftp://login:password@dns-répertoire-site/* -P /volume1/Disque1/espace-syno-de-sauvegarde/archives pour télécharger les fichiers du site, tar -zcvf /volume1/Disque1/espace-archive-compressée/backup-$(date +%Y-%m-%d-%H-%M-%S).tar.gz /volume1/Disque1/espace-syno-de-sauvegarde/archives/ pour compresser ce que j'ai téléchargé, avec la date de sauvegarde dans le nom, et enfin: rm -rf /volume1/Disque1/espace-syno-de-sauvegarde/archives/ pour nettoyer les fichiers téléchargé une fois le tar.gz réalisé. Cela fonctionne parfaitement, au hic près suivant: cela met 2h30, car il y a en gros 3,5Go de data, et à peu près 100000 fichiers. Ce que je souhaite faire, et qui est plus logique: créer un tar.gz sur le serveur distant dans un répertoire temporaire Télécharger le fichier tar.gz sur le syno Supprimer le tar.gz distant une fois le téléchargement terminé. Cela prendrait 10mn à tout casser... Et c'est là que ça coince, je n'arrive pas à trouver la bonne syntaxe du tar. Je fais donc appel à la collectivité pour un petit soutien! Merci beaucoup!
  12. Bonjour Faisant cohabiter un serveur dédié et mon syno sur mon réseau, j'avais l'intention de changer le port d'accès de Photo Station, qui squatte le port 443, et de mettre le port 45001 et 45000 pour le 80 Or depuis ce paramétrage, que ce soit en local 192.168.syno:45000 ou 45001, ou à distance via le nom de domaine lié à mon ip, il est devenu inaccessible. J'ai un accès root SSH à mon syno; je ne retrouve pas le port dans les fichiers de conf. Sauriez-vous, par hasard, dans quel fichier de conf le port est paramétré? Je vous en remercie
  13. Petit update.... En débranchant électriquement le boitier TV (SFR) de la box, le flux s'arrête.. En rebranchant le jus, le flux reprend. En déplaçant le câble réseau de boitier TV, au départ connecté sur un switch (sur lequel est connecté le syno, un shield,...) vers un port ETH la box, il n'y a plus de flux parasite sur le syno. Cela voudrait dire que le flux TV passait par le syno, alors qu'ils partageaient le même switch.... Mais si c'était le cas, j'aurais aussi un flux similaire en upload. Très bizarre. j'ai du mal à comprendre. Ce qui n'enlève pas le besoin du thread pour le monitoring réseau. Ou l'ajout d'une colonne réseau dans le moniteur de ressource....
  14. Si, j'y ai pensé, mais: - j'ai désactivé les serveurs apache pour le cloud, -j'ai désactivé le surveillance station (les enregistrements étaient éteints avant) -j'ai désactivé cloud station. - j'ai rebooté Mais le flux d'entrée continue à arriver. Les occupations disque n'évoluent pas, ce qui rajoute à l'étrange...
  15. Bonjour J'ai la même question: je recherche comment savoir quel process (ou quelle app syno) consomme de manière continue de la bande passante. Le syno consomme en permanence 1,5MB/s en download. Darkstat n'indique rien de significatif, et le moniteur de ressource n'a pas la colonne "réseau" dans l'onglet "gestionnaire de tâches". Merci pour vos conseils!!
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.