Aller au contenu

CoolRaoul

Membres
  • Compteur de contenus

    5844
  • Inscription

  • Dernière visite

  • Jours gagnés

    57

Tout ce qui a été posté par CoolRaoul

  1. possible avec une commande "wget ftp://<host>/<chemin>" dans le cron, non?
  2. Me semble que ceci signifie simplement que tu transfere des fichiers beaucoup plus grand que la taille du cache. D'apres la doc (http://linux.die.net/man/5/davfs2.conf) le parametre "cache_size" vaut 50 MBytes par défaut (faut dire "MiBytes" maintenant ) mais le système davfs sait dépasser cette valeur si nécessaire ("mount.davfs will always take enough space to cache open files, ignoring this value if necessary") Faut bien comprendre la différence entre le cache ("cache_dir") et le répertoire contenant les fichiers ne pouvant pas être transférés ("backup_dir", refusés par le serveur par exemple si entraînant un dépassement de capacité). Voir la page de doc dont j'ai donné le lien ci-dessus. Donc, vu ce que tu décris, le pense plutôt que les fichiers que tu a supprimés de lost+found n'ont pas été transférés correctement.
  3. tout simplement comme ça: echo yes | mount.davfs <url> <point de montage>
  4. CoolRaoul

    Time Backup A

    J'ai le meme problème depuis que j'ai décidé de tester time backup sur un répertoire ce week-end. Ca se passe bien pendant quelques passes et soudain ça coince avec ce genre d'erreur (dans la syslog) BK_WARN:Another backup is still in process, abort Me demande si c'est bien fiable ce mécanisme ... EDIT: Trouvé l'explication de ce problème spécifique, suite a une fausse manip j'avais deux cron qui tournaient en parallèle et les tous les jobs étaient donc exécutés deux fois simultanément, parmi lesquels celui de time backup. Ceci dit je retrouve a nouveau les problèmes comme ceux décrit plus haut, à savoir " [failure to create snapshot]"
  5. Pour info, cette option n'est pas nécessaire dans le cas de Hubic
  6. Ca c'était déja ok Ah oui, en effet (Je dois dire que ça met pas en confiance sur le suivi du projet ce genre de choses...) Pour ma première tentative, j'avais récupéré le tgz obsolète et le make était en effet parti en vrille: Bon, nouvel essai: je récupère les sources avec svn comme ceci: svn checkout http://boxfs.googlecode.com/svn/trunk/ boxfs-trunk Aie, ca commence moyen: FSERV> make Package fuse was not found in the pkg-config search path. Perhaps you should add the directory containing `fuse.pc' to the PKG_CONFIG_PATH environment variable No package 'fuse' found Compiling boxfs.c cc -g -c boxfs.c -o boxfs.o make: cc: Command not found make: *** [boxfs.o] Error 127[/code] Je relance le "make" en forcant gcc a la place de cc, et c'est reparti comme en 14: [code] FSERV> make CC=gcc Package fuse was not found in the pkg-config search path. Perhaps you should add the directory containing `fuse.pc' to the PKG_CONFIG_PATH environment variable No package 'fuse' found Compiling boxfs.c gcc -g -c boxfs.c -o boxfs.o boxfs.c:15:18: error: fuse.h: No such file or directory etc .... [/code] Apparement il me manque un composant "fuse" mais ipkg ne connait pas: [code] FSERV> ipkg list "*fuse*" confuse - 2.7-2 - a configuration file parser library [/code] Bon, je pense que je vais plutôt aller me coucher...
  7. Essaie ceci, ça devrait le faire echo yes | mount.davfs https://idisk.me.com/user /volume1/idisk/[/CODE]
  8. Mis a part le problème du certificat qu'il faut accepter manuellement, j'ai un autre problème: J'ai testé le backup vers un compte box.net monté en webdav mais je ne parviens pas a lui faire faire des sauvegardes incrémentales. Ca repart systématiquement en full a chaque fois. Est-ce que quelqu'un y est arrivé?
  9. Interessant J'ai fais un test avec box.net, le montage fonctionne: $ mount -t davfs https://www.box.net/dav on /volume2/box.net type davfs (rw,nosuid,nodev,_netdev,uid=1035,gid=65546) mais ensuite: $ touch /volume2/box.net/a touch: cannot touch `/volume2/box.net/a': Input/output error !!!EDIT!!! trouvé la solution ici faut utiliser l'option use_locks 0 dans /opt/etc/davfs2/davfs2.conf et ca roule (avec les 50 Gigas gratuits chez box.net ces jours ci ça devient franchement intéressant tout ça)
  10. CoolRaoul

    Usb Station 2 Vs Ds-110J

    Le Syno va formater le disque dur en ext4 et donc c'est pas gagné pour le lire ailleurs que sur une machine nunux, je me trompe? [EDIT] en relisant la FAQ je viens de voir que la FAT32 est possible, dont acte... mais dans ce cas ne pas oublier attention la limitation de taille max des fichiers (4Go)
  11. CoolRaoul

    Une Bonne

    Ne cherchez plus : je viens de d
  12. CoolRaoul

    Une Bonne

    Suite a une mauvaise manip, j'ai effacé le contenu de mon fichier /usr/syno/etc/rc.d/S97apache-user.sh Je suis en DSM 3.0-1337 Si un lecteur charitable avec la même config me mettait a disposition une copie de sa version de se fichier je lui serait éternellement reconnaissant. A bientôt,
  13. Et un petit "up" sur ce fil: les liens donnés vers le tutoriel ne marchent plus, y aurait-il une copie du tuto quelque part? Merci d'avance
  14. C'est justement le choix que j'ai fait avec mon ds210: j'utilise l'unité 0 comme unité principale et la 1 pour les fichiers peu importants ou semi temporaires En outre j'ai programmé une sauvegarde automatique hebdomadaire de l'unité 0 vers l'unité 1. En cas de panne du disque 0 je perd donc maximum 7 jours et si c'est l'autre disque je ne perd rien d'important.
  15. [Je viens de m'inscrire sur le forum pour m'ins
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.