Aller au contenu

MilesTEG1

Membres
  • Compteur de contenus

    2903
  • Inscription

  • Dernière visite

  • Jours gagnés

    72

Tout ce qui a été posté par MilesTEG1

  1. Ha ! C’est une bonne idée mais comment est stocké la clé de déverrouillage ? c’est ce qui me freine au chiffrement des volumes. Même chose aussi chez moi . jai du recréer ces tâches moi même. Mais j’ai bien récupérée toutes mes tâches Hyperbackup. il a cependant fallu tout reconnecter et ça prend du temps. surtout qu’on ne peut pas tout reconnecter en un seul clic. meme chose pour lancer un backup.
  2. Bonsoir, Ayant formaté les disques de mon Syno pour gagner une partition root de 8Go au lieu des 2 pauvres giga, j'ai du refaire mes conteneurs, dont ACME. Et à l'étape 3B, j'ai une erreur : 20:08:56 - Script pour paramétrer le déploiement automatique des certificats sur le Syno. 20:08:56 - Exécution de la commande... [Mon Mar 25 19:08:56 UTC 2024] Logging into 172.20.0.1:19810 [Mon Mar 25 19:08:57 UTC 2024] Getting certificates in Synology DSM [Mon Mar 25 19:08:57 UTC 2024] Unable to find certificate: mon-ndd.ovh - Certificat Wildcard Lets Encrypt & $SYNO_Create is not set [Mon Mar 25 19:08:57 UTC 2024] Error deploy for domain:mon-ndd.ovh [Mon Mar 25 19:08:57 UTC 2024] Deploy error. 20:08:57 - Script de création du certificat wildcard terminé En regardant les réponses du sujet, je me suis dit que ça devait être un problème de nom de certificat. Et oui, le nom de la variable SYNO_Certificate doit être identique au nom mis dans DSM, sinon on a l'erreur précédente. Bref, tout fonctionne bien maintenant 😉 Pour le peu que je vais me servir du certificat de mon .ovh dans DSM 😅
  3. MilesTEG1

    Barre des tâches de DSM 7

    Bonjour 👋🏻 je suis dsns le même cas que vous. les applications épinglées dans la barre des tâches disparaissent et il faut les ré-épingler à nouveau . Et ce fréquemment. Jai contacté le support à ce propos il y a quelques mois mais ils n’ont pas su corriger le soucis et mon fait faire un nouvel utilisateur admin pour voir si ça faisait pareil. bref c’est bien chiant 🤬
  4. Ha, je crois qu'un fois, j'avais fait quelque chose comme ce qui est décrit dans le lien suivant : https://linuxconfig.org/how-to-setup-the-rsync-daemon-on-linux Sinon, après presque 12h, la grosse sauvegarde a été restaurée... mais affichait un message d'échec, car deux applications n'ont pu être restaurée : Universal Search, et un autre dont j'ai oublié le nom. Toutes les autres applications ont pu être restaurées. Toutes les tâches Hyperbackup sont présentes 🥳, mais faut que je les reconnecte. Les 1,2 To ont pu être restaurés également. J'en suis à la restauration des 600 Go restants via la commande rsync dans un terminal. J'ai quelque peu modifié mon script pour pouvoir quitter avec un CTRL+C, et pour checker à la fin de chaque dossier s'il y a des erreurs : #!/bin/bash clear declare -a source_folders_to_sync_ARRAY=() declare -a destination_folders_ARRAY=() folder_name_list="/volume1/homes/Miles-ADMIN/folder_name_list.log" LOG_FILE="/volume1/homes/Miles-ADMIN/rsync_vers_Syno_script.log" rsync_LOG_FILE="/volume1/homes/Miles-ADMIN/rsync-restauration_depuis_asustor.log" if [ -f "${LOG_FILE}" ]; then echo "${LOG_FILE} exists, removing" rm "${LOG_FILE}" fi # while read -r line; do # if [[ "${line}" == "" ]]; then # printf "\nDossier %s sans nom. On passe." "${line}" 2>&1 | tee -a "${LOG_FILE}" # else # printf "\nCopie rsync du dossier : %s ...\n" "${line}" 2>&1 | tee -a "${LOG_FILE}" # source_folders_to_sync_ARRAY+=source_folders_to_sync_ARRAY("${line}") # destination_folders_ARRAY+=destination_folders_ARRAY("${line}") # fi # done <"$folder_name_list" echo "Création de la liste des dossiers à restaurer à partir du fichier $folder_name_list" lines=$(cat $folder_name_list) for line in $lines; do # echo "$line" if [[ "${line}" == "" ]]; then printf "\nDossier %s sans nom. On passe." "${line}" 2>&1 | tee -a "${LOG_FILE}" else # printf "\nCopie rsync du dossier : %s ...\n" "${line}" 2>&1 | tee -a "${LOG_FILE}" source_folders_to_sync_ARRAY=( "${source_folders_to_sync_ARRAY[@]}" "${line}" ) # source_folders_to_sync_ARRAY+=source_folders_to_sync_ARRAY( "${line}" ) # destination_folders_ARRAY+=destination_folders_ARRAY("${line}") fi done echo "Copie du contenu des dossiers sauvegardés via Rsync vers le Syno, dossier par dossier" 2>&1 | tee -a "${LOG_FILE}" for folder in "${source_folders_to_sync_ARRAY[@]}"; do folder_dest="${folder}" printf "\n\t--> Dossier source \"%s\" qui va être restauré avec le dossier de destination \"%s\" sur le Synology\n" "${folder}" "${folder_dest}" 2>&1 | tee -a "${LOG_FILE}" # read -n 1 -r -s -p "Press any key to continue..." key rsync --password-file=/volume1/homes/Miles-ADMIN/secret_rsync_pwd_asustor -avh --progress --stats --exclude={'@eaDir','#recycle','~$*.*','~*','~*.tmp','desktop.ini','.DS_Store'} --log-file="${rsync_LOG_FILE}" rsync://MilesBackup@192.168.2.203:/Backup-TMP/Backup_Temp_Syno/"${folder}"/ /volume1/"${folder_dest}"/ 2>&1 | tee -a "${LOG_FILE}" read -n 1 -r -s -p "Press any key to continue..." key # printf "\n" done printf "\n\nCopie du contenu des dossiers sauvegardés via Rsync vers le Syno, dossier par dossier terminé.\n" 2>&1 | tee -a "${LOG_FILE}"
  5. Bonjour à tous, Pour ma curiosité personnelle, comment puis-je réussir à établir une connexion rsync depuis l'asustor vers le Syno depuis l'asustor lui-même ?
  6. Oui bien entendu 😊 sur un autre port que le 22. pour mon script , j’ai des erreurs rsync de copie (faudra que je le relance pour faire un copier coller ici), j’ai arrêté le script (d’ailleurs pas le choix que de relancer la connexion ssh sinon un ctrl+c ne fait rien…)
  7. Bon je n'ai pas le choix que de passer par la ligne de commande pour lancer rsync. Mais impossible de lancer depuis l'asustor, car je n'arrive pas à me connecter sur le Syno... Alors que l'inverse est possible. Je me suis fait un petit script pour copier le contenu des dossiers : #!/bin/bash folder_name_list="/volume1/homes/MonUserADMIN/folder_name_list.log" rsync_LOG_FILE="/volume1/homes/MonUserADMIN/rsync-restauration_depuis_asustor.log" echo "Copie du contenu des dossiers sauvegardés via Rsync vers le Syno, dossier par dossier" while read -r line; do if [[ "${line}" == "" ]]; then printf "\nDossier %s sans nom. On passe." "${line}" else printf "\nCopie rsync du dossier : %s ...\n" "${line}" rsync --password-file=/volume1/homes/MonUserADMIN/secret_rsync_pwd_asustor -avXh --progress --stats --exclude={'@eaDir','#recycle','~$*.*','~*','~*.tmp','desktop.ini','.DS_Store'} --log-file="${rsync_LOG_FILE}" rsync://MilesBackup@192.168.2.203:/Backup-TMP-Syno/Backup_Temp_Syno/"${line}"/ /volume1/"${line}"/ fi done <"$folder_name_list" printf "\n\nCopie du contenu des dossiers sauvegardés via Rsync vers le Syno, dossier par dossier terminé.\n" J'ai la liste des dossiers dans le fichier folder_name_list, et le mot de passe rsync dans le fichier secret_rsync_pwd_asustor. Je ne comprends pas pourquoi je n'arrive pas à avoir une communication rsync depuis l'asustor vers le Syno... Je précise que la commande ssh fonctionne bien.
  8. edit : bon bah la sauvegarde rsync monoversion ne passe pas. En revanche, les multiversions veulent bien se laisser restaurer. Vous avez une technique pour restaurer les dossiers partargés qui ont été sauvegardés par un rsync sans verisonning ?
  9. Bon, et bien je n'ai pas tout récupéré comme avant... Je n'ai plus aucune tâche de sauvegardes hypoerbackup, même après restauration des paramètres via le .dss. Mais bon j'ai récupéré une bonne partie des paramétrages. Par contre, la tâche de backup Rsync simple version ne peut pas être reconnectée... du coup je ne sais pas trop comment faire la restauration de ces données-là autrement que par un simple copier/coller via un montage SMB... Vous avez une idée ? J'ai fini par trouver comment faire pour restaurer depuis un référentiel existant. Mais j'ia cette erreur : Une idée de pourquoi et comment rectifier ?
  10. salut 👋🏻 Dites hier j’ai voulu restaurer ma sauvegarde dsm et il faut que je me connecte avec l’utilisa « admin » qui est désactivé. C’est normal ? je n’ai d’ailleurs pas vu d’option pour restaurer le .dss à l’installation de dsm.
  11. Nickel 🙂 Merci. Je vais quand même sortir les disques et passer un coup de formatage rapide depuis un ordinateur (sauf les NVMe, car je n'ai pas ce qu'il faut). Je vais aussi en profiter pour passer les 4 To en secteurs 4k au lieu de 512 (faut encore que je retrouve comment faire XD)
  12. @Mic13710 @.Shad. @Jeff777 Est-ce que c'est bon ça ? Je pense que oui 🙂 J'ai fait la réinitialisation depuis DSM, puis réinstallation de DSM depuis Synology Assistant.
  13. Ok je vérifierais avant de tout refaire niveau stockage. deja une fois les sauvegardes finies (elles sont encore en cours …), je supprime les volumes , j’efface les disques effaçables depuis dsm , je casse le shr principal en gardant un seul disque , l’autre est effacé et ensuite je verrai. est-ce qu’on peut depuis synolgy assistant formater le dernier disque et réinstaller dsm ?
  14. @.Shad.haaa oui j’avais fait ça pour intégrer Crowdsec 😊 c’est une bonne idée 😊👍🏻
  15. Ha cool ça alors, donc ça supprime toutes les partitions, et donc ça pourra récréer les partitions root à 8Go ? Ha ! Donc les .env ne seront pas envoyés sur GH ? Pour les docker secrets, je ne sais pas comment ça fonctionne, bien que j'en ai entendu parler.
  16. @.Shad.Tu vas abandonner le macvlan ? En ce qui me concerne j'ai placé SWAG sur un NUC, donc plus besoin du macvlan. Mais j'ai continué à utiliser ton travail sur SWAG ^^
  17. Top 🙂 J'espère pouvoir adapter ton futur tuto à mon installation (Portainer entre-autre) 😀
  18. MilesTEG1

    [TUTO] Docker : Introduction

    Le souci de Container Manager, c'est qu'il est dans DSM. Et donc faut charger DSM avant de pouvoir charger Container Manager. Donc c'est lent. Sinon, je suis d'accord, même si l'interface de CM est perfectible, on pourrait se passer de Portainer. Sauf si on passe par un dépôt GIT. Ou si on a plusieurs instances de Docker à manager. Auquel cas, Portainer, reste la référence.
  19. Hello, Bon le backup est encore en cours... moyenne de 40-50 MB/s malgré l'adaptateur 2,5GbE, le swtich 2,5GbE et la carte réseau aussi 2,5GbE de l'asustor... (backup sur des SSD dans l'asustor). @.Shad. J'ai pu restaurer le backup de mon instance portainer du Syno sur une nouvelle instance que j'appelle Superviseur sur un NUC dans une VM Debian. J'ai retrouvé l'accès aux stacks de toutes mes instances, sauf pour celles du Syno, car la machine ayant changé, j'ai du les supprimer. Et installer l'agent sur le Syno et le lier au Superviseur. Bref, comme le Syno va finir formaté, c'est pas bien grave. Me faut juste vérifier que toutes ses stacks sont sur Gitea ^^ Sinon, j'ai vu qu'on pouvait réinitialiser le NAS depuis DSM et donc réinstaller DSM : Est-ce que ça formatte vraiment tous les disques ? Si c'est le cas, je peux lancer la procédure à distance, et lancer Synology Assistant sur un Windows en VM pour finaliser. Mais sinon, ça va vouloir dire que je vais devoir sortir les disques et les formater en dehors du NAS... Enfin, sortir le dernier que je n'aurais pas effacer depuis DSM 🙂
  20. Je vais probablement ne plus utiliser le dépôt gitea pour faire mes stacks. Ça a des avantages mais plus d’inconvénients pour moi, vu que j’auto-heberge mon gitea. le copié/coller dans l’éditeur de portainer me semble finalement plus pratique. car rien que la stack de création de gitea lui même ne peut être fait via le dépôt ! meme chose pour swag. je ne veux pas mettre ça sur GitHub même en’ privé, j’ai des infos de connexion dans les .env et parfois dans les docker compose.
  21. C'est bien ça le problème. Je suis sûr qu'il y a des volumes volatiles non mis en bind-mount sur le chemin docker /volume4/docker/conteneur_i/ ... Tu peux me confirmer que ce genre de volume reste sur les machines où le conteneur est créé/lancé ? et qu'ils ne sont pas sur la machine qui centralise la gestion via portainer ?
  22. Merci @Jeff777 Je viens de me rendre compte d'un truc. Pour gérer mes instances de Portainer, je passe par portainer agent sur chaque machine. Et tout est centralisé sur mon Syno... Donc sur les portainer des autres machines, j'ai bien accès aux conteneurs créés : je peux les arrêter/démarrer/redémarrer/supprimer. Mais je n'ai pas accès aux stacks qui les as créés... vu que tout est sur le Syno... Jusqu'à maintenant je ne trouvais pas ça gênant de tout avoir sur la même machine... Mais là, ça va le devenir... Comment faites-vous pour gérer plusieurs machines docker ? Vous faites comme moi : plusieurs instances portainer + Agent -> accès via un portainer central ? Ou bien faites-vous autrement ? Comme par exemple accès à chaque machine séparément, sans lien entre-elles ?
  23. Petite MAJ 🙂 J'ai lancé les sauvegardes temporaires, ça prend du temps 😅 Cependant, je n'ai pas eu d'erreurs sur les sauvegardes à destination de l'Asustor, seules les sauvegardes à destination du cloud K-Drive me font une erreur de partition système : Je ne comprends pas trop pourquoi... Ça m'a l'air assez aléatoire en prime, car parfois je n'ai pas d'erreurs... Bref, j'ai coupeécertains services comme Synology Photos, et Surveillance Station, pour éviter les données de dernières minutes à sauvegarder. Faudra que je fasse pareil avec Container Manager, pour faire la sauvegarde des conteneurs. J'ai aussi remarqué que quand Vitual Machine Manager est installé, avec donc Open vSwitch activé, la sauvgegarde de la configuration du Syno ne contient pas tout : Dès lors que Open vSwitch est désactivé, tout est bien sauvegardé. Pour ne pas être embêté, la semaine dernière j'ai déplacé le reverse proxy SWAG sur un NUC, et aussi Vaultwarden. Il va me falloir faire de même pour ma deuxième instance de Adguard Home. Ainsi je n'aurais plus besoin de macvlan sur le NAS, et ça m'ôtera un problème potentiel après. J'ai aussi sorti le disque 3 du NAS, celui qui contient les sauvegardes des instances proxmox, et aussi celui qui potentiellement à une partition système de 8Go. Voilà voilà @+ quand j'aurais d'avantage de nouvelles
  24. @Mic13710 c’est ce que j’envisageais 😇 merci pour le confirmation 😊 il n’y a plus qu’à ! enfin avant je vais jouer de ncdu pour savoir combien j’ai dans les volumes et les partages. Je sens que ça va être long ça aussi 😅
  25. Hello 👋🏻 je viens de placer deux ssd (1 de 1To sata et un de 2To NVMe) dans mon asustor. Pour faire une sauvegarde des données du syno, vous préconisez quoi pour que ce soit rapide et fiable comme mode de sauvegarde ? Hyperbakup ou rsync ? Là je n’ai pas besoin de version ni de chiffrement.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.