Aller au contenu

MilesTEG1

Membres
  • Compteur de contenus

    2920
  • Inscription

  • Dernière visite

  • Jours gagnés

    73

Tout ce qui a été posté par MilesTEG1

  1. Bonjour, Ayant réussi à mettre en place le serveur Gotify et à configurer Crowdsec et fail2ban pour envoyer leurs notifications à Gotify, je cherche maintenant à y placer les notifications de DSM. Est-ce que quelqu'un l'a déjà fait ? Voilà ce que j'ai commencé à faire : Mais je bloque sur cette partie : Que dois-je mettre ici comme champs ? Je ne trouve aucune info sur internet... Si je continue de défiler les écrans, et que je valide le dernier, j'ai ce message : Merci à tous ceux qui auraient les infos nécessaires ^^ Bonne journée ++
  2. Je n’ai pas compris la question… J’ai répondu dans mon précédent message. sinon va voir mon issue GitHub qui est juste la précédente à la tienne… https://github.com/bb-qq/r8152/issues/296
  3. Hello 👋🏻 j’utilise en effet un adaptateur usb 2,5 Gb sur mon 920+. je ne sais pas encore comment le pilote se comporte après une maj de dsm. mais j’ai fait un script pour qu’à chaque reboot et toutes les 30 min (moyennant la création d’une tâche déclenchée et d’une autre planifiée ) ce script test le pilote et le relance au besoin , et teste aussi le Ping sur la passerelle par défaut sur l’interface eth2 pour vérifier le bon fonctionnement du pilote et le relance au besoin. Bon par contre j’ai un petit soucis sur le 920+ : dès qu’il lui faut envoyer les données ça ne dépasse pas le Gb… par contre en réception pas de soucis. J’ai fait une issue là dessus sur le GH du pilote. j’y ai aussi posté le lien GH de mon script pour ceux que ça intéresse. Je vous le redonne ici : https://github.com/MilesTEG1/synology-driver-pkgctl-r8152-restart-reload
  4. Salut, il ne me semble pas possible de faire ce que tu souhaites avec Drive. il faudrait regarder dans la console d’administration de Driver Server pour voir s’il est possible de faire quelques chose. Sinon tu as bien mis les permissions adéquates sur les dossiers partagés ? A en lecture/écriture sur le dossier Azerty et B en lecture seule dessus ?
  5. Quelle est l'utilité d'une manipulation comme celle-là ? (je cherche à comprendre) Serait-ce pour permettre aux périphériques dans le réseau de la box de pouvoir communiquer avec ceux dans le réseau du routeur ?
  6. Faut que je prenne le temps de retenter correctement et dès lors je pourrais aussi faire un signalement à synology.
  7. Je pense que c’est buggé sur macos . avec Ventura j’ai essayé la synchro à la demande. mais j’avais la même chose que toi @Almogaver, et pire l’entrée dans le Finder pour accéder aux données disparaissait subitement… sans moyen pour la retrouver… j’ai donc laissé tombé et je suis repassé sur la bonne synchronisation d’autant . Dommage ça aurait fait de l’espace sur mon disque cette synchronisation à la demande…
  8. Je confirme ce que dis @maxou56 : je n'ai pas de soucis à me connecter en SSH avec l'utilisateur administrateur personnalisé, malgré qu'il ait le 2FA activé. ssh User-Admin@192.168.10.1 -p 12541 où tu mets bien entendu ton adresse IP de routeur, et le -p suivi du port personnalisé du SSH sur le RT.
  9. MilesTEG1

    DSM 7.2 Bêta disponible

    Je n'ai pas compris 😆
  10. MilesTEG1

    DSM 7.2 Bêta disponible

    Merci. Ça peut être intéressant pour des données de sauvegardes, entre deux sauvegardes. Éventuellement pour des médias pour PMS ou autre...
  11. MilesTEG1

    DSM 7.2 Bêta disponible

    J'ai du mal à comprendre ce que c'est ceci. Quelqu'un peut-il vulgariser ?
  12. iperf3 le permet et il me semble qu'il est déjà présent sur le RT.
  13. MilesTEG1

    Choix DS920+ ou DS923+

    Non mais je suis bien d’accord là dessus. Cependant, on peut avoir besoin de regarder quelque chose en dehors de chez soi 😁 et là pas le choix si on veut vraiment voir la vidéo ☺️
  14. MilesTEG1

    Choix DS920+ ou DS923+

    Dans certains cas c’est quand même nécessaire : via une connexion 4G par exemple. Même si c’est assez rare que j’utilise ma 4G pour regarder un média, quand ça arrive le nas transcode. Et le ds920+ y arrive plutôt bien sans que ça rame, sur au moins 3 flux simultanés. je passe ainsi de 4K hdr à 1080p en 8M ou 720p avec un débit inférieur suivant le débit que je veux avoir. des fois c’est même juste une diminution de débit sur la même définition.
  15. Bonsoir, Il me faut vos conseils 😊 Je suis en train de réorganiser mes données entre mes différents nas, voilà où j’en suis ce soir : ds920+ : nas principal qui contient les données vitales et services syno (Drive, Photos) et fait la vidéosurveillance. Docker , reverse proxy (swag), Adguard Home, NextCloud , gitea, portainer et divers autres conteneurs. Il est aussi la destination des sauvegardes des ordinateurs mac et pc. Hyperbackup me fait des sauvegardes sur le colis et fera (quand je l’aurai paramétré) des sauvegardes sur au moins un des deux autres nas. Ce 920+ est équipé de 2 hdd 4To en shr faisant un volume et un disque de 2To (basique) faisant le volume dédié à surveillance station. Il a aussi deux ssd nvme de 500Go formant un volume en raid1 (oui j’ai bricolé en CLI 🤣 ) ce volume étant dédié à Docker. Asustor As6704T : il est lui doté de deux ssd sata de 500Go en raid formant un volume dédié à docker là aussi. J’ai récemment placé le Seagate Exos 14 To (qui était dans le 920+) pour y stocker les médias de Plex, car le serveur Plex (et tautulli) est sur l’asustor. Sur ce nas est aussi présent une instance de AdGuard Home (la principale) avec une synchronisation des paramètres avec celle du 920+. (J’ai vu aussi que le slot3 de ce nas a un défaut : dès qu’il y a un disque dessus, le nas ne démarre pas jusqu’à au bout, les disques tournent le nas se lance mais ne finit pas le boot). Qnap TS-470 Pro : pour le moment pas encore initialisé. Il stockera les backups des deux autres nas, et sera allumé une fois par semaine pour recevoir ces backups. Je prévois de lui mettre ces disques qui étaient dans le ds214play que je vais filer à mes beaux-parents : WD Red 8To et un Seagate Ironwolf 4To que le 920+ m’a fait sortir car un ou quelques secteurs défectueux : un test badblock complet n’a révélé aucun souci ni erreurs, donc il est bon pour reprendre du service en tant que disque de backup. J’ai un vieux Seagate barracuda 2To qui subit en ce moment un badblock car il ne passe pas le test smart étendu qui se bloque à 10%. Si le badblock se fini il pourra servir. Le badblock ne fini pas -> poubelle. J’ai aussi un vieux WD Green 1To aussi que je pourrais utiliser si j’utilise un dernier disque 4To dans mon 920+. Il reste enfin un dernier disque de WD Red 4To que j'ai analysé avec smartctl pour voir s’il a eu des erreurs car il était utilisé dans le 214play avant que j’ai le 920+, et qui a continué sa vie dans le 214play en tant que disque de backup, ce NAS était lancé une fois par semaine pour recevoir les backups du 920+. Je voudrais d'autres avis sur l'utilisation de ce disque en production dans le 920+ : je l’intègre au volume en shr faisant alors un raid 5 à trois disques avec les risques que ça entraîne à la reconstruction… Ou bien j’en fait un volume séparé de 4To ? L’objectif serait d’augmenter la taille du volume de données ou d'en avoir un autre pour stocker TimeMachine, Active Backup. J’aurais préférence sur l’ajout à la grappe shr ce serait plus simple à gérer :ange: Qu’en pensez-vous ? Merci d’avance pour vos conseils 😊 PS : Le vieux WD Red affiche Et voilà les données smart obtenue en ligne de commande après avoir lancé un test smart étendu sur les deux disques, tous deux terminés sans erreurs. smartctl -a --device=ata /dev/sata1 Pour le WD Red : smartctl 6.5 (build date Oct 7 2021) [x86_64-linux-4.4.180+] (local build) Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Western Digital Red Device Model: WDC WD40EFRX-68WT0N0 Serial Number: WD-XXXXXXXXXXXXXXXXXX LU WWN Device Id: 5 0014ee 2b46adcba Firmware Version: 80.00A80 User Capacity: 4,000,787,030,016 bytes [4.00 TB] Sector Sizes: 512 bytes logical, 4096 bytes physical Rotation Rate: 5400 rpm Device is: In smartctl database [for details use: -P show] ATA Version is: ACS-2 (minor revision not indicated) SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Thu Mar 2 06:55:24 2023 CET SMART support is: Available - device has SMART capability. SMART support is: Enabled === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: Offline data collection status: (0x00) Offline data collection activity was never started. Auto Offline Data Collection: Disabled. Self-test execution status: ( 0) The previous self-test routine completed without error or no self-test has ever been run. Total time to complete Offline data collection: (52980) seconds. Offline data collection capabilities: (0x7b) SMART execute Offline immediate. Auto Offline data collection on/off support. Suspend Offline collection upon new command. Offline surface scan supported. Self-test supported. Conveyance Self-test supported. Selective Self-test supported. SMART capabilities: (0x0003) Saves SMART data before entering power-saving mode. Supports SMART auto save timer. Error logging capability: (0x01) Error logging supported. General Purpose Logging supported. Short self-test routine recommended polling time: ( 2) minutes. Extended self-test routine recommended polling time: ( 530) minutes. Conveyance self-test routine recommended polling time: ( 5) minutes. SCT capabilities: (0x703d) SCT Status supported. SCT Error Recovery Control supported. SCT Feature Control supported. SCT Data Table supported. SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 178 174 021 Pre-fail Always - 8075 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 716 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 017 017 000 Old_age Always - 61236 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 516 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 229 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 763 194 Temperature_Celsius 0x0022 122 101 000 Old_age Always - 30 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed without error 00% 61235 - # 2 Short offline Completed without error 00% 61225 - # 3 Short offline Completed without error 00% 58394 - # 4 Extended offline Completed without error 00% 55857 - # 5 Short offline Completed without error 00% 55847 - # 6 Conveyance offline Completed without error 00% 55700 - # 7 Conveyance offline Completed without error 00% 55700 - # 8 Extended offline Interrupted (host reset) 90% 55698 - # 9 Extended offline Interrupted (host reset) 90% 55697 - #10 Extended offline Interrupted (host reset) 90% 55697 - #11 Short offline Completed without error 00% 55697 - #12 Short offline Completed without error 00% 55139 - #13 Short offline Completed without error 00% 54514 - #14 Short offline Completed without error 00% 54397 - #15 Extended offline Completed without error 00% 54049 - #16 Short offline Completed without error 00% 53678 - #17 Short offline Completed without error 00% 52937 - #18 Short offline Completed without error 00% 52219 - #19 Short offline Completed without error 00% 51476 - #20 Short offline Completed without error 00% 50781 - #21 Short offline Completed without error 00% 50039 - SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay. Pour le Seagate Ironwolf : smartctl 6.5 (build date Oct 7 2021) [x86_64-linux-4.4.180+] (local build) Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Seagate IronWolf Device Model: ST4000VN008-2DR166 Serial Number: xxxxxxxxxxxx LU WWN Device Id: 5 000c50 0a3e5be3f Firmware Version: SC60 User Capacity: 4,000,787,030,016 bytes [4.00 TB] Sector Sizes: 512 bytes logical, 4096 bytes physical Rotation Rate: 5980 rpm Form Factor: 3.5 inches Device is: In smartctl database [for details use: -P show] ATA Version is: ACS-3 T13/2161-D revision 5 SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Thu Mar 2 16:41:29 2023 CET SMART support is: Available - device has SMART capability. SMART support is: Enabled === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: Offline data collection status: (0x82) Offline data collection activity was completed without error. Auto Offline Data Collection: Enabled. Self-test execution status: ( 0) The previous self-test routine completed without error or no self-test has ever been run. Total time to complete Offline data collection: ( 591) seconds. Offline data collection capabilities: (0x7b) SMART execute Offline immediate. Auto Offline data collection on/off support. Suspend Offline collection upon new command. Offline surface scan supported. Self-test supported. Conveyance Self-test supported. Selective Self-test supported. SMART capabilities: (0x0003) Saves SMART data before entering power-saving mode. Supports SMART auto save timer. Error logging capability: (0x01) Error logging supported. General Purpose Logging supported. Short self-test routine recommended polling time: ( 1) minutes. Extended self-test routine recommended polling time: ( 642) minutes. Conveyance self-test routine recommended polling time: ( 2) minutes. SCT capabilities: (0x50bd) SCT Status supported. SCT Error Recovery Control supported. SCT Feature Control supported. SCT Data Table supported. SMART Attributes Data Structure revision number: 10 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000f 076 064 044 Pre-fail Always - 36435418 3 Spin_Up_Time 0x0003 094 093 000 Pre-fail Always - 0 4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 424 5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x000f 094 060 045 Pre-fail Always - 6993211729 9 Power_On_Hours 0x0032 047 047 000 Old_age Always - 47197 (47 118 0) 10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 217 184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0 187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0 188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0 189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0 190 Airflow_Temperature_Cel 0x0022 072 054 040 Old_age Always - 28 (Min/Max 21/30) 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 175 193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 542 194 Temperature_Celsius 0x0022 028 046 000 Old_age Always - 28 (0 16 0 0 0) 197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0 240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 47101h+59m+07.398s 241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 265800699543 242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 274010963523 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Short offline Completed without error 00% 47197 - # 2 Extended offline Completed without error 00% 47196 - # 3 Extended offline Completed: read failure 90% 47017 56279544 # 4 Short offline Completed without error 00% 47017 - # 5 Extended offline Completed without error 00% 46533 - # 6 Short offline Completed without error 00% 46491 - # 7 Short offline Completed without error 00% 45771 - # 8 Short offline Completed without error 00% 45026 - # 9 Extended offline Completed without error 00% 44368 - #10 Short offline Completed without error 00% 44306 - #11 Short offline Completed without error 00% 43562 - #12 Short offline Completed without error 00% 42818 - #13 Extended offline Interrupted (host reset) 00% 42140 - #14 Short offline Completed without error 00% 42098 - #15 Short offline Completed without error 00% 41354 - #16 Short offline Completed without error 00% 40634 - #17 Extended offline Completed without error 00% 39938 - #18 Short offline Completed without error 00% 39891 - #19 Short offline Completed without error 00% 39219 - #20 Short offline Completed without error 00% 38475 - #21 Extended offline Completed without error 00% 37784 - 1 of 1 failed self-tests are outdated by newer successful extended offline self-test # 2 SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay. Ce Seagate ne me semble pas bien parti pour revenir dans le Syno : Le WD Red, bien que plus vieux, n'avait pas ces avertissements 🙂 Bon bref, j'aimerais vos avis 🙂 Bonne soirée ++
  16. @_DR64_ supporme le filtre en question et ça devrait le faire 😊 de ce que je comprends, l’erreur vient du fait que l’URL du filtre ne fonctionne pas.
  17. @_DR64_ Jusque-là, oui, tu as tout bon ! 👍🏻 par contre, là ça ne va plus 😅 J'ai que deux conteneurs AdGuard Home, + un AdGuard-Sync qui fait la synchronisation. Mes deux instances (= conteneurs) AdGuard Home sont sur deux machines différentes : une sur le DS920+ (c'est celle-là qui est en macvlan, donc avec un .yml dédié), et l'autre qui est sur l'Asustor (c'est celle dont j'ai donné la configuration et le le docker-compose précédemment). Le AdGH de l'asustor a l'IP : 192.168.2.203 Le AdGH de du 920+ a l'IP : 192.168.2.210, qui est une IP macvlan.
  18. C'est commenté, la partie macvlan, donc pas utilisée sur cette instance. Par contre, l'autre instance de AdGH est, elle, en macvlan. J'ai repris son docker-compose, et j'ai laissé la partie sur le macvlan au cas où j'en aurais eu besoin. Tu parles de quoi ? Tu parles à @.Shad.ou à moi ?
  19. @_DR64_ Voilà mon docker-compose, de l'instance qui fait les synchronisations (machine en 192.168.2.203) ## ## Fichier docker-compose.yml pour AdGuard-Home en mode HOST + AdGuard-Home Sync ## ## STACK adguardhome_avec_sync ## ## Pour le conteneur AdGuard-Home : ## https://github.com/AdguardTeam/AdGuardHome ## https://github.com/AdguardTeam/AdGuardHome/wiki/Docker ## ## ## Pour le conteneur AdGuard-Home Sync : ## https://docs.linuxserver.io/images/docker-adguardhome-sync#docker-compose-recommended-click-here-for-more-info ## ## Pour le fichier de configuration AdGuard-Home Sync : ## https://github.com/bakito/adguardhome-sync/ ## ## ## Commande pour créer les dossiers : ## mkdir -p adguardhome_avec_sync/{conf,work,sync_config} ## ## WEB-UI disponible sur le port 8880 (après configuration) ## --- version: "2.4" services: adguardhome-sync: image: lscr.io/linuxserver/adguardhome-sync:latest container_name: adguardhome-sync environment: - PUID=1002 - PGID=1000 - TZ=Europe/Paris - CONFIGFILE=/config/adguardhome-sync.yaml #optional volumes: - "/volume1/docker/adguardhome_avec_sync/sync_config:/config" labels: - "com.centurylinklabs.watchtower.enable=true" depends_on: - adguardhome networks: adguard-home-sync_network: ipv4_address: 172.18.0.2 ports: - 8780:8080 # restart: unless-stopped restart: always adguardhome: image: adguard/adguardhome:latest container_name: adguardhome hostname: AdGuard-Home--AS6704T # Permet d'avoir un nom pour le conteneur dans AdGuard lui même (sinon c'est une chaine aléatoire) environment: - PUID=1002 # Utiliser la commande (en SSH) : id NOM_UTILISATEUR - PGID=1000 # Ici, ces valeurs correspondent à l'utilisateur : Docker-Generic-User - TZ=Europe/Paris - LANG=fr_FR.UTF8 - LANGUAGE=fr_FR.UTF8 # --------------------------------------------------------------------------------- # Le label ci-dessous permet à Watchtower de faire les mises à jour automatiquement # Cela peut-être supprimé si Watchtower n'est pas utilisé. labels: - "com.centurylinklabs.watchtower.enable=true" # --------------------------------------------------------------------------------- volumes: - "/volume1/docker/adguardhome_avec_sync/work:/opt/adguardhome/work" - "/volume1/docker/adguardhome_avec_sync/conf:/opt/adguardhome/conf" # ports: # - "953:53" # - "967:67/udp" # - "968:68" # - "8080:80/tcp" # - "9443:443/tcp" # - "9853:853/tcp" # - "3030:3000/tcp" network_mode: "host" # networks: # macvlan-network: # ipv4_address: 192.168.2.210 # Mettre ici l'IP macvlan définie dans les scripts # restart: unless-stopped restart: always healthcheck: test: "/bin/netstat -pant | /bin/grep 53" interval: 45s timeout: 30s retries: 3 # networks: # macvlan-network: # Ce réseau devra bien entendu être créé avant avec le script # external: true networks: adguard-home-sync_network: name: adguard-home-sync_network ipam: driver: default config: - subnet: 172.18.0.0/16 ip_range: 172.18.0.0/24 gateway: 172.18.0.1
  20. @_DR64_ Bonsoir, Alors, je n'utilise pas les variables d'environnements pour passer les valeurs... Mais si tu veux le faire, je pense qu'il faut un signe = plutôt que les : pour une version 2.1 du docker-compose.yml. Je suis passé directement par le fichier de configuration : # cron expression to run in daemon mode. (default; "" = runs only once) cron: "*/30 * * * *" # runs the synchronisation on startup runOnStart: true origin: # url of the origin instance url: http://192.168.2.203:8880 # apiPath: define an api path if other than "/control" # insecureSkipVerify: true # disable tls check username: admin password: MDP-Admin_ADG # replica instance (optional, if only one) replica: # url of the replica instance url: http://192.168.2.210:80 username: admin_bis password: MDP-Admin_ADG_bis # replicas instances (optional, if more than one) # replicas: # # url of the replica instance # - url: http://192.168.1.3 # username: username # password: password # - url: http://192.168.1.4 # username: username # password: password # # autoSetup: true # if true, AdGuardHome is automatically initialized. # Configure the sync API server, disabled if api port is 0 api: # Port, default 8080 port: 8780 # if username and password are defined, basic auth is applied to the sync API username: admin_adgh-sync password: MDP-Admin_ADG_Sync # Configure sync features; by default all features are enabled. features: generalSettings: true queryLogConfig: true statsConfig: true clientSettings: true services: true filters: true dhcp: serverConfig: true staticLeases: true dns: serverConfig: true accessLists: true rewrites: true Pour la partie API, je ne me rappelle plus comment j'ai fait pour avoir un login et un mdp dédié...
  21. Je viens de voir que ma copie du Syno vers l'Asustor avait mis le .hbk dans un sous-dossier avec le même nom... Mais même remis sans sous-dossier, ça ne se reconnecte pas en rsync :
  22. Alors oui je me souviens de ce sujet. Mais il était question là bas de deux nas synology. Enfin je pense. ici le nas de destination des sauvegardes sera un asustor. je me suis fait une raison : je referais les sauvegardes de zéro. j’aurais toujours des versions sur le backup cloud.
  23. Hello 👋🏻 J’ai installé un adapteur réseau usb 2,5G sur mon 920+ en suivant l’article de cachem : https://www.cachem.fr/nas-synology-25-gbit-s/ Et les consignes pour le pilote à installer dans dsm : https://github.com/bb-qq/r8152/releases Tout est fonctionnel et les tests iperf3 montrent bien un débit proche de 2,5Gbps, nickel. J’ai donc une nouvelle interface réseau eth2 en plus des eth0 et eth1 qui correspondent aux ports réseau 1Gb du nas. J’ai gardé active la connexion sur eth0 en secours au cas où la eth2 deconnerait. J’ai donc ces adresses iP : - 192.168.2.200 pour eth0 (port 1G) - 192.168.2.201 pour eth2 (port 2,5G) J’ai aussi mis en place une tache planifiée qui lance ou relance le paquet des fois qu’il plante ou après une update. (Faut que je vérifie exactement comment j’ai paramétré ceci). Enfin j’ai mis le eth2 en premier dans l’ordre des connexions qu’on peut modifier dans les préférences réseau. Jusque là tout va bien. Dernière précisions : J’ai des conteneurs docker en macvlan, réseau crée à partir de l’interface eth0. Avec une adresse iP virtuelle liée à l’adresse iP du port eth0. Ma question : comment faire en sorte sur tout le traffic de transfert de données passent par le port eth2 ? Je sais que si j’initie depuis un ordi ou un autre nas une connexion sur l’adresse iP du port eth2 pas de soucis , mais si la connexion part du nas lui même , par exemple une sauvegarde hyperbackup, comment être sûr que les transferts de feront bien sur le port eth2 en 2,5G ? Car je le rappelle, le port eth0 est toujours actif. Dernière question : le traffic lié au reverse proxy swag lui passe toujours par l’ip de eth0, on est bien d’accord ? Ça ne me dérange pas ce mode de fonctionnement, ça permet d’avoir les services toujours fonctionnels si l’interface eth2 est plantée. Question facultative : aurais-je un gain potable en faisant passer le reverse proxy sur la connexion 2,5G ? (J’ai un serveur Plex, tautulli, gitea, Vaultwarden , et plein d’autres conteneurs accessibles via le RP, et aussi les services du nas comme dsm , photos, drive …) Ho ! Drive ! Oui lui ça serait utile 🤪 Dernière question subsidiaire : comment faire pour que seul drive profite de cette connexion ? Merci d’avance pour votre aide 😉 Ps : je mettais des captures dès que je serai sur mon ordi.
  24. Oui bien sûr 😉 c’est bien via ce mode de choix que j’ai tenté les reconnexions de la sauvegarde.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.