.Shad. Posté(e) le 25 mars 2019 Partager Posté(e) le 25 mars 2019 Bonjour à tous, Depuis l'acquisition de mon NAS DS218+ il y a environ un an, j'ai mis en place le plan de sauvegarde suivant : - 1 sauvegarde "complète" sur disque externe via USB à 3:30 tous les lundi matin. - 1 sauvegarde via C2 qui reprend juste la configuration système et les données vraiment importantes. Tout a fonctionné à merveille jusqu'à ce matin, où j'ai eu l'erreur suivante : La description de l'erreur n'étant pas du tout explicite je suis allé consulter les logs pour essayer d'en savoir un peu plus. Voici ce qui a trait au déroulement de la sauvegarde : 2019-03-25T03:30:03+01:00 NAS img_backup: [22241]img_backup.cpp:2143 Local Backup Task has been started: task_ID: 8 2019-03-25T03:30:06+01:00 NAS can_export: /source/synophoto/src/backup/can_export.cpp:23 SynologyMoments INFO can_export[22317]: hyperbackup [2.2] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1562 Action: [local backup], Repo Path: [usbshare1], LinkKey: [NAS_00113289B9C8_8], Cloud backup: [0], Target ID: [BACKUP_WEEKLY.hbk], task ID: [8] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1564 app config Path: [/volume1/@tmp/BKP_APP_oK5yNi] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/calibre] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/docker] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/document] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/homes] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/MailPlus] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/music] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/photo] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/programmes] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/raspberry] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/video] 2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/web] 2019-03-25T03:30:07+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [calibre] backup snapshot [/volume1/@sharesnap/calibre/GMT+01-2019.03.25-03.30.06] 2019-03-25T03:30:08+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [docker] backup snapshot [/volume1/@sharesnap/docker/GMT+01-2019.03.25-03.30.07] 2019-03-25T03:30:09+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [document] backup snapshot [/volume1/@sharesnap/document/GMT+01-2019.03.25-03.30.08] 2019-03-25T03:30:11+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [homes] backup snapshot [/volume1/@sharesnap/homes/GMT+01-2019.03.25-03.30.09] 2019-03-25T03:30:12+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [MailPlus] backup snapshot [/volume1/@sharesnap/MailPlus/GMT+01-2019.03.25-03.30.11] 2019-03-25T03:30:13+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [music] backup snapshot [/volume1/@sharesnap/music/GMT+01-2019.03.25-03.30.12] 2019-03-25T03:30:15+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [photo] backup snapshot [/volume1/@sharesnap/photo/GMT+01-2019.03.25-03.30.13] 2019-03-25T03:30:16+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [programmes] backup snapshot [/volume1/@sharesnap/programmes/GMT+01-2019.03.25-03.30.15] 2019-03-25T03:30:17+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [raspberry] backup snapshot [/volume1/@sharesnap/raspberry/GMT+01-2019.03.25-03.30.16] 2019-03-25T03:30:18+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [video] backup snapshot [/volume1/@sharesnap/video/GMT+01-2019.03.25-03.30.17] 2019-03-25T03:30:19+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [web] backup snapshot [/volume1/@sharesnap/web/GMT+01-2019.03.25-03.30.18] 2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:2890 Failed to fetch dsm user (1030) 2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:3339 failed when photo_access_right_for_dsm_account. 2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:2890 Failed to fetch dsm user (1030) 2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:3343 failed when photo_upload_right_for_dsm_account. 2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:2938 Failed to fetch dsm user (65539) 2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:3351 failed when photo_group_permission_for_dsm_account. 2019-03-25T03:31:30+01:00 NAS export: Export finished result is 0 2019-03-25T03:31:31+01:00 NAS can_export: /source/synophoto/src/backup/can_export.cpp:23 SynologyMoments INFO can_export[24126]: hyperbackup [2.2] 2019-03-25T03:31:41+01:00 NAS synopkgctl: resource_api.cpp:231 Release media-index for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release csp-rule for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release synocrond for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release web-config for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release webapi-desc for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release webapi-desc for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:45+01:00 NAS synopkgctl: SYSTEM: Last message 'resource_api.cpp:231' repeated 1 times, suppressed by syslog-ng on NAS 2019-03-25T03:31:44+01:00 NAS img_backup: resource_api.cpp:231 Release syslog-config for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:45+01:00 NAS img_backup: resource_api.cpp:231 Release indexdb for SynologyMoments when 0x0010 (done) 2019-03-25T03:31:47+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory] 2019-03-25T03:31:47+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory] 2019-03-25T03:32:16+01:00 NAS synomustache: SYSTEM: Last message 'synomustache.cpp:88 ' repeated 1 times, suppressed by syslog-ng on NAS 2019-03-25T03:32:16+01:00 NAS export: /source/synophoto/src/backup/export.cpp:20 SynologyMoments export: data version [55] 2019-03-25T03:32:20+01:00 NAS img_backup: resource_api.cpp:163 Acquire indexdb for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:20+01:00 NAS img_backup: resource_api.cpp:163 Acquire syslog-config for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire webapi-desc for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire webapi-desc for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:22+01:00 NAS synopkgctl: SYSTEM: Last message 'resource_api.cpp:163' repeated 1 times, suppressed by syslog-ng on NAS 2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire web-config for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire synocrond for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire csp-rule for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:22+01:00 NAS synoindexplugind: /source/synophoto/src/lib/io/channel.cpp:81 channel[/run/synophoto/check-center.socket] construct failed: connect: No such file or directory 2019-03-25T03:32:22+01:00 NAS synoindexplugind: /source/synophoto/src/lib/io/channel.cpp:81 channel[/run/synophoto/check-center.socket] construct failed: connect: No such file or directory 2019-03-25T03:32:22+01:00 NAS synoindexplugind: /source/synophoto/src/lib/io/channel.cpp:81 channel[/run/synophoto/check-center.socket] construct failed: connect: No such file or directory 2019-03-25T03:32:22+01:00 NAS synoindexplugind: SYSTEM: Last message '/source/synophoto/sr' repeated 10 times, suppressed by syslog-ng on NAS 2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire media-index for SynologyMoments when 0x0008 (done) 2019-03-25T03:32:29+01:00 NAS : dispatcher.cpp:21 (26167, 0) start dispatcher thread 2019-03-25T03:32:29+01:00 NAS : worker_pool.cpp:78 (26167, 0) start worker pool 2019-03-25T03:32:29+01:00 NAS : pool_monitor.cpp:91 (26167, 0) start pool monitor 2019-03-25T03:32:36+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory] 2019-03-25T03:32:36+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory] 2019-03-25T03:32:44+01:00 NAS synomustache: SYSTEM: Last message 'synomustache.cpp:88 ' repeated 1 times, suppressed by syslog-ng on NAS 2019-03-25T03:32:44+01:00 NAS img_backup: (22241) backup_controller.cpp:3154 (22241)[BkpCtrl] All workers flush done, continue:(4) 2019-03-25T03:35:05+01:00 NAS img_worker: [23340]file_index.cpp:2426 Error: header magic not match 2019-03-25T03:35:05+01:00 NAS kernel: [2267249.845441] img_worker[23340]: segfault at 60 ip 00007f1425971185 sp 00007ffe682dc2b0 error 4 in libsynodedup.so.1[7f14254cc000+748000] 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23340] failed, result[ST_UNKNOWN], resume_status: [NOT_RESUMABLE] 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3057 (22241)BUG: worker is failed but doesn't report detail error log 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3291 (22241)INFO: abnormal terminate: blWorkerAlive[1], blWaitCloudUploaderEndResponse[0], blWaitBackupEnd:[0] 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:714 (22241)Something wrong happen during traversing 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:989 (22241)failed to do schedule 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:441 (22241)failed to do dispatch [mariage/samedi/@eaDir/IMG_7275.JPG/SYNOPHOTO_THUMB_M.jpg] 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:1806 (22241)[BkpCtrl] nftw() failed to traverse: ret = [1] 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:1841 (22241)failed to traverse path 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:2263 (22241)failed to traverse: errno=(1) 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:2585 (22241)failed to backup data 2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3291 (22241)INFO: abnormal terminate: blWorkerAlive[1], blWaitCloudUploaderEndResponse[0], blWaitBackupEnd:[0] 2019-03-25T03:35:20+01:00 NAS img_worker: (23339) client_base.cpp:165 (23339)[BkpCtrl] Got TERM signal: (15) 2019-03-25T03:35:22+01:00 NAS img_worker: (23341) client_base.cpp:165 (23341)[BkpCtrl] Got TERM signal: (15) 2019-03-25T03:35:22+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23339] failed, result[ST_SUSPEND], resume_status: [RESUMABLE] 2019-03-25T03:35:22+01:00 NAS img_worker: (23339) client_worker.cpp:1066 (23339)[CWorker] It's in terminate mode, skip chunking 2019-03-25T03:35:24+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23341] failed, result[ST_SUSPEND], resume_status: [RESUMABLE] 2019-03-25T03:35:38+01:00 NAS img_worker: (23342) client_base.cpp:165 (23342)[BkpCtrl] Got TERM signal: (15) 2019-03-25T03:35:47+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23342] failed, result[ST_SUSPEND], resume_status: [RESUMABLE] 2019-03-25T03:35:47+01:00 NAS img_backup: (22241) backup_controller.cpp:3291 (22241)INFO: abnormal terminate: blWorkerAlive[0], blWaitCloudUploaderEndResponse[0], blWaitBackupEnd:[0] 2019-03-25T03:35:47+01:00 NAS img_backup: (22241) local_backup_controller.cpp:538 (22241)[BkpCtrl] Failed to backup, version_status: [2] 2019-03-25T03:35:48+01:00 NAS img_backup: (22241) local_backup_controller.cpp:66 (22241)[BkpCtrl] error occurs: blRet[1], err(ST_UNKNOWN) 2019-03-25T03:35:48+01:00 NAS img_backup: (22241) service_wrapper.cpp:80 (22241)failed to start backup service 2019-03-25T03:35:48+01:00 NAS img_backup: [22241]img_backup.cpp:1657 Failed to start backup task errno:1 2019-03-25T03:35:49+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [MailPlus] backup snapshot [GMT+01-2019.03.25-03.30.11] 2019-03-25T03:35:50+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [calibre] backup snapshot [GMT+01-2019.03.25-03.30.06] 2019-03-25T03:35:52+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [docker] backup snapshot [GMT+01-2019.03.25-03.30.07] 2019-03-25T03:35:54+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [document] backup snapshot [GMT+01-2019.03.25-03.30.08] 2019-03-25T03:35:55+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [homes] backup snapshot [GMT+01-2019.03.25-03.30.09] 2019-03-25T03:35:56+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [music] backup snapshot [GMT+01-2019.03.25-03.30.12] 2019-03-25T03:35:58+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [photo] backup snapshot [GMT+01-2019.03.25-03.30.13] 2019-03-25T03:35:59+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [programmes] backup snapshot [GMT+01-2019.03.25-03.30.15] 2019-03-25T03:36:00+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [raspberry] backup snapshot [GMT+01-2019.03.25-03.30.16] 2019-03-25T03:36:01+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [video] backup snapshot [GMT+01-2019.03.25-03.30.17] 2019-03-25T03:36:02+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [web] backup snapshot [GMT+01-2019.03.25-03.30.18] 2019-03-25T03:36:02+01:00 NAS img_backup: [22241]img_backup.cpp:2203 failed to start task 2019-03-25T03:36:02+01:00 NAS img_backup: (22241) [err] backup_progress.cpp:431 Backup task [BACKUP_WEEKLY] completes with result [3]. Time spent: [358 sec]. 2019-03-25T03:36:02+01:00 NAS img_backup: (22241) [err] backup_progress.cpp:446 Total Size(Bytes):[656905763399], Modified Size(Bytes):[656905763399], Total Directory:[11115], Modified Directory:[11115], Total File:[85812], Modified File:[85812], 2019-03-25T03:36:03+01:00 NAS img_backup: [22241]img_backup.cpp:1953 Storage Statistics: TargetSize:[0], LastBackupTargetSize:[0], SourceSize:[0], TotalFile:[0], ModifyFile:[0], NewFile:[0], UnchangeFile:[0], RemoveFile:[0], RenameFile:[0], RenameLogicSize:[0], CopyFile:[0], CopyLogicSize:[0], CopyMissFile:[0], CopyMissFileLogicSize:[0] J'ai tenté de relancer manuellement la sauvegarde, même résultat, avec des logs identiques. Concernant le disque cible, il a à peine 2 mois et les premières sauvegardes se sont déroulées sans incident, de plus l'espace disponible est amplement suffisant. Si ce problème parle à certains ou s'ils ont des pistes d'investigation à me donner... sinon je tenterai de faire appel au support technique de Synology. Merci ! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lelolo Posté(e) le 26 mars 2019 Partager Posté(e) le 26 mars 2019 Bonjour, Problème de droits pour accéder au dossier photo ? Photostation installé ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
unPixel Posté(e) le 26 mars 2019 Partager Posté(e) le 26 mars 2019 Bonjour, Ça parle en effet d'un soucis de droits sur l'user (ID) 1030. Mais si je dis pas de bêtises, Hyper Backup ne fonctionne que pour les administrateurs et avec des droits root pour l'application donc il ne devrait pas y avoir un soucis de droits. Lien vers le commentaire Partager sur d’autres sites More sharing options...
.Shad. Posté(e) le 26 mars 2019 Auteur Partager Posté(e) le 26 mars 2019 Merci pour l'aiguillage, en effet ça a l'air d'être un problème de droit. Après réflexion j'ai joué avec du chown dans ce dossier il y a plus d'une semaine. Je vais re-télécharger le contenu de ce dossier et le ré-uploader via photostation uploader, et tenter de relancer la sauvegarde, voir si ça résout le problème. Néanmoins ce que tu dis Zeus est juste, et c'est une des premières choses que j'ai regardées, en effet le backup est lancé via l'utilisateur root, donc pour moi ça ne venait pas de là. Mais à la vue des logs, j'ai l'impression que le processus de sauvegarde n'est pas si simple, et que d'autres paramètres doivent rentrer en jeu... Je vous tiens au courant. Lien vers le commentaire Partager sur d’autres sites More sharing options...
unPixel Posté(e) le 26 mars 2019 Partager Posté(e) le 26 mars 2019 Citation Après réflexion j'ai joué avec du chown dans ce dossier il y a plus d'une semaine. J'ai déjà joué aussi avec la commande chown parce que j'avais rencontré un soucis de propriétaire sur mes données or ça n'a jamais perturbé Hyper Backup. Pour la petite histoire, le NAS avait mit un utilisateur de mes données comme propriétaire alors que cet utilisateur n'a accès qu'à l'application Chat et rien d'autre...🙄 Lien vers le commentaire Partager sur d’autres sites More sharing options...
.Shad. Posté(e) le 30 mars 2019 Auteur Partager Posté(e) le 30 mars 2019 Retour sur la semaine, J'en ai profité pour réindexer toutes mes photos et videos, sous le même utilisateur. Et en supprimant tous les dossiers existants, afin d'uniformiser les permissions. Re-belotte, erreur lors de la sauvegarde, visiblement toujours un lien avec Photostation. Du coup, j'ai décidé de recréer une tâche de sauvegarde, donc sauvegarde complète (~800 go), et là ça a fonctionné, reste à voir maintenant comment Hyperbackup va se comporter sur les sauvegardes différentielles, la prochaine est prévue dans la nuit de dimanche à lundi, je vous tiens au courant. Lien vers le commentaire Partager sur d’autres sites More sharing options...
unPixel Posté(e) le 30 mars 2019 Partager Posté(e) le 30 mars 2019 Je fais que de la sauvegarde incrémentale et je n'ai aucun soucis même avec mes photos 😉 J'ajoute tous les mois pour le mois passé en ayant fait le tri au préalable. Lien vers le commentaire Partager sur d’autres sites More sharing options...
.Shad. Posté(e) le 30 mars 2019 Auteur Partager Posté(e) le 30 mars 2019 Ah bon parce que j'ai dit que c'est la sauvegarde incrémentale qui posait problème ? ^^ Je disais juste que la première sauvegarde complète a pu se terminer, j'attends de voir les prochaines, aucune raison que ça ne marche pas si la complète est passée à mon avis. Lien vers le commentaire Partager sur d’autres sites More sharing options...
unPixel Posté(e) le 30 mars 2019 Partager Posté(e) le 30 mars 2019 Citation Ah bon parce que j'ai dit que c'est la sauvegarde incrémentale qui posait problème ? ^^ C'est justement pour ça que je te disais que de mon côté je n'avais aucun soucis. Donc ça ne venait pas de là je pense. Après avec l’informatique on est jamais sûr de rien. Lien vers le commentaire Partager sur d’autres sites More sharing options...
.Shad. Posté(e) le 12 juin 2019 Auteur Partager Posté(e) le 12 juin 2019 Après plusieurs semaine de contact avec le support Synology (bravo pour la prise en charge et le professionnalisme d'ailleurs), on n'a pas trouvé d'autre solution que de supprimer la sauvegarde sur le disque, supprimer la tâche et en recréer une. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.