Aller au contenu

Erreur de sauvegarde sur disque USB


.Shad.

Messages recommandés

Bonjour à tous,

Depuis l'acquisition de mon NAS DS218+ il y a environ un an, j'ai mis en place le plan de sauvegarde suivant :

1 sauvegarde "complète" sur disque externe via USB à 3:30 tous les lundi matin.
- 1 sauvegarde via C2 qui reprend juste la configuration système et les données vraiment importantes.

Tout a fonctionné à merveille jusqu'à ce matin, où j'ai eu l'erreur suivante :

338684944_Annotation2019-03-25130411.thumb.png.0e78790a0710c5b28c0f588c92cf4283.png

La description de l'erreur n'étant pas du tout explicite je suis allé consulter les logs pour essayer d'en savoir un peu plus.
Voici ce qui a trait au déroulement de la sauvegarde :

2019-03-25T03:30:03+01:00 NAS img_backup: [22241]img_backup.cpp:2143 Local Backup Task has been started: task_ID: 8
2019-03-25T03:30:06+01:00 NAS can_export: /source/synophoto/src/backup/can_export.cpp:23 SynologyMoments INFO can_export[22317]: hyperbackup [2.2]
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1562 Action: [local backup], Repo Path: [usbshare1], LinkKey: [NAS_00113289B9C8_8], Cloud backup: [0], Target ID: [BACKUP_WEEKLY.hbk], task ID: [8] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1564 app config Path: [/volume1/@tmp/BKP_APP_oK5yNi] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/calibre] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/docker] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/document] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/homes] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/MailPlus] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/music] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/photo] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/programmes] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/raspberry] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/video] 
2019-03-25T03:30:06+01:00 NAS img_backup: [22241]img_backup.cpp:1566 data Path: [/web] 
2019-03-25T03:30:07+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [calibre] backup snapshot [/volume1/@sharesnap/calibre/GMT+01-2019.03.25-03.30.06]
2019-03-25T03:30:08+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [docker] backup snapshot [/volume1/@sharesnap/docker/GMT+01-2019.03.25-03.30.07]
2019-03-25T03:30:09+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [document] backup snapshot [/volume1/@sharesnap/document/GMT+01-2019.03.25-03.30.08]
2019-03-25T03:30:11+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [homes] backup snapshot [/volume1/@sharesnap/homes/GMT+01-2019.03.25-03.30.09]
2019-03-25T03:30:12+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [MailPlus] backup snapshot [/volume1/@sharesnap/MailPlus/GMT+01-2019.03.25-03.30.11]
2019-03-25T03:30:13+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [music] backup snapshot [/volume1/@sharesnap/music/GMT+01-2019.03.25-03.30.12]
2019-03-25T03:30:15+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [photo] backup snapshot [/volume1/@sharesnap/photo/GMT+01-2019.03.25-03.30.13]
2019-03-25T03:30:16+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [programmes] backup snapshot [/volume1/@sharesnap/programmes/GMT+01-2019.03.25-03.30.15]
2019-03-25T03:30:17+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [raspberry] backup snapshot [/volume1/@sharesnap/raspberry/GMT+01-2019.03.25-03.30.16]
2019-03-25T03:30:18+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [video] backup snapshot [/volume1/@sharesnap/video/GMT+01-2019.03.25-03.30.17]
2019-03-25T03:30:19+01:00 NAS img_backup: (22241) [info] snapshot.cpp:328 take share [web] backup snapshot [/volume1/@sharesnap/web/GMT+01-2019.03.25-03.30.18]
2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:2890 Failed to fetch dsm user (1030)
2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:3339 failed when photo_access_right_for_dsm_account.
2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:2890 Failed to fetch dsm user (1030)
2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:3343 failed when photo_upload_right_for_dsm_account.
2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:2938 Failed to fetch dsm user (65539)
2019-03-25T03:31:18+01:00 NAS synophoto_backup: synophoto_backup.cpp:3351 failed when photo_group_permission_for_dsm_account.
2019-03-25T03:31:30+01:00 NAS export: Export finished result is 0
2019-03-25T03:31:31+01:00 NAS can_export: /source/synophoto/src/backup/can_export.cpp:23 SynologyMoments INFO can_export[24126]: hyperbackup [2.2]
2019-03-25T03:31:41+01:00 NAS synopkgctl: resource_api.cpp:231 Release media-index for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release csp-rule for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release synocrond for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release web-config for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release webapi-desc for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:42+01:00 NAS synopkgctl: resource_api.cpp:231 Release webapi-desc for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:45+01:00 NAS synopkgctl: SYSTEM:	Last message 'resource_api.cpp:231' repeated 1 times, suppressed by syslog-ng on NAS
2019-03-25T03:31:44+01:00 NAS img_backup: resource_api.cpp:231 Release syslog-config for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:45+01:00 NAS img_backup: resource_api.cpp:231 Release indexdb for SynologyMoments when 0x0010 (done)
2019-03-25T03:31:47+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory]
2019-03-25T03:31:47+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory]
2019-03-25T03:32:16+01:00 NAS synomustache: SYSTEM:	Last message 'synomustache.cpp:88 ' repeated 1 times, suppressed by syslog-ng on NAS
2019-03-25T03:32:16+01:00 NAS export: /source/synophoto/src/backup/export.cpp:20 SynologyMoments export: data version [55]
2019-03-25T03:32:20+01:00 NAS img_backup: resource_api.cpp:163 Acquire indexdb for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:20+01:00 NAS img_backup: resource_api.cpp:163 Acquire syslog-config for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire webapi-desc for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire webapi-desc for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:22+01:00 NAS synopkgctl: SYSTEM:	Last message 'resource_api.cpp:163' repeated 1 times, suppressed by syslog-ng on NAS
2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire web-config for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire synocrond for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire csp-rule for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:22+01:00 NAS synoindexplugind: /source/synophoto/src/lib/io/channel.cpp:81 channel[/run/synophoto/check-center.socket] construct failed: connect: No such file or directory
2019-03-25T03:32:22+01:00 NAS synoindexplugind: /source/synophoto/src/lib/io/channel.cpp:81 channel[/run/synophoto/check-center.socket] construct failed: connect: No such file or directory
2019-03-25T03:32:22+01:00 NAS synoindexplugind: /source/synophoto/src/lib/io/channel.cpp:81 channel[/run/synophoto/check-center.socket] construct failed: connect: No such file or directory
2019-03-25T03:32:22+01:00 NAS synoindexplugind: SYSTEM:	Last message '/source/synophoto/sr' repeated 10 times, suppressed by syslog-ng on NAS
2019-03-25T03:32:22+01:00 NAS synopkgctl: resource_api.cpp:163 Acquire media-index for SynologyMoments when 0x0008 (done)
2019-03-25T03:32:29+01:00 NAS : dispatcher.cpp:21 (26167, 0) start dispatcher thread
2019-03-25T03:32:29+01:00 NAS : worker_pool.cpp:78 (26167, 0) start worker pool
2019-03-25T03:32:29+01:00 NAS : pool_monitor.cpp:91 (26167, 0) start pool monitor
2019-03-25T03:32:36+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory]
2019-03-25T03:32:36+01:00 NAS synomustache: synomustache.cpp:88 Failed to load /var/packages/Spreadsheet/target/etc/Spreadsheet.mustache [No such file or directory]
2019-03-25T03:32:44+01:00 NAS synomustache: SYSTEM:	Last message 'synomustache.cpp:88 ' repeated 1 times, suppressed by syslog-ng on NAS
2019-03-25T03:32:44+01:00 NAS img_backup: (22241) backup_controller.cpp:3154 (22241)[BkpCtrl] All workers flush done, continue:(4)
2019-03-25T03:35:05+01:00 NAS img_worker: [23340]file_index.cpp:2426 Error: header magic not match
2019-03-25T03:35:05+01:00 NAS kernel: [2267249.845441] img_worker[23340]: segfault at 60 ip 00007f1425971185 sp 00007ffe682dc2b0 error 4 in libsynodedup.so.1[7f14254cc000+748000]
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23340] failed, result[ST_UNKNOWN], resume_status: [NOT_RESUMABLE]
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3057 (22241)BUG: worker is failed but doesn't report detail error log
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3291 (22241)INFO: abnormal terminate: blWorkerAlive[1], blWaitCloudUploaderEndResponse[0], blWaitBackupEnd:[0]
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:714 (22241)Something wrong happen during traversing
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:989 (22241)failed to do schedule
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:441 (22241)failed to do dispatch [mariage/samedi/@eaDir/IMG_7275.JPG/SYNOPHOTO_THUMB_M.jpg]
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:1806 (22241)[BkpCtrl] nftw() failed to traverse: ret = [1]
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:1841 (22241)failed to traverse path
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:2263 (22241)failed to traverse: errno=(1)
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:2585 (22241)failed to backup data
2019-03-25T03:35:05+01:00 NAS img_backup: (22241) backup_controller.cpp:3291 (22241)INFO: abnormal terminate: blWorkerAlive[1], blWaitCloudUploaderEndResponse[0], blWaitBackupEnd:[0]
2019-03-25T03:35:20+01:00 NAS img_worker: (23339) client_base.cpp:165 (23339)[BkpCtrl] Got TERM signal: (15)
2019-03-25T03:35:22+01:00 NAS img_worker: (23341) client_base.cpp:165 (23341)[BkpCtrl] Got TERM signal: (15)
2019-03-25T03:35:22+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23339] failed, result[ST_SUSPEND], resume_status: [RESUMABLE]
2019-03-25T03:35:22+01:00 NAS img_worker: (23339) client_worker.cpp:1066 (23339)[CWorker] It's in terminate mode, skip chunking
2019-03-25T03:35:24+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23341] failed, result[ST_SUSPEND], resume_status: [RESUMABLE]
2019-03-25T03:35:38+01:00 NAS img_worker: (23342) client_base.cpp:165 (23342)[BkpCtrl] Got TERM signal: (15)
2019-03-25T03:35:47+01:00 NAS img_backup: (22241) backup_controller.cpp:3043 (22241)Error: worker[23342] failed, result[ST_SUSPEND], resume_status: [RESUMABLE]
2019-03-25T03:35:47+01:00 NAS img_backup: (22241) backup_controller.cpp:3291 (22241)INFO: abnormal terminate: blWorkerAlive[0], blWaitCloudUploaderEndResponse[0], blWaitBackupEnd:[0]
2019-03-25T03:35:47+01:00 NAS img_backup: (22241) local_backup_controller.cpp:538 (22241)[BkpCtrl] Failed to backup, version_status: [2]
2019-03-25T03:35:48+01:00 NAS img_backup: (22241) local_backup_controller.cpp:66 (22241)[BkpCtrl] error occurs: blRet[1], err(ST_UNKNOWN)
2019-03-25T03:35:48+01:00 NAS img_backup: (22241) service_wrapper.cpp:80 (22241)failed to start backup service
2019-03-25T03:35:48+01:00 NAS img_backup: [22241]img_backup.cpp:1657 Failed to start backup task errno:1
2019-03-25T03:35:49+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [MailPlus] backup snapshot [GMT+01-2019.03.25-03.30.11]
2019-03-25T03:35:50+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [calibre] backup snapshot [GMT+01-2019.03.25-03.30.06]
2019-03-25T03:35:52+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [docker] backup snapshot [GMT+01-2019.03.25-03.30.07]
2019-03-25T03:35:54+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [document] backup snapshot [GMT+01-2019.03.25-03.30.08]
2019-03-25T03:35:55+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [homes] backup snapshot [GMT+01-2019.03.25-03.30.09]
2019-03-25T03:35:56+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [music] backup snapshot [GMT+01-2019.03.25-03.30.12]
2019-03-25T03:35:58+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [photo] backup snapshot [GMT+01-2019.03.25-03.30.13]
2019-03-25T03:35:59+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [programmes] backup snapshot [GMT+01-2019.03.25-03.30.15]
2019-03-25T03:36:00+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [raspberry] backup snapshot [GMT+01-2019.03.25-03.30.16]
2019-03-25T03:36:01+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [video] backup snapshot [GMT+01-2019.03.25-03.30.17]
2019-03-25T03:36:02+01:00 NAS img_backup: (22241) [info] snapshot.cpp:172 remove share [web] backup snapshot [GMT+01-2019.03.25-03.30.18]
2019-03-25T03:36:02+01:00 NAS img_backup: [22241]img_backup.cpp:2203 failed to start task
2019-03-25T03:36:02+01:00 NAS img_backup: (22241) [err] backup_progress.cpp:431 Backup task [BACKUP_WEEKLY] completes with result [3]. Time spent: [358 sec].
2019-03-25T03:36:02+01:00 NAS img_backup: (22241) [err] backup_progress.cpp:446 Total Size(Bytes):[656905763399], Modified Size(Bytes):[656905763399], Total Directory:[11115], Modified Directory:[11115], Total File:[85812], Modified File:[85812], 
2019-03-25T03:36:03+01:00 NAS img_backup: [22241]img_backup.cpp:1953 Storage Statistics: TargetSize:[0], LastBackupTargetSize:[0], SourceSize:[0], TotalFile:[0], ModifyFile:[0], NewFile:[0], UnchangeFile:[0], RemoveFile:[0], RenameFile:[0], RenameLogicSize:[0], CopyFile:[0], CopyLogicSize:[0], CopyMissFile:[0], CopyMissFileLogicSize:[0]

J'ai tenté de relancer manuellement la sauvegarde, même résultat, avec des logs identiques.

Concernant le disque cible, il a à peine 2 mois et les premières sauvegardes se sont déroulées sans incident, de plus l'espace disponible est amplement suffisant.
Si ce problème parle à certains ou s'ils ont des pistes d'investigation à me donner... sinon je tenterai de faire appel au support technique de Synology.

Merci !

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Ça parle en effet d'un soucis de droits sur l'user (ID) 1030.

Mais si je dis pas de bêtises, Hyper Backup ne fonctionne que pour les administrateurs et avec des droits root pour l'application donc il ne devrait pas y avoir un soucis de droits.

Lien vers le commentaire
Partager sur d’autres sites

Merci pour l'aiguillage, en effet ça a l'air d'être un problème de droit.
Après réflexion j'ai joué avec du chown dans ce dossier il y a plus d'une semaine.
Je vais re-télécharger le contenu de ce dossier et le ré-uploader via photostation uploader, et tenter de relancer la sauvegarde, voir si ça résout le problème.
Néanmoins ce que tu dis Zeus est juste, et c'est une des premières choses que j'ai regardées, en effet le backup est lancé via l'utilisateur root, donc pour moi ça ne venait pas de là.
Mais à la vue des logs, j'ai l'impression que le processus de sauvegarde n'est pas si simple, et que d'autres paramètres doivent rentrer en jeu...
Je vous tiens au courant.

Lien vers le commentaire
Partager sur d’autres sites

Citation

Après réflexion j'ai joué avec du chown dans ce dossier il y a plus d'une semaine.

J'ai déjà joué aussi avec la commande chown parce que j'avais rencontré un soucis de propriétaire sur mes données or ça n'a jamais perturbé Hyper Backup.

Pour la petite histoire, le NAS avait mit un utilisateur de mes données comme propriétaire alors que cet utilisateur n'a accès qu'à l'application Chat et rien d'autre...🙄

Lien vers le commentaire
Partager sur d’autres sites

Retour sur la semaine,

J'en ai profité pour réindexer toutes mes photos et videos, sous le même utilisateur. Et en supprimant tous les dossiers existants, afin d'uniformiser les permissions.
Re-belotte, erreur lors de la sauvegarde, visiblement toujours un lien avec Photostation.

Du coup, j'ai décidé de recréer une tâche de sauvegarde, donc sauvegarde complète (~800 go), et là ça a fonctionné, reste à voir maintenant comment Hyperbackup va se comporter sur les sauvegardes différentielles, la prochaine est prévue dans la nuit de dimanche à lundi, je vous tiens au courant.

Lien vers le commentaire
Partager sur d’autres sites

Ah bon parce que j'ai dit que c'est la sauvegarde incrémentale qui posait problème ? ^^
Je disais juste que la première sauvegarde complète a pu se terminer, j'attends de voir les prochaines, aucune raison que ça ne marche pas si la complète est passée à mon avis.

Lien vers le commentaire
Partager sur d’autres sites

Citation

Ah bon parce que j'ai dit que c'est la sauvegarde incrémentale qui posait problème ? ^^

C'est justement pour ça que je te disais que de mon côté je n'avais aucun soucis. Donc ça ne venait pas de là je pense. Après avec l’informatique on est jamais sûr de rien.

Lien vers le commentaire
Partager sur d’autres sites

  • 2 mois après...

Après plusieurs semaine de contact avec le support Synology (bravo pour la prise en charge et le professionnalisme d'ailleurs), on n'a pas trouvé d'autre solution que de supprimer la sauvegarde sur le disque, supprimer la tâche et en recréer une.
 

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.