This site uses cookies! Learn More

Ce site utilise des cookies !

En continuant à utiliser ce site, vous vous engagez à nous permettre de stocker des cookies sur votre ordinateur.

apossium

Membres
  • Compteur de contenus

    62
  • Inscription

  • Dernière visite

À propos de apossium

  • Rang
    Novice Syno
  • Date de naissance 18/02/1978

Contact Methods

  • ICQ
    0

Profile Information

  • Gender
    Male
  • Location
    GRENOBLE
  1. Bonsoir, A ce propos comment est ce que vous gérez votre bibliothèque LR avec plusieurs ordi. ? Voici le workflow utilisé : - photo raw copiées sur NAS (copie source) puis copie sur ordinateur de prod. - sélection photos. - traitement LR, - "best of" envoyé au client. Je conserve donc un historique de ces 4 phases dans mes projets pendant le temps du traitement + 6 mois au cas ou. Puis soit je supprime les photos clients, soit je les conserve sur demande (et rémunération). Avec un NAS Synology, ces phases la se gèrent très bien si on dispose du réseau qui va bien (je travaille tjrs sur la machine de prod, jamais en réseau). nota : j'avais tenté le iSCSI Target mais non merci … (peut être mauvais réglages ??). Par contre pour LR c'est un peu la corvée avec les réglages et effets, biblio etc … Je cherche une solution qui me permette de conserver mes réglages indépendamment de mon ordi (iMac ou mbp). Bref que mon install. LR soit transportable … La solution utilisée est le mode cible … je connecte mon MBP (machine principale) sur l'iMac et boot dessus. Je bénéficie ainsi d'un matériel plus rapide récent (puissant) et un grand écran … Mais c'est pas très pratique … Une idée ? L'export du catalogue LR vers le NAS ? puis et la récupération / copie vers la seconde machine quand besoin ? Le pb étant les liens relatifs / absolus etc … Je pense qu'on peut automatiser la tâche avec un script ou une synchro de dossier … (voire avec CloudStation Drive si on change les répertoires LR) Merci pour vos retours … oui je sais la question peut paraître idiote … je suis tombé sur cet article après une recherche … il est tard …
  2. Snashot Replication VS Hyper Backup

    @jac2904 et @ComboDrums Pour compléter les explications de @Fenrir - même si il n'a besoin de personne - au sujet de la notion de sauvegarde … 1 -- La notion d'instantané est une fonction qui permet de suivre l'évolution d'un fichier ( sur un ensemble de fichiers et répertoires prédini). Cela permet de suivre l'historique de modification d'un fichier de très près (sans consommer bcp d'espace disque - grave à la copie au niveau bloc). Et l'utilisateur est en capacité de revenir en arrière si pb (i.e la récupération est possible au niveau utilisateur, pas besoin d'admin.). Le fait que cet historique de modification soit généralement présent sur le NAS (sur le même système matériel) signifie que cela ne peut être une sauvegarde. Pourquoi ? Si une panne (conséquence foudre par ex.) survient sur le NAS, tout ce qui est dedans est perdu i.e données + instantané puisque tout est au même endroit. 2 -- Une sauvegarde est une copie (photocopie) d'informations (intègres) sur un autre support matériel, situé dans un autre lieu et sans lien entre eux (ils sont dissociés) …etc (pour faire simple). C'est une définition POINT Dans votre cas, externaliser des instantanés (et je parle pas sur disque externe) va consommer trop de ressources (ou couter plus d'argent que nécessaire par rapport à l'enjeu). 3 -- Pensez qu'on défini et dimensionne une stratégie de sauvegardes (elles sont prévues) pour répondre aux différents types de scenarii de pertes de données / menaces (ce sont les 3 réponses à ces scenarii qui ont été fournies par @Fenrir) et autres contraintes en fonction d'un contexte (cf rédaction d'un PCA / PRA). - La suppression / modification accidentelle d'un fichier utilisé par plusieurs utilisateurs - très probable et cela concerne 1 fichier ou dossier généralement. - Les événements exceptionnels : incendie, foudre, vol, dégats des hauts, ouragan etc … Peu probable et cela concerne le système dans son ensemble. - Nouvelles menaces : type crypto locker. - Procès, contentieux et conflits clients (= archivages données) : en général, disponibles en lecture seule ou dispo. uniquement à la demande. - Management des risques : sur la société et pérennité / demande assureur / demande d'un client grand compte (rédaction PCA). etc … Bref, il faut connaître les organisations et le traitement des données (les usages) pour savoir de quoi nous parlons ici. Cela {correspond|est une réponse} à de multiples scenarii observés, de l'expérience de l'existant {matérialisé|traduit} en {solutions|outils} informatisées …
  3. [TUTO] Préparation des disques avec Badblocks

    Le & est pour lancer la commande en arrière plan. Cela permet également de faire autre chose avec le shell … attention le programme est fermé après fermeture du shell (selon moyen connexion) ! Je ne vois pas de différence avec ou sans sinon. nota : préférer un script avec nohup : nohup sh script_perso.sh & (afin que le processus fonctionne même après fermeture shell). -- Par ailleurs je ne vois pas non plus (mise à part côté capacité RAM) de différence entre les séries DS J / + / Play pour ce genre de vérification. Pour ce type de programme c'est pas le proc qui limite c'est les I/O et la RAM … donc je ne comprends pas d'ou viendrait les différences à capacité mémoire identique ! Avec un peu de recul, l'opération est quasi celle d'une copie de fichier … donc les temps devraient être du meme ordre de grandeur qu'une copie … Donc cela dépend de l'opération bien évidemment, mais aussi du reste de la chaine (bande passante, disque etc …). 7 jours me paraissent très longs (je ne les discute pas) pour une "copie" de 8 To. nota : j'essaye de trouver une cohérence ;)
  4. [TUTO] Préparation des disques avec Badblocks

    Quelques lectures … https://wiki.archlinux.org/index.php/badblocks https://www.linuxquestions.org/questions/linux-hardware-18/how-many-bad-sectors-is-too-many-4175532715/ Qui confirment certains points et précisent des info. sur le nbre de secteurs max avant de jeter le disque …
  5. [TUTO] Préparation des disques avec Badblocks

    Merci @firlin et @Einsteinium. Le problème est que si ca mobilise 7 jours pour 4 To … je n'imagine même pas pour 8 To x 3 voire 5 disques … Pour 8 To faut à peu près 24H avec le logiciel constructeur (me souviens plus). Je l'intégrerai dans mon offre dans une autre forme dans ce cas (une option selon intérêt client). Cela me paraît difficile d'immobiliser des machines et des disques autant de temps sans facturer qqchose de cohérent … - cela implique une préparation préalable, et donc un cout par disque plus important. - sans parler des ventes qui ne sont pas garanties à l'avance donc je peux pas faire de prévisionnel … et vérifier les disques à l'avance. Merci encore pour ces précisions ! J'attends le retour de @InfoYANN pour savoir ce que l'on peut accélérer c'est intéressant ! Si on a un NAS avec une voire deux baies disponibles, et bcp de RAM on peut aller encore plus vite ! C'est possible de faire les essais en parallèle sur la même machine ?
  6. [TUTO] Préparation des disques avec Badblocks

    Merci pour ces informations. Je fais les essais directement depuis une machine dédiée … Si quelques secteurs défectueux (erreur ID), c'est retour fournisseur. Une idée de comment fonctionne les logiciels constructeurs ? Type Seatools / Datalife Guard & all ? J'utilise généralement UBCD. Pas eu de pb en prod jusque la … i.e les disques ayant un pb ont été détectés immédiatement ! Le pb de cette procédure est que ça mobilise le NAS … je cherche quelque chose qui permette de faire ça en parallèle. UBCD permet de le faire mais faut plusieurs machine :D
  7. Wd Red, Carton Rouge ?

    Je profite de déterrage (ouiiii pas bien) … Voici un retour : - WD Red (NAS 2 baies) installé chez 5 clients aucune panne, disque non renouvelé pour le moment, - WD Purple (NAS 2 baies) installé chez 3 clients (la logique utilisé aujourd'hui avec nouveau NAS), aucune panne, disque non renouvelé pour le moment, - WD Black (NAS 2 baies) installé chez 2 clients, aucune panne, disque non renouvelé pour le moment, - SEAGATE BARRACUDA Desktop (RAID 5) installé chez plus de 10 clients, 2 pannes sur RAID 5 (chez deux clients différents) (après 3 ans dans les deux cas), sans aucune incidence. -- Bref, très peu de pannes, (mais pas bcp de clients NAS non plus). nota : des précautions sont prises sur qualité électricité / vibration / température accès etc … et à chaque fois qu'il y a eu un pb disque, il a été observé lors de la phase "essai de vérification". Il faudrait au moins une centaine de disques identiques pour voir se dessiner des stat. à peu près fiables … (cf BlackBlaze mais dans des utilisations différentes). Il est évident (me paraît évident) que les disques desktop sont moins "costaud" qu'un disque "NAS" … mais quand on monte des RAID avec des disques de 8 ou 10 To, la différence de cout des disques peut faire pencher la balance du côté de la classe Desktop … Pour des raisons budgétaires (les sauvegardes sont la), le client prend la décision aussi en conscience (cf PCA et perte de production)… Ne pas oublier que quand on monte une grappe de 3 ou 5 disques + 2 jeux de sauvegardes externes la note monte vite ! Au sujet des marques de disques, à ce jour il n'existe plus vraiment de choix (deux acteurs), j'ai longtemps utilisé MAXTOR puis SEAGATE, et suis revenu sur WD (deç un moment à cause de mauvaises séries). Je ne suis pas dans l'émotion et remet en question chaque année les séries retenues ! --- Pour ma part voici ma méthode d'installation, - les disques sont vérifiés avant chaque installation (cela prend du temps) avec test constructeur (hors du NAS). - Une fois validé, montage et installation DSM / construction RAID si besoin. - Mise en place surveillance RAID / smart / secteur défectueux, - config. Arrêt NAS quand non utilisé (pas de veille disque) - c'est un choix, - Sauvegarde sur 2 supports différents avec 2 logiciels différents. - Monitoring SNMP si possible (d'ailleurs j'aurai des questions sur un Docker + Centreon / Nagios plus tard), Ainsi peu importe les disque utilisés … il n'y pas de perte de données MAIS attention au cout d'une perte de production !! Vous pouvez prendre les disques que vous voulez, la logique est de ne pas compter dessus … et de prévoir les alternatives ! On peut éventuellement limiter la casse en choisissant des disques "reconnus" … marque / modèle, voire consulter les articles sur la fiabilité de disques ou de modèles … HGST / SEAGATE / WD etc … (même si il y en a plus que deux je crois) Y'a BlackBlaze / Hardware.fr et autres qui publient chaque année des chiffres (à prendre avec pincettes). MAIS cela dépend tellement de l'usage et environnement (backup ex voire cible backup, nbre user etc …) que cela appartient à chaque utilisateur/utilisation et cas de figure. Bien évidemment, favoriser des disques avec le moins de plateaux c'est mieux (statistiquement plus fiables) mais dans un NAS il y a de fortes capacités généralement.
  8. DS718+ DS918+ DS418j

    Merci @Fenriret @Einsteinium !
  9. DS718+ DS918+ DS418j

    @Fenrir Merci Fenrir pour ces précisions. Nous sommes d'accord sur bien des points … Une idée des volumes de ventes Synology ? et PdM dans le domaine ? HPE et DELL tjrs en tête des solutions de stockage ? Les récentes release de Synology (cluster HA, data replication, C2 disaster & co) montrent une attitude conquérante dans un domaine dominé par HP … Ce qui me laisse penser que (en connaissance des prix du marché) que Synology est passé ou passera devant ! -- Je vais donc changer mon DS710+ et le reléguer en backup pour un DS718+, voire plus …
  10. DS718+ DS918+ DS418j

    @Einsteinium merci. Désolé après relecture du post, je ne lis pas de référence à cela … Quel modèle de NAS ou de proc ? un DS####xs ?
  11. DS718+ DS918+ DS418j

    @EinsteiniumLOL ok Parce que d'après PassMark c'est plutôt 10/15% en plus pour le 918+ et 30 % en plus pour le 718+ … d’où mon interrogation ?!
  12. DS718+ DS918+ DS418j

    @Einsteinium c'est quoi les sources ? @StéphanH comme ceci :D
  13. DS718+ DS918+ DS418j

    @StéphanH Oui, c'est plus un terme marketing qu'autre chose (mm si il est vrai que les proc sont 40 à 50% plus puissants d'après les bench) … Le DS2## peuvent être utilisés en pro. C'est qu'une question de ressources / besoins. Après, seul le processeur Intel me paraît envisageable (à cause compatibilité avec app unix). La garantie de 3 ans ne fait pas tellement de différence. Par contre un support garanti > 5 ans serait un vrai plus ;)
  14. DS718+ DS918+ DS418j

    Les capacités de décodage à la volée sont clairement d'usage / utilisées / indispensables pour les applications de streaming. nota : après je n'oublie pas avoir pu faire sans pendant des années … Sauf que ce n'est pas indispensable pour les pro. (sauf certaines application biensur). D'ou le problème de positionnement de Synology cité plus haut !
  15. DS718+ DS918+ DS418j

    @PiwiLAbruti Entièrement d'accord, c'est pour cette raison que je parlais de positionnement surprenant et de roadmap … A quoi servirait un DS218Play et un DS218+ (ou DS218Pro) … Play = transcodage performant 4K … Pro = ram / processeur forte capacité … le prix n'étant pas nécessairement un pb à 50 € voire 100 € près ici. Ici le DS218+ semble avoir les caractéristiques que l'on attendrait d'un DS218Play … la diversification de la gamme la rend illisible / incompréhensible avec 50 à 250 € d'écart entre les modèles … pas très légitime / utile ! -- Le problème général également pour Synology, c'est le positionnement tarifaire par rapport à des solutions plus puissantes et existantes sous Windows (sous Unix, Synology n'est pas concurrentiel) … Ils ne peuvent pas vendre un équipement plus puissant qu'un serveur Proliant pour un prix inférieur … Donc je pense qu'ils suivent un peu en retrait par rapport à ces machines … --- C'est certain que si j'avais un peu plus de temps (et on achète du temps quand on prend du Synology) je monterai moi même mes machines en Denverton / 4 ou 8 ou 16 Go RAM / RAID 1 ou 5 + SSD cache dans un boitier rack 2 ou 3U. Pour les ventes et support client, je pourrai faire de la marge sur le matériel et la garantie (achetant pièces mini 3 ans) ET l'OS serait du CentOS ou autre … Mes clients ne touchant pas au NAS … Je vais clairement y songer !