Aller au contenu

apossium

Membres
  • Compteur de contenus

    92
  • Inscription

  • Dernière visite

Tout ce qui a été posté par apossium

  1. @babble: la raison du choix de l'argument -n vient de cet échange : Personne n'ayant rectifié, contredis ces informations … je les considère comme valable. Au début, j'utilisais l'argument -w. Seulement les vérifications sont très longues et quand on vend une grappe de 3, voire 5 x disques de 4, 8, voire 12 To … le client n'attendra pas plusieurs jours voire 1 mois pour recevoir son NAS … surtout quand c'est pour remplacer un NAS / un disque en prod … C'est compliqué de vérifier des disques à l'avance également, pusique ca immobilise les disques et que les tarifs bougent pas mal … par exemple avec 4 x 12 To, ca commence à douiller … peu de société peuvent se permettre ca … faut avoir du volume que je n'ai pas … --- De fait, j'utilise l'argument -n avec les réglages adaptés pour la RAM. Sur tous les disques vérifiés (une bonne 50 aine), - une bonne 10aine HS (à cause de transport je pense > emballage nok), donc détecté … - aucun early failure (0-6 mois) (objet du badblocks à mes yeux), - deux disques morts avant la fin de garantie, entre 1 et 2 an d'usage … et bien évidemment c'étaient des WD purple … (je n'en utilise plus aucun depuis). --- Une autre piste … Depuis, je compte regarder les résultats avec badblocks en USB, puisque cela permet d'arrêter les tâches et/ou les disques de manière différenciée (qd plusieurs disques en mm tps) … Quand les disques sont sur le bus SATA, on doit attendre la fin des tests de tous les disques (hotplug non possible selon pc utilisé) … et parfois certains essais bloquent la machine (un disque peut faire planter la machine si il est défectueux) … ce qui peut être assez problématique quand tu vérifies 4 x 12 To en meme temps et que tu dois tout recommencer … grrrrr
  2. Bonjour, merci. d'apres l'article (lien) cité, normalement cette valeur doit être répartie sur les 3 x disques … et non la meme valeur globale pour chaque disque. De meme, pour un badblocks de 2 disques de 4 To avec 2 Go, la dernière vérif. a duré 47/48h de mon côté. SI j'accorde plus de ressources, chez moi ca plante … peut etre un pb de ram ? De fait ces résultats me paraissent interessant puisque plus rapide. Surtout si demain ce sont des disques de 8 T voire 16 To. Par ailleurs d'après mon calcul rapide, ce serait plutot 1 000 000 à repartir et non 130 000. je cherche surtout à comprendre et diminuer le temps des vérifications … merci
  3. Merci pour toutes ces recherches / info., j'apporte ici une rectification à la lecture des sources annexes … Total_RAM_en_Ko * 3 / 32 = valeur maximale de "-c" la valeur de la ram est exprimée en Mo et non en ko d'après le lien posté. --- Idem pour la longueur des fichiers .log, chez moi ils atteignent plutot une ~ 20 Mo (cela dépend de la taille du disque) et quand tout se passe bien … si y'a des erreurs … évidemment le test sera long et le log sera plus volumineux (jamais vu encore 1 Go). ---- Je suis en accord avec les arguments avancés.
  4. Bonjour, Même si techniquement on pouvait réattribuer le cache en volume, il n'y a pas d'intérêt réel à cette astuce … 1 - Le cout des SSD NVMe (prix au Go), par rapport à un RAID 5 HDD ou SSD, 2 - Le bus PCI-E est un gen2 x1 ou x2 … donc limité @ < 500 Mo/s à mon avis … 3 - Le gigabit en agrégation ne dépassera pas les 220 Mo/s (en utilisation concurrente). nota : à condition de disposer d'un switch capable de commuter les 115 Mo/s par lien (x2) … = cout. --- En local (pour l'usage de VM par exemple), de part le design, on peut bénéficier de débit interne ~ 1Go/s. nota : 350 Mo/s max observé pour ma part … mais je suspecte des pb de pilotes avec la VM d'essai. On est encore loin de débit de l'ordre de 2 ou 3 Go/s (ici c'est PCI-E gen2 et non 3) … Mis à part les IOPs (grâce au SSD) qui seront bien supérieures à un RAID5 (technologie HDD Vs SSD), les applications qui profitent de cela ne sont pas légion … nota : Synology communique sur ~30k. - serveur messagerie avec bcp de comptes (bcp d'accès concurrents), base de données, VM etc … Par contre, la réactivité des copies (si en cache) sur le LAN sera supérieure … Mais comme le cache est un algo. non configurable à ce jour … Autre intérêt mais qui reste minime : le financier … Par exemple, une grappe RAID 5 de disque de 8 To coute à ce jour entre 750 et 1000 € TTC. Un RAID 1 8 To avec deux SSD de 128 Go coutera autour 700 € TTC max, pour des performances équivalentes, voire supérieures (mais pas dans tous les cas c'est certain). Application en utilisation NAS (serveur de fichiers) : Les copies vers le NAS vont être accélérée (même avec de petits fichiers). La copie depuis le NAS sera bonne quand les fichiers sont dans le cache … standard en dehors (cache non utilisé). En agrégation de liens, deux machines pourraient copier vers le NAS @ 115 Mo/s. Bref, encore une fois … ce n'est qu'une question de dimensionnement par rapport à un besoin … Oui, ce cache répond à des besoins mais ce n'est pas la majorité des usages !
  5. Si j'avais une véritable alarme autonome, je n'utiliserai pas le NAS et la videosurveillance pour la détection … je laisse l'enregistrement en continue … et basta !
  6. En complément de ces info. … Il est possible de sélectionner les caméras attachées au mode home ou non. Dans mon cas, en cas non de présence (mode home désactivé), détection sur mouvement (puisque pas d'alarme). En cas de présence, ne rien faire de 7h à 23h30, détection de mouvement entre 23h30 et 7h pour notif. Je vois avec le temps si ce mode de fonctionnement est OK ou non. L'alternative serait de filmer en continu et de configurer une action en cas de détection et mode home désactivé. nota : il y aurait une alarme, je laisse l'enregistrement en continue avec rotation. Et je fais plus confiance à l'alarme en cas de détection. De fait, l'utilisateur consulte sa caméra que si l'alarme détecte qqchose (levée de doute). La détection de mouvement étant trop sensible avec les caméras (du mal à trouver le bon réglage), on reçoit bcp de notif. pour rien (> 99%) …
  7. Bonjour, idem pour moi, je ne trouve pas les réglages / ne comprend pas la logique. Existe t il un post qui explique tout ça ? merci. EDIT : je crois avoir compris … en cours de test Y'a le mode d'enregistrement / détection propre de chaque caméra … ET le mode home. De fait, une camera peut enregistrer en permanence ou détecter une présence selon calendrier. Des que le mode home est activé (présence @ home d'un des périph. déclaré / associé), on passe / commute sur le calendrier Home Mode.
  8. @Fenrir: un lien / des info concernant le tuning DMA et la préparation de disque dans les DC ? je suppose que l'on parle de Direct Memory Access (DMA) ? à part des préparations de voiture, je ne trouve pas grand chose 😄 merci
  9. @PiwiLAbruti: le support fonctionne t il bien en ce moment ? plusieurs tickets ouvert et aucune réponse !
  10. Bonjour, petit déterrage pour savoir quel est le niveau de l'app quelques mois après ? Ça fonctionne bien ? c'est stable ? Merci EDIT / je suppose que ca fonctionne uniquement pour des comptes G suite (pro.) ?
  11. @oli.oli Un burn/essai avec prime95 en modifiant la quantité de RAM utilisée (par le test) et ça fait le job aussi ;) C'est d'ailleurs une des solutions que j'envisage quand je vais upgrade mon DS918+ de 4 à 16 Go. Je n'ai pas trouvé d'alternative fiable au logiciel de vérif. de DS Assistant (me paraît sommaire) nota : peut être memtest 86 mais ça serait via ligne de commande … Je considère que si on arrive à installer une VM + OS et faire un burn de + de 4h sur toute la RAM, sans instabilité / plantage, c'est que le système est stable. --- Mais je préfère trouver une solution offline quand meme parce qu'il y a risque de corruption / plantage. Et un NAS est souvent utiliser en prod. donc on doit pouvoir compter dessus ! --- Au sujet de la quantité de RAM, on peut lire que 16 Go est possible mais pas trouvé de validation. (je considère cette info. comme possible). D'ailleurs, ce qui reste possible pour ton cas (si d'autres personnes n'ont pas validé/confirmé = non lu dans forum), c'est que les 2 barrettes ne fonctionnent pas ensemble ;) (ca serait surprenant mais possible).
  12. Bonjour, voici un rapide retour d'un essai : sur un disque 8 To WD Red, essai non destructif (sur un banc d'essai CentOS last, disque interne SATA) : sudo badblocks -nsv -b 4096 -c 5000 /dev/sdb > /home/liveuser/Desktop/sdb.log 2<&1 67:25:15 elapsed. (0/0/0 errors)100.00% done, 67:25:16 elapsed. (0/0/0 errors)done Pass completed, 0 bad blocks found. (0/0/0 errors)
  13. 1 - oui oui ne pas acheter si tu n'a pas déjà. 2 - ok, bien lu que c'est deja fait. Sauf que, faire les essais avec disque tout le temps déconnecté par ex. DSM n'a pas besoin d'un disque pour démarrer (c'est ça que je voulais dire). 3 - As tu essayé avec une autre alimentation ? à te faire prêter ou chez un réparateur (tu vas voir direct si sur réseau ou pas) … 4 - Le SAV de Synology ne risque pas de te proposer des alternatives de ce genre (c'est normal) > google 5 - oui pas de retour clavier / ecran possible et idem pour réseau lan, il faut des drivers … 6 - OK pas de retour … si c'est pas l'alim ca sent effectivement la carte mère … 7 - ;) you are welcome
  14. Je ne reproche rien à ce mécanisme (et vu ce que représente un bloc ie. 4096 bit). Je dis simplement que le nombre de bloc adressable ce serait un moyen indirect de vérifier le nombre de bloc défectueux et l'évolution de la panne. Peut être que SMART les enregistre d'ailleurs ? Ceci dit si on enregistre/filme puis compare la valeur du nombre de blocs adressables (depuis début puis périodiquement). On peut constater une dégradation. -- Je viens enfin d'intégrer vos remarques … En écrivant des 0 et 1 sur un bloc de manière aléatoire, si une partie du secteur est défectueuse, il y aura certainement plus d'un "bit" concerné dans le lot de 4096 … et donc on ne passe pas vraiment à côté d'un "zone défectueuse" (je suppose que ce sont des zones défectueuse et non un bit seul) en écrivant de l'aléatoire … Alors que dans le cas de l'écriture avec 4 pattern (forcer l'écriture à plusieurs reprises), on détecte les moindres défauts. C'est ce que tt le monde a évoqué (pas suffisamment explicite par écrit certes) … avec le recul, je comprends mieux … désolé ! Et puis j'ai lu qu'il y a une somme de contrôle après chaque bloc donc si il a été mal écrit, le bloc est invalidé à la première relecture je pense. --- Oui si vous voulez spliter pas de pb. Mais cela concerne quand même badblocks (on du moins un disque) et son fonctionnement. Ces échanges sont pertinents ! Et puis on a presque fini :D Merci encore.
  15. @Fenrir : merci pour ton temps, je comprends mieux la logique … Un des facteurs à surveiller serait donc la taille du disque adressable (puisque si elle diminue c'est que le firmware alloué / déplacé / invalidé des secteurs. Je comprends aussi qu'un disque ne peut être parfait même si après les tests on obtient zero erreurs. Il y a des mécanismes sous-jacents automatique que l'on ne maitrise pas … Merci encore à vous deux !
  16. @Fenrir : merci pour ces précisions. L'objectif ici est de valider des disques durs neufs avant mise en production dans un serveur (et tenter de garantir un fonctionnement même si c'est prétentieux). Si des secteurs défectueux sont observés (en nombre important) sur un disque neuf (le but principal de l'opération). nota : je ne sais pas définir "important" si vous avez des info. … Ce disque ne sera pas utilisé (disque réparé ou non). --- Par ailleurs, je ne mesure / saisi pas la logique de la fatigue disque évoquée … Si un disque neuf ne supporte pas 4 pattern alors qu'il est neuf, que va t il dire ou faire quand il sera en prod. ? j'ai pas envie de travailler ? :D Combien de cycle peut encaisser un même secteur/bloc en R/W ? A part les facteurs MTBF, AFR, Wear ou load/unload cycle, je n'ai pas trouvé d'info la dessus … Après recherches, les info concernant les HDD ne sont plus mis en avant (le SSD a tout remplacé chez Google :D). Pas simple, l'utilisation du paramètre - est requis :( -- Le paramètre -c augmente l'efficacité de badblocks. De quelle ordre de grandeur … essai à faire … mais pas avec mes 8 To :D
  17. @Einsteinium : tout ce que je dis / affirme se repose sur des info. disponibles ici : https://wiki.archlinux.org/index.php/badblocks Maintenant je veux bien apprendre / comprendre. Me renvoyer vers des lectures sans indications, j'accepte volontiers un lien ou deux, parce que ce sont mes recherches précédentes qui me permettent de prendre cette position pour les 4 pattern. nota : surtout si je passe 8 jours à vérifier un disque alors que cela ne sert strictement à rien …
  18. non, je ne suis pas d'accord. La vérif. non destructive ne vérifie pas avec certitude chaque bit … Dans le cas du test destructif, on a 2 changements d'état (4 x écritures + 4 x lectures ) obligatoires. Dans le cas du test non destructif, si je comprends bien puisque c'est un pattern aléatoire … un bit peut être à 0, écrit à 0, puis remis à 0. Donc on ne sait pas si il peut être écrit … Ceci dit chacun fait ce qu'il veut … Les disques qui sont intégrés en prod. doivent être vérifiés de mon côté, cela pose trop de problème si aller retour. Si il existe une manière moins contraignante de vérifier je suis preneur (augmentation taille mémoire, arrêt après phase 3 par ex. = 1 changement état garanti). Mais la cet essai non destructif ne me satisfait/convient pas (tel que je le comprends).
  19. OK merci, c'est une vérification dite non destructive et simple passe (paramètre -n), adapté par ex. aux opérations de maintenance préventive. De faite c'est 4 fois plus rapide qu'avec le paramètre -w qui lui comporte 4 passes … lui plus adapté au vérif. de nouveaux disques. Donc attention, la vérification que tu as réalisée est pertinente mais reste moins profonde (je ne discute pas le choix). 8 To c'est long, je suis en train d'en faire l'expérience :(
  20. OK. Déjà retires les disques pour tous les essais (il y a un OS qui permet de démarrer et installer DSM), il fonctionne (celui utilisé après achat / 1ere installation). Donc le réseau doit fonctionner sans disque. La foudre peut passer par le réseau téléphonique ou edf. Oui, en général ça fait sauter les protections (mais ca dépend qualité protection / age installation). D'après les symptômes, ca peut être le port réseau mort comme la carte mère, voire tjrs DSM. - Si il n'existe pas de ports serial ou usb en interne (sur la carte mère) pour prendre la main dessus, ça me semble compromis … - Vérifies la connectique du port RJ45, on ne sait jamais = rien de coincer, pas de court circuit, souplesse pin etc … - Je ne sais pas avec quoi (jamais réfléchis à ça / essayé) mais essayes de {booter avec|installer} une autre distribution sur le NAS. Cela pourrait provenir de l'OS qui fige. Le pb c'est que y'a pas d'accès … retour écran ? brancher un clavier / souris … ?? - Change (n'achète pas pour ça) la RAM si tu as une pièce de rechange au cas ou … L'important est de valider les équipements auxiliaires E.A (ceux qui permettent de se connecter / faire fonctionner). i.e valider le fonctionnement du port réseau coté routeur, le câble avec un autre ordinateur etc … Ensuite tu remontes du côté NAS si pas de pb côté E.A. Cela pourrait être une double panne. Donc changer un paramètre pourrait ne pas suffire … Donc une fois tous les paramètres vérifiés un à un … on passe à deux … et la ca devient complexe … consommateur en temps !!!! nota : je suppose que tu l'as fait mais regarder aussi si le pb n'est pas connu pour le modèle ou certains modèles Synology (meme puce ethernet par ex.). Cela permettrai d'avoir des info. avant de se lancer dans une voie sans issue par ex. ou de trouver une solution :D EDIT : voici une piste (pb non similaire) : https://wrgms.com/recovering-a-failed-synology-diskstation-ds2xx-serial/
  21. @lucas3d merci pour ce retour. Peux tu confirmer les réglages (pattern) utilisés ? NAS (modèle et version DSM), quantité ram interne, commande ? -- Pour ma part, je viens de lancer un badblocks depuis un live DVD de CentOS avec seulement 2 Go de ram … sur 2 disques de 8 To en même temps.
  22. La mémoire vive a t elle été changée une fois ? ou y'a pas longtemps ? -- Au niveau électrique, est il possible que la NAS ait pris la foudre (je parle du port réseau). Le port réseau pourrait être mort (le 411 en a qu'un … sic). Dans un 1er temps, c'est important de déterminer si c'est le port réseau qui est mort ou le soft. Y'a les LED activité qui donnent des indications … Une alternative si c'est le cas serait d'installer un adaptateur USB > LAN mais y'a le pb des pilotes … compliqué mais faisable ! A faire si pas le choix pour sauver NAS … -- Enlèves les disques sinon, et tente une ré-sinstallation DSM pour voir si le NAS est détecté ou non par Synology Assistant. Vérifies si le DHCP (box) détecte la présence d'un périphérique (le NAS ici) … change de câble aussi (vérifies le sur un autre) au cas ou. Ne laisse que le NAS sur le LAN (avec ton ordi), le tout en filaire. -- Dis nous si ça avance … ca m'intéresse ;)
  23. Merci pour ce retour ! La question est mal posée en effet … à la relecture je m’aperçois de l'erreur et du non sens … Reformulation … À l'image de Indesign (ou Illustrator ??), quand on créé une infographie, on peut exporter un projet qui rassemblera tout les éléments constituants dans un dossier. Ce dossier de travail (c'est un export ou sauvegarde) permet d'être autonome et indépendant de la machine, et de pouvoir travailler ailleurs (sur une autre machine). Je me demande si il existe / il est permis le même fonctionnement avec LR. Existe t il une fonction prévue à cet effet ? peut être que la question est bête … Dans ce cas, il suffirait de créer une bibliothèque par projet client, puis de l'exporter avec tous les fichiers avec les effets. Est ce que je me fais comprendre ?
  24. Bonsoir, A ce propos comment est ce que vous gérez votre bibliothèque LR avec plusieurs ordi. ? Voici le workflow utilisé : - photo raw copiées sur NAS (copie source) puis copie sur ordinateur de prod. - sélection photos. - traitement LR, - "best of" envoyé au client. Je conserve donc un historique de ces 4 phases dans mes projets pendant le temps du traitement + 6 mois au cas ou. Puis soit je supprime les photos clients, soit je les conserve sur demande (et rémunération). Avec un NAS Synology, ces phases la se gèrent très bien si on dispose du réseau qui va bien (je travaille tjrs sur la machine de prod, jamais en réseau). nota : j'avais tenté le iSCSI Target mais non merci … (peut être mauvais réglages ??). Par contre pour LR c'est un peu la corvée avec les réglages et effets, biblio etc … Je cherche une solution qui me permette de conserver mes réglages indépendamment de mon ordi (iMac ou mbp). Bref que mon install. LR soit transportable … La solution utilisée est le mode cible … je connecte mon MBP (machine principale) sur l'iMac et boot dessus. Je bénéficie ainsi d'un matériel plus rapide récent (puissant) et un grand écran … Mais c'est pas très pratique … Une idée ? L'export du catalogue LR vers le NAS ? puis et la récupération / copie vers la seconde machine quand besoin ? Le pb étant les liens relatifs / absolus etc … Je pense qu'on peut automatiser la tâche avec un script ou une synchro de dossier … (voire avec CloudStation Drive si on change les répertoires LR) Merci pour vos retours … oui je sais la question peut paraître idiote … je suis tombé sur cet article après une recherche … il est tard …
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.