Aller au contenu

apossium

Membres
  • Compteur de contenus

    92
  • Inscription

  • Dernière visite

À propos de apossium

  • Date de naissance 02/18/1978

Mon Profil

  • Sex
    Male
  • Pays / Ville
    GRENOBLE

Visiteurs récents du profil

Le bloc de visiteurs récents est désactivé et il n’est pas visible pour les autres utilisateurs.

apossium's Achievements

Newbie

Newbie (1/14)

  • Week One Done
  • One Month Later
  • One Year In Rare

Recent Badges

0

Réputation sur la communauté

  1. @babble: la raison du choix de l'argument -n vient de cet échange : Personne n'ayant rectifié, contredis ces informations … je les considère comme valable. Au début, j'utilisais l'argument -w. Seulement les vérifications sont très longues et quand on vend une grappe de 3, voire 5 x disques de 4, 8, voire 12 To … le client n'attendra pas plusieurs jours voire 1 mois pour recevoir son NAS … surtout quand c'est pour remplacer un NAS / un disque en prod … C'est compliqué de vérifier des disques à l'avance également, pusique ca immobilise les disques et que les tarifs bougent pas mal … par exemple avec 4 x 12 To, ca commence à douiller … peu de société peuvent se permettre ca … faut avoir du volume que je n'ai pas … --- De fait, j'utilise l'argument -n avec les réglages adaptés pour la RAM. Sur tous les disques vérifiés (une bonne 50 aine), - une bonne 10aine HS (à cause de transport je pense > emballage nok), donc détecté … - aucun early failure (0-6 mois) (objet du badblocks à mes yeux), - deux disques morts avant la fin de garantie, entre 1 et 2 an d'usage … et bien évidemment c'étaient des WD purple … (je n'en utilise plus aucun depuis). --- Une autre piste … Depuis, je compte regarder les résultats avec badblocks en USB, puisque cela permet d'arrêter les tâches et/ou les disques de manière différenciée (qd plusieurs disques en mm tps) … Quand les disques sont sur le bus SATA, on doit attendre la fin des tests de tous les disques (hotplug non possible selon pc utilisé) … et parfois certains essais bloquent la machine (un disque peut faire planter la machine si il est défectueux) … ce qui peut être assez problématique quand tu vérifies 4 x 12 To en meme temps et que tu dois tout recommencer … grrrrr
  2. Bonjour, merci. d'apres l'article (lien) cité, normalement cette valeur doit être répartie sur les 3 x disques … et non la meme valeur globale pour chaque disque. De meme, pour un badblocks de 2 disques de 4 To avec 2 Go, la dernière vérif. a duré 47/48h de mon côté. SI j'accorde plus de ressources, chez moi ca plante … peut etre un pb de ram ? De fait ces résultats me paraissent interessant puisque plus rapide. Surtout si demain ce sont des disques de 8 T voire 16 To. Par ailleurs d'après mon calcul rapide, ce serait plutot 1 000 000 à repartir et non 130 000. je cherche surtout à comprendre et diminuer le temps des vérifications … merci
  3. Merci pour toutes ces recherches / info., j'apporte ici une rectification à la lecture des sources annexes … Total_RAM_en_Ko * 3 / 32 = valeur maximale de "-c" la valeur de la ram est exprimée en Mo et non en ko d'après le lien posté. --- Idem pour la longueur des fichiers .log, chez moi ils atteignent plutot une ~ 20 Mo (cela dépend de la taille du disque) et quand tout se passe bien … si y'a des erreurs … évidemment le test sera long et le log sera plus volumineux (jamais vu encore 1 Go). ---- Je suis en accord avec les arguments avancés.
  4. Bonjour, Même si techniquement on pouvait réattribuer le cache en volume, il n'y a pas d'intérêt réel à cette astuce … 1 - Le cout des SSD NVMe (prix au Go), par rapport à un RAID 5 HDD ou SSD, 2 - Le bus PCI-E est un gen2 x1 ou x2 … donc limité @ < 500 Mo/s à mon avis … 3 - Le gigabit en agrégation ne dépassera pas les 220 Mo/s (en utilisation concurrente). nota : à condition de disposer d'un switch capable de commuter les 115 Mo/s par lien (x2) … = cout. --- En local (pour l'usage de VM par exemple), de part le design, on peut bénéficier de débit interne ~ 1Go/s. nota : 350 Mo/s max observé pour ma part … mais je suspecte des pb de pilotes avec la VM d'essai. On est encore loin de débit de l'ordre de 2 ou 3 Go/s (ici c'est PCI-E gen2 et non 3) … Mis à part les IOPs (grâce au SSD) qui seront bien supérieures à un RAID5 (technologie HDD Vs SSD), les applications qui profitent de cela ne sont pas légion … nota : Synology communique sur ~30k. - serveur messagerie avec bcp de comptes (bcp d'accès concurrents), base de données, VM etc … Par contre, la réactivité des copies (si en cache) sur le LAN sera supérieure … Mais comme le cache est un algo. non configurable à ce jour … Autre intérêt mais qui reste minime : le financier … Par exemple, une grappe RAID 5 de disque de 8 To coute à ce jour entre 750 et 1000 € TTC. Un RAID 1 8 To avec deux SSD de 128 Go coutera autour 700 € TTC max, pour des performances équivalentes, voire supérieures (mais pas dans tous les cas c'est certain). Application en utilisation NAS (serveur de fichiers) : Les copies vers le NAS vont être accélérée (même avec de petits fichiers). La copie depuis le NAS sera bonne quand les fichiers sont dans le cache … standard en dehors (cache non utilisé). En agrégation de liens, deux machines pourraient copier vers le NAS @ 115 Mo/s. Bref, encore une fois … ce n'est qu'une question de dimensionnement par rapport à un besoin … Oui, ce cache répond à des besoins mais ce n'est pas la majorité des usages !
  5. Si j'avais une véritable alarme autonome, je n'utiliserai pas le NAS et la videosurveillance pour la détection … je laisse l'enregistrement en continue … et basta !
  6. En complément de ces info. … Il est possible de sélectionner les caméras attachées au mode home ou non. Dans mon cas, en cas non de présence (mode home désactivé), détection sur mouvement (puisque pas d'alarme). En cas de présence, ne rien faire de 7h à 23h30, détection de mouvement entre 23h30 et 7h pour notif. Je vois avec le temps si ce mode de fonctionnement est OK ou non. L'alternative serait de filmer en continu et de configurer une action en cas de détection et mode home désactivé. nota : il y aurait une alarme, je laisse l'enregistrement en continue avec rotation. Et je fais plus confiance à l'alarme en cas de détection. De fait, l'utilisateur consulte sa caméra que si l'alarme détecte qqchose (levée de doute). La détection de mouvement étant trop sensible avec les caméras (du mal à trouver le bon réglage), on reçoit bcp de notif. pour rien (> 99%) …
  7. Bonjour, idem pour moi, je ne trouve pas les réglages / ne comprend pas la logique. Existe t il un post qui explique tout ça ? merci. EDIT : je crois avoir compris … en cours de test Y'a le mode d'enregistrement / détection propre de chaque caméra … ET le mode home. De fait, une camera peut enregistrer en permanence ou détecter une présence selon calendrier. Des que le mode home est activé (présence @ home d'un des périph. déclaré / associé), on passe / commute sur le calendrier Home Mode.
  8. @Fenrir: un lien / des info concernant le tuning DMA et la préparation de disque dans les DC ? je suppose que l'on parle de Direct Memory Access (DMA) ? à part des préparations de voiture, je ne trouve pas grand chose 😄 merci
  9. @PiwiLAbruti: le support fonctionne t il bien en ce moment ? plusieurs tickets ouvert et aucune réponse !
  10. Bonjour, petit déterrage pour savoir quel est le niveau de l'app quelques mois après ? Ça fonctionne bien ? c'est stable ? Merci EDIT / je suppose que ca fonctionne uniquement pour des comptes G suite (pro.) ?
  11. @oli.oli Un burn/essai avec prime95 en modifiant la quantité de RAM utilisée (par le test) et ça fait le job aussi ;) C'est d'ailleurs une des solutions que j'envisage quand je vais upgrade mon DS918+ de 4 à 16 Go. Je n'ai pas trouvé d'alternative fiable au logiciel de vérif. de DS Assistant (me paraît sommaire) nota : peut être memtest 86 mais ça serait via ligne de commande … Je considère que si on arrive à installer une VM + OS et faire un burn de + de 4h sur toute la RAM, sans instabilité / plantage, c'est que le système est stable. --- Mais je préfère trouver une solution offline quand meme parce qu'il y a risque de corruption / plantage. Et un NAS est souvent utiliser en prod. donc on doit pouvoir compter dessus ! --- Au sujet de la quantité de RAM, on peut lire que 16 Go est possible mais pas trouvé de validation. (je considère cette info. comme possible). D'ailleurs, ce qui reste possible pour ton cas (si d'autres personnes n'ont pas validé/confirmé = non lu dans forum), c'est que les 2 barrettes ne fonctionnent pas ensemble ;) (ca serait surprenant mais possible).
  12. Bonjour, voici un rapide retour d'un essai : sur un disque 8 To WD Red, essai non destructif (sur un banc d'essai CentOS last, disque interne SATA) : sudo badblocks -nsv -b 4096 -c 5000 /dev/sdb > /home/liveuser/Desktop/sdb.log 2<&1 67:25:15 elapsed. (0/0/0 errors)100.00% done, 67:25:16 elapsed. (0/0/0 errors)done Pass completed, 0 bad blocks found. (0/0/0 errors)
  13. 1 - oui oui ne pas acheter si tu n'a pas déjà. 2 - ok, bien lu que c'est deja fait. Sauf que, faire les essais avec disque tout le temps déconnecté par ex. DSM n'a pas besoin d'un disque pour démarrer (c'est ça que je voulais dire). 3 - As tu essayé avec une autre alimentation ? à te faire prêter ou chez un réparateur (tu vas voir direct si sur réseau ou pas) … 4 - Le SAV de Synology ne risque pas de te proposer des alternatives de ce genre (c'est normal) > google 5 - oui pas de retour clavier / ecran possible et idem pour réseau lan, il faut des drivers … 6 - OK pas de retour … si c'est pas l'alim ca sent effectivement la carte mère … 7 - ;) you are welcome
  14. Je ne reproche rien à ce mécanisme (et vu ce que représente un bloc ie. 4096 bit). Je dis simplement que le nombre de bloc adressable ce serait un moyen indirect de vérifier le nombre de bloc défectueux et l'évolution de la panne. Peut être que SMART les enregistre d'ailleurs ? Ceci dit si on enregistre/filme puis compare la valeur du nombre de blocs adressables (depuis début puis périodiquement). On peut constater une dégradation. -- Je viens enfin d'intégrer vos remarques … En écrivant des 0 et 1 sur un bloc de manière aléatoire, si une partie du secteur est défectueuse, il y aura certainement plus d'un "bit" concerné dans le lot de 4096 … et donc on ne passe pas vraiment à côté d'un "zone défectueuse" (je suppose que ce sont des zones défectueuse et non un bit seul) en écrivant de l'aléatoire … Alors que dans le cas de l'écriture avec 4 pattern (forcer l'écriture à plusieurs reprises), on détecte les moindres défauts. C'est ce que tt le monde a évoqué (pas suffisamment explicite par écrit certes) … avec le recul, je comprends mieux … désolé ! Et puis j'ai lu qu'il y a une somme de contrôle après chaque bloc donc si il a été mal écrit, le bloc est invalidé à la première relecture je pense. --- Oui si vous voulez spliter pas de pb. Mais cela concerne quand même badblocks (on du moins un disque) et son fonctionnement. Ces échanges sont pertinents ! Et puis on a presque fini :D Merci encore.
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.