Aller au contenu

Package Squidguard


Messages recommandés

Hello ;)

Pas de soucis lol t'excuse pas ;)

Je viens de lancer l'update , Je pourrais tester que ce soir.

Merci en tout cas de suivre le fil ;)

 

A tout hasard vous savez si c'est possible le de bloquer les images de Google image par exemple qui sont pas approprié on va dire ? 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, Dom31 a dit :

Tite question avant de me lancer ds le SSL Bump ...

La V4 de Squid couplée à SquidGuard permettra-t-elle de filtrer le https ??    Exigeant en plus le gars  :biggrin:

 

c'est deja possible en 3.5, maintenant, j'avoue que c'est parfois instable pour avoir tester (faut remonter les bug à squid-cache), 
maintenant, comme je l'ai dis, le v4 sera uniquement dispo pour certaine architecture, et qoriq (la tienne) n'en fait pas partie :s

maintenant, si ton but est juste d'eliminer les pub en https, un dns menteur aide deja beaucoup, il y a pas 36 gérie publicitaire qui utilise l'https ;)

 

Modifié par gaetan.cambier
Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, gaetan.cambier a dit :

c'est deja possible en 3.5, maintenant, j'avoue que c'est parfois instable pour avoir tester (faut remonter les bug à squid-cache), 
maintenant, comme je l'ai dis, le v4 sera uniquement dispo pour certaine architecture, et qoriq (la tienne) n'en fait pas partie :s

maintenant, si ton but est juste d'eliminer les pub en https, un dns menteur aide deja beaucoup, il y a pas 36 gérie publicitaire qui utilise l'https ;)

 

Ce n'est pas tant pour la pub mais plutôt les sites https qui passeront à travers des filtres Squidguard. Certes ils sont moins nombreux que les http, mais qd tu cherches à peine un peu tu trouves ... et les enfants ont vite tendance à chercher beaucoup ... surtout qd c'est interdit !!

Qd la V4 sortira, il y aura une bonne occaz pour un DS413 ;-)   

Lien vers le commentaire
Partager sur d’autres sites

il y a 35 minutes, Dom31 a dit :

Ce n'est pas tant pour la pub mais plutôt les sites https qui passeront à travers des filtres Squidguard. Certes ils sont moins nombreux que les http, mais qd tu cherches à peine un peu tu trouves ... et les enfants ont vite tendance à chercher beaucoup ... surtout qd c'est interdit !!

Qd la V4 sortira, il y aura une bonne occaz pour un DS413 ;-)   

quand tu limite la source première, c'est à dire le moteur de recherche, c deja beaucoup + dificile à trouver :p mais c'est exact, rien n'est impossible

Lien vers le commentaire
Partager sur d’autres sites

Ca marche nickel Merci :)

J'ai juste un message bizzare quand la page est interdite mais le principal c'est que ca bloque ^^

C'est clair qu'ils sont malin les p'tits ... c'est pour ca qu'il faut que je troue aussi comment bloquer les images qui contiennent des mots particulier ont va dire lol...

Lien vers le commentaire
Partager sur d’autres sites

J'ai ca :

 

L'erreur suivante s'est produite en essayant d'accéder à l'URL : http://nomdunas:5000/webman/3rdparty/squidguard/squidGuard.cgi?

La connexion 192.168.1.18 a échouée.

Le système a retourné : (113) No route to host

L'hôte distant ou le réseau sont peut-être défaillant. Veuillez renouveler votre requête.

Votre administrateur proxy est webmaster.

 

Sachant que le port 5000 n'est pas utilisé.

Apres c'est pas grave, tant que ca bloque la page :)

Lien vers le commentaire
Partager sur d’autres sites

@gaetan.cambier

Un petit bug (qui en explique plusieurs) => pas de limites pour wget

Les sites miroirs où tu récupères les listes (en particulier celles d'adblock) ne sont pas toujours joignables (notamment en IPv6).

  • comme tu n'as pas spécifié de limites à wget, il essaye indéfiniment de récupérer les fichiers (comportement par défaut)
  • =>ça bloque le process d’installation :
    • =>il ne télécharge pas les autres fichiers (db squidguard)
    • =>squid ne se lance pas après son installation (car il attend les process précédents)
    • =>le gestionnaire de paquet reste en "Installing"

Une suggestion de correction serait :

  1. ajouter --timeout=10 aux instructions wget
  2. incorporer une micro liste par défaut (un fichier d'une ligne suffit) dans le package afin d'éviter d'avoir une DB vide en cas de soucis de téléchargement

Pour le point 2, tu peux mettre une url invalide (exemple.org), ce qui permettrait d'ajouter un exemple/test fonctionnel dans la conf de squidguard sans gêner personne.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 8 heures, Fenrir a dit :

@gaetan.cambier

Un petit bug (qui en explique plusieurs) => pas de limites pour wget

Les sites miroirs où tu récupères les listes (en particulier celles d'adblock) ne sont pas toujours joignables (notamment en IPv6).

  • comme tu n'as pas spécifié de limites à wget, il essaye indéfiniment de récupérer les fichiers (comportement par défaut)
  • =>ça bloque le process d’installation :
    • =>il ne télécharge pas les autres fichiers (db squidguard)
    • =>squid ne se lance pas après son installation (car il attend les process précédents)
    • =>le gestionnaire de paquet reste en "Installing"

Une suggestion de correction serait :

  1. ajouter --timeout=10 aux instructions wget
  2. incorporer une micro liste par défaut (un fichier d'une ligne suffit) dans le package afin d'éviter d'avoir une DB vide en cas de soucis de téléchargement

Pour le point 2, tu peux mettre une url invalide (exemple.org), ce qui permettrait d'ajouter un exemple/test fonctionnel dans la conf de squidguard sans gêner personne.

J'y regarde dès que j'ai le temps ;)

par contre, j'ai un doute sur un point, si squidguard n'a aucune liste, ca "le dérange" ou il va simplement passer (j'avoue, j'ai pas tester c le matin)

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, gaetan.cambier a dit :

par contre, j'ai un doute sur un point, si squidguard n'a aucune liste, ca "le dérange" ou il va simplement passer (j'avoue, j'ai pas tester c le matin)

Ça ne le dérange pas plus que ça normalement du moment que ces listes ne sont pas déclarées dans sa conf, c'était juste une suggestion pour mettre un exemple fonctionnel.

En passant, quelques remarques sur le script /usr/local/squidguard/bin/update_db.sh :

  1. même soucis avec le wget
  2. le bloc if de la ligne 29 empêche le rsync s'il y a un soucis
    • 	if [ ! $? -eq 0 ] ; then
      		echo "An non-Adblock list was detected"
      		exit 1
      	fi
      	sed -e "${ADBLOCK_PATTERNS}" "${LIST_FILE_PATH}" >> "${FILTER_ADBLOCK_DIR}/expressions"
      ###=>
      	if [ $? -eq 0 ] ; then
      		sed -e "${ADBLOCK_PATTERNS}" "${LIST_FILE_PATH}" >> "${FILTER_ADBLOCK_DIR}/expressions"
      	else
      		echo "A non-Adblock list was detected"
      	fi

       

  3. le rsync, -a est équivalent à -rlptgoD, donc les options rpogt sont en double et le -v c'est pour verbose
    • rsync -a ${RSYNC_DIR} .
Lien vers le commentaire
Partager sur d’autres sites

à l’instant, gaetan.cambier a dit :

c un peu normal que ce soit le meme soucis, le script d'install fait appel au script d'update :biggrin:

je n'ai pas regardé le script d'installation, j'ai juste constaté un process wget qui tournait en boucle quand j'ai réinstallé le paquet hier :mrgreen:

tant mieux, ça ne fait qu'un endroit à corriger :biggrin:

Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, gaetan.cambier a dit :

ajouter --timeout=10 aux instructions wget

Done (tu as pas eu de change, il y a un seul wget, il a reussis a déconné chez toi :wow:)

il y a 19 minutes, Fenrir a dit :

le bloc if de la ligne 29 empêche le rsync s'il y a un soucis

Done

il y a 19 minutes, Fenrir a dit :

le rsync, -a est équivalent à -rlptgoD

Done (et après tout, si j'ai envie de mettre 2 fois les même options :biggrin:)

Modifié par gaetan.cambier
Lien vers le commentaire
Partager sur d’autres sites

Il y a 12 heures, gaetan.cambier a dit :

Done (tu as pas eu de change, il y a un seul wget, il a reussis a déconné chez toi :wow:)

Done

Done (et après tout, si j'ai envie de mettre 2 fois les même options :biggrin:)

Ohé

Il y a une mise à jour de prévue avec ces modif ??

Je n'avais plus accès au NAS depuis ce midi (http, ssl), tout fonctionnait, mais dès que je voulais y accéder, ça moulinait ds la semoule, j'ai laissé tourner 2 heures, puis me suis résigné à l'arrêter avec le blue bouton et à redémarrer.

J'ai repris la main.

Je pense qu'il bossait (ou pas) dur sur qlq chose, peut-être sur un truc du style à Fenrir ... 

Voilou, c'était just un petit retour.

Edit :

Je viens de faire la dernière maj 2016.04.15-13, SquidGuard ne veut pas se lancer, il reste "arrêté" ds le centre de paquet ... mais ça fonctionne qd mm, j'ai accès au net et ça filtre  :eek: :eek: :eek: :eek::eek: :eek: :eek: :eek:

Modifié par Dom31
Lien vers le commentaire
Partager sur d’autres sites

Ce matin SquidGuard apparaît en vert "en cours d'exécution" ... La nuit porte conseils  :biggrin: 

Pour le moment tout fonctionne normalement, il (SquidGuard) a qd mm dû faire un truc ce matin (une maj de tables quelconques) car tout tombait en time out et plus d'accès à rien  pdt 5/10 min ... j'ai appris à être patient :lol: , tout est revenu aussi vite que c'est parti.

Bon dimanche

Lien vers le commentaire
Partager sur d’autres sites

Il y a 9 heures, Dom31 a dit :

Je pense qu'il bossait (ou pas) dur sur qlq chose, peut-être sur un truc du style à Fenrir ... 

non, c pas un wget qui va planter le nas qd meme ;)

l'update arrivera, mais ca c'est + du "cosmétique" :mrgreen:

Il y a 9 heures, Dom31 a dit :

Je viens de faire la dernière maj 2016.04.15-13, SquidGuard ne veut pas se lancer, il reste "arrêté" ds le centre de paquet ... mais ça fonctionne qd mm, j'ai accès au net et ça filtre  :eek: :eek: :eek: :eek::eek: :eek: :eek: :eek:

Probablement le script d'install qui n'a pas été assez agressif avec les process, et un truc c'est mal passe :s

c bizarre je suspecterai bien encore clamd d'avoir foutu la merde :lol:

tu aurait pas fait la mise à jour du paquet juste après le redemarrage de ton nas ? 

 

Lien vers le commentaire
Partager sur d’autres sites

il y a 8 minutes, gaetan.cambier a dit :

non, c pas un wget qui va planter le nas qd meme ;)

l'update arrivera, mais ca c'est + du "cosmétique" :mrgreen:

Probablement le script d'install qui n'a pas été assez agressif avec les process, et un truc c'est mal passe :s

c bizarre je suspecterai bien encore clamd d'avoir foutu la merde :lol:

tu aurait pas fait la mise à jour du paquet juste après le redemarrage de ton nas ? 

 

Planté ... disons très, trop occupé à faire autre chose.

Oui maj après avoir redémarré

Lien vers le commentaire
Partager sur d’autres sites

Salut, 

Chose étrange : j'ai de nouveau 2 processus clamd de lancé pour environ 700Mo & 500Mo soit 1,2 Go tout de même... je pense que c'est depuis la dernière update de DSM

SquidGuard 2016.04.15-13 et DSM 6.0-7321 Update 2...

Pour infos j'ai "juste" modifié le squid.conf pour mettre une authentification via LDAP et si ça ça marche, le filtre n'a pas d'effet... J'ai qu'un seule règle et j'ai interdit l'accès à internet et pourtant tout passe... mais il me demande bien login mot de passe.

Lien vers le commentaire
Partager sur d’autres sites

Le 17 avril 2016 at 10:12, Dom31 a dit :

Planté ... disons très, trop occupé à faire autre chose.

Oui maj après avoir redémarré

Et rebelote .... Le Nas bosse sur je sais pas quoi et tout est bloqué. Les accès cet aprem étaient hyper lents et maintenant c'est fini, plus de réseau local, pas d'accès ssl ... Va encore falloir user du bleu button !!!

Une idée pour savoir a posteriori ce qui bloque ?

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.