Por acaso alguem sabe me dizer se realmente existe algum problema quanto o uso do sarg com o RedHat 9.0???
O sarg simplesmente para de uma hora pra outra!
Por acaso alguem sabe me dizer se realmente existe algum problema quanto o uso do sarg com o RedHat 9.0???
O sarg simplesmente para de uma hora pra outra!
ola, verifique no log para ver o erro, tb de mais informacoes sobre paradas e seu script.
Como assim para? Você não consegue acessar os relatórios pelo browser? É isso? Lembre-se que o sarg apenas gera páginas html a partir do cache do squid e quem serve essas páginas é o Apache! Talvez o problema esteja aí.
[ ]'s
Para? Mas ele não é um service, vc tem que chamar ele qdo quiser que ele gere o relatorio, ou então criar alguma regra...Postado originalmente por ze_reno
#sarg
#konqueror http://localhost/squid-reports
Acontece comigo a mesma coisa no Red Hat 9. Ele funcionou na primeira vez, depois parou. Não gera mais relatórios. Ao executar ele no prompt, ele fica "travado" , "parado" , o processo fica eternamente como se tivesse em execução, só com o kill para terminar...
Alguém tem ideia?
o ideal seria criar uma regra onde o sarg fosse executado em um horario que nao tivesse trafego na rede.
Assim ele leria tranquilamente o access.log do squid sem travar.
O que pode ta acontecendo é que vcs estao tentando gerar o relatorio num horario de muito trafego, aí o access.log aumente rapidamente a cada segundo .
Isso nao é problema do Rh9.
É.... Pode ser....
Instalei o sarg sem usar um binário RPM (pegando o tar.gz) e agora está funcionando normal, mas pode ser mesmo coincidencia... Naquele momento realmente tinha muito trafego de navegação na rede.
Pessoal,
Quando se usa o Squid e o SARG deve tomar especial atencao com o s tamanhos dos logs, principalmente o acess.log. Logs muito grades causam lentidao no squid e principalmente no SARG. Ja tive este problema em um dia de traffego descomunal, o sarg travava... ficava horas lendo os logs do squid... Eh boml nao deixar os logs passarem de 16 MB.
O ideal é zerar os logs periodicamente, mas o tempo dependa da rede. Existem duas opcoes para fezer isso (1) utilizando a opcao "-k reconfigure rotate" do squid que rotaciona (limpa) os logs ou um script. Um exemplo eh o script q eu uso:
Código :#!/bin/bash # escrito por Fernando Dotta ## Gera variavel do dia dia=`date +%Y"-"%b"-"%d` base='/var/log/squid' wwwbase='/var/www/mrtg/squid-reports' ## Cria a bkp do dia e copia os arquivos nohup tar cvj $base/access.log* $base/cache.log* $base/store.log* -f $base/logbkp/log-$dia.tar.bz2 > /dev/null ## Apaga os arquivos antigos > $base/access.log > $base/cache.log > $base/store.log ## Apaga estatisticas com mais de 90 dias find $base/logbkp/ -atime +90 -exec /bin/rm -rf {} ';' find $wwwbase/ -atime +90 -exec /bin/rm -rf {} ';' find $wwwbase/ -empty -exec /bin/rm -rf {} ';' > /dev/null
Eu executo o cleanup dos log do squid 2 vezes por semana, mas minha rede tem 60 users com trafego baixo. O script acima compacta os logs em um dir coloconado no nao o dia q foi zerado o log, depois ele zera o log e finalinazando apaga as estatisticas com mais de 90 dias (tanto em html com os log compactados).
[] Dotta :twisted: