+ Responder ao Tópico



  1. #1

    Padrão problemas com squid

    Saldações pessoal

    pessoal estou com um problema aqui q está min deixando de cabelos branco, resolvi trab. com linux em minha rede instalei o debian etch 4.0 com squid, bind9 e apache funciona direitinho mais em devidos horarios ele fica muito lento tenho um link embratel 4Mb com cerca de 130 usuarios simultaneos cada um com 128k rede dividida em 3 pops mikrotik redirecionando o trafego para o linux
    EX: link embratel -> debian -> mikrotik -> ap -> clientes

    de pricipio achei q fosse o ap então coloquei uma maquina direto no debian e tbm ficou lento
    ai está meu squid.conf

    placa mãe intel p4 2gb de memoria ddr2 hd de 250 gb sata

    #######################################################
    http_port 8080 transparent
    visible_hostname ns1
    # Configuraç do cache
    ipcache_size 20000
    fqdncache_size 20000
    hierarchy_stoplist cgi-bin ?
    acl QUERY urlpath_regex cgi-bin \?
    no_cache deny QUERY
    cache_replacement_policy heap LFUDA
    memory_replacement_policy heap LFUDA
    half_closed_clients off
    server_persistent_connections off
    client_persistent_connections off
    #hosts_file /etc/hosts
    diskd_program /usr/lib/squid/diskd-daemon
    dns_nameservers 189.3.182.201
    cache_mem 512 MB
    maximum_object_size_in_memory 64 KB
    maximum_object_size 2048 KB
    minimum_object_size 0 KB
    cache_swap_low 90
    cache_swap_high 50
    cache_dir diskd /var/spool/squid/ 10000 32 256 Q1=64 Q2=72
    #cache_dir aufs /opt/spool/squid/ 100000 32 256
    # Localizaç do log de acessos do Squid
    cache_access_log /var/log/squid/access.log
    cache_store_log none
    logfile_rotate 2
    refresh_pattern ^ftp: 15 20% 2280
    refresh_pattern ^gopher: 15 0% 2280
    refresh_pattern . 15 20% 2280
    #always_direct allow all
    acl all src 0.0.0.0/0.0.0.0
    acl manager proto cache_object
    acl localhost src 127.0.0.1/255.255.255.255
    acl SSL_ports port 443 563
    acl Safe_ports port 80 # http
    acl Safe_ports port 21 # ftp
    acl Safe_ports port 443 563 # https, snews
    acl Safe_ports port 70 # gopher
    acl Safe_ports port 210 # wais
    acl Safe_ports port 1025-65535 # unregistered ports
    acl Safe_ports port 280 # http-mgmt
    acl Safe_ports port 488 # gss-http
    acl Safe_ports port 591 # filemaker
    acl Safe_ports port 777 # multiling http
    acl Safe_ports port 901 # SWAT
    acl purge method PURGE
    acl CONNECT method CONNECT
    http_access allow manager localhost
    http_access deny manager
    #http_access allow purge localhost
    http_access deny purge
    http_access deny !Safe_ports
    http_access deny CONNECT !SSL_ports
    #cache_effective_user squid
    #cache_effective_group squid
    #Proxy transparente
    acl redelocal src 100.10.15.0/24
    http_access allow localhost
    http_access allow redelocal
    http_access deny all
    #httpd_accel_uses_host_header on
    coredump_dir /var/spool/squid
    ###############################################################

    aqui minhas regras de firewall

    ###############################################################
    #!/bin/bash
    echo "1" > /proc/sys/net/ipv4/ip_forward
    # Limpando as tabelas
    iptables -F
    iptables -t nat -F
    iptables -t mangle -F

    iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
    iptables -t nat -A POSTROUTING -o eth2 -j MASQUERADE
    iptables -A INPUT -p tcp -i eth2 --dport 80 -j ACCEPT
    iptables -A INPUT -p tcp -i eth2 --dport 8080 -j ACCEPT
    iptables -A INPUT -p tcp -i eth2 --dport 553 -j ACCEPT
    iptables -A INPUT -p tcp -i eth2 --dport 110 -j ACCEPT
    iptables -A INPUT -p tcp -i eth2 --dport 25 -j ACCEPT
    iptables -t nat -A PREROUTING -p tcp -m multiport -s 100.10.15.0/24 --dport 80 -j REDIRECT --to-ports 8080
    echo "1" > /proc/sys/net/ipv4/icmp_echo_ignore_all
    ##################################################################


    no syslogd apresenta os seguintes erros

    Sep 24 13:40:08 ns1 squid[27953]: parseHttpRequest: Unsupported method 'recipientid=139&sessionid=9651^M '
    Sep 24 13:40:08 ns1 squid[27953]: clientReadRequest: FD 169 (100.10.15.4:55701) Invalid Request
    Sep 24 13:42:05 ns1 squid[27953]: parseHttpRequest: Requestheader contains NULL characters
    Sep 24 13:42:05 ns1 squid[27953]: parseHttpRequest: Unsupported method 'ø\215^D^B^A'
    Sep 24 13:42:05 ns1 squid[27953]: clientReadRequest: FD 266 (100.10.15.4:3508) Invalid Request
    Sep 24 13:43:02 ns1 named[27908]: unexpected RCODE (SERVFAIL) resolving 'rs334l3.rapidshare.com/A/IN': 82.129.39.234#53


    desde já agradeço a atenção

  2. #2

    Padrão

    cara...

    dá uma vasculhada nos logs e veja se encontra algum "warning"



  3. #3

    Padrão

    opa tem um warning sim

    WARNING! Your cache is running out of filedescriptors

    muito obrigado pela atenção

  4. #4

    Padrão

    cara...

    se você der uma procurada na net encontrará resposta para este "warning", mas adiantando, você precisa executar o comando "ulimit -n 16384", depois reiniciar o squid.



  5. #5

    Padrão

    opá muito obrigado pela atenção já havia dado o comando ulimit -n e naum resolvia nada

    proucurando na net achei um artigo que mandava eu recompilar o kernel então continuei a proucurar e achei um artigo q dizia q tinha q recompilar o kernel mais no debian existia uma alternativa para aumentar o numero de filesdecriptions

    editar o arquivo /etc/default/squid

    e alterar SQUID_MAXFD=1024 para
    SQUID_MAXFD=4096 4096 é o maximo aceitado pelo debian para aumentar isso só recompilando mesmo

    ok pessoal muito obrigado mesmo

  6. #6

    Thumbs up

    há esqueci de diser q com os problemas resolvido tenho 130 a 150 clientes de 128k e 256k simultaneos em um link de 2 MB

    está show



  7. #7

    Padrão

    cara...

    o máximo no debian é mais que isso, aqui uso assim sem recompilar o kernel com essa opção.

  8. #8

    Padrão

    Luciano segundo o artigo que eu andei lendo o maximo é 4096, vc usa ai quantos filesdecriptions min passa ai para eu faser uns testes aqui

    eu havia colocado 9000 mais ficou muito ruim

    muito obrigado pela atenção