Página 2 de 3 PrimeiroPrimeiro 123 ÚltimoÚltimo
+ Responder ao Tópico



  1. #21

    Padrão

    o cara tem até um bom conhecimento do q ele está falando, a teoria dele tá certa em partes....mas ele se expressa mal pacas...defeito de muitos aqui no fórum q sabem muito e querem q acompanhem o raciocínio a força...
    analisando bem oq nossos nobres colegas querem. Vai poder ajudar mais, não enxergando seu ponto de vista e sim dos demais.
    Aprender a contornar os problemas é melhor do q bater de frente com eles...


    Vlw
    Última edição por ceusbar; 29-09-2009 às 17:31.

  2. #22
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    Roger, concordo com você no dimensionamento correto dos sistemas (nem mais nem menos, nem em antena nem em potência - o espectro agradece). Entretanto, continuo discordando da necessidade de se manter todos clientes em um mesmo nível com +/- 3 dB de erro. Quando vocês conseguirem, me avisem.

    Sds,
    Última edição por motacosta; 29-09-2009 às 17:37.



  3. #23

    Padrão

    Esta calculadora do site da Zitrax que o Rogério postou, é bem interessante.

    E daí me vem uma questão a mente: se um cliente estiver com sinal -45, -50, que é considerado excelente, ele poderia ainda assim estar com o fator de saturação acima do ideal?
    Se positivo, este sinal não seria o ideal para ele, mas menor seria o ideal?

  4. #24
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    1929, esse é o X da questão:

    Vamos pegar o exemplo de um cartão típico 802.11g - Taxa / Sensibilidade:

    54 Mbps: -70 dBm
    48 Mbps: -72 dBm
    36 Mbps: -77 dBm
    24 Mbps: -80 dBm
    18 Mbps: -82 dBm
    12 Mbps: -85 dBm
    9 Mbps: -86 dBm
    6 Mbps: -88 dBm


    Pelo conceito pregado nessa "técnica" do "lençol digital", qualquer valor acima de -70 dBm estaria saturando o receptor, por que com -70 dBm temos a melhor taxa. Correto? Errado.

    O valor de saturação de um receptor não é aquele imediatamente acima do sinal mínimo requerido para a melhor taxa de transmissão (-70 dBm no exemplo). Se isso fosse verdade, um sinal de -65 dBm já estaria saturando o receptor. O que não é verdade. Valores típicos de saturação em rádios digitais estão em torno de -30 dBm. Sem contar que em qualquer receptor temos uma coisinha chamada controle automático de ganho (AGC), que atenua valores muito altos até um certo limite.

    Para provar o que estou falando vejam essa página desse livro :

    http://books.google.com.br/books?id=...r%20dbm&f=true

    Vejam que o limite de saturação no padrão 802.11g é de -30 dBm e no 802.11b chega a -10 dBm.

    No entanto é bastante válido o controle de potência para que as transmissões sejam feitas na medida certa (nem potência demais nem de menos). E continuo defendendo que é desnecessário (ilusão) querer deixar todo mundo em um mesmo nível de potência com +/- 3 dB de diferença.

    Sds a todos,


    Citação Postado originalmente por 1929 Ver Post
    Esta calculadora do site da Zitrax que o Rogério postou, é bem interessante.

    E daí me vem uma questão a mente: se um cliente estiver com sinal -45, -50, que é considerado excelente, ele poderia ainda assim estar com o fator de saturação acima do ideal?
    Se positivo, este sinal não seria o ideal para ele, mas menor seria o ideal?
    Última edição por motacosta; 30-09-2009 às 14:01.



  5. #25

    Padrão

    Citação Postado originalmente por motacosta Ver Post
    1929, esse é o X da questão:

    Vamos pegar o exemplo de um cartão típico 802.11g - Taxa / Sensibilidade:

    54 Mbps: -70 dBm
    48 Mbps: -72 dBm
    36 Mbps: -77 dBm
    24 Mbps: -80 dBm
    18 Mbps: -82 dBm
    12 Mbps: -85 dBm
    9 Mbps: -86 dBm
    6 Mbps: -88 dBm


    Pelo conceito pregado nessa "técnica" do "lençol digital", qualquer valor acima de -70 dBm estaria saturando o receptor, por que com -70 dBm temos a melhor taxa. Correto? Errado.

    O valor de saturação de um receptor não é aquele imediatamente acima do sinal mínimo requerido para a melhor taxa de transmissão (-70 dBm no exemplo). Se isso fosse verdade, um sinal de -65 dBm já estaria saturando o receptor. O que não é verdade. Valores típicos de saturação em rádios digitais estão em torno de -30 dBm. Sem contar que em qualquer receptor temos uma coisinha chamada controle automático de ganho (AGC), que atenua valores muito altos até um certo limite.

    Para provar o que estou falando vejam essa página desse livro :

    Wireless network coexistence - Google Livros

    Vejam que o limite de saturação no padrão 802.11g é de -30 dBm e no 802.11b chega a -10 dBm.

    No entanto é bastante válido o controle de potência para que as transmissões sejam feitas na medida certa (nem potência demais nem de menos). E continuo defendendo que é desnecessário (ilusão) querer deixar todo mundo em um mesmo nível de potência com +/- 3 dB de diferença.

    Sds a todos,


    Com certeza, estes valores de sensibilidade são os mínimos aceitos e não o ideal.

    Se não me engano, esta calculadora citada pelo Rogério, foi apresentada num curso que ele fez.
    E ele disse que o indicado seria saturação em torno de 50%, que bate aproximadamente com o que voce diz.
    E com o controle de ganho, alguma coisa mais se consegue de proteção contra a saturação.
    Perfeito.
    Só a questão dos +/- 3 dbm é que ainda ficou no ar. Como não foi eu que levantei a questão, mas ainda acreditando nela, vou aguardar o Alexandre.
    Gosto muito destes debates mais técnicos, pois sempre se aprende alguma coisa boa.

  6. #26
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    Com certeza, nas discussões sempre aprendemos. Isso é o legal nesse forum. Outra coisa que é furada é medirmos potência de sinal em porcentagem. Furada por que é relativo e cada fabricante tem seu método. Quando falamos: "sinal 50%" - fica a pargunta no ar - "50% de quê?". Devemos sempre nos referir a potência nesses casos em dBm que é absoluto.

    Sds,

    Citação Postado originalmente por 1929 Ver Post
    Com certeza, estes valores de sensibilidade são os mínimos aceitos e não o ideal.

    Se não me engano, esta calculadora citada pelo Rogério, foi apresentada num curso que ele fez.
    E ele disse que o indicado seria saturação em torno de 50%, que bate aproximadamente com o que voce diz.
    E com o controle de ganho, alguma coisa mais se consegue de proteção contra a saturação.
    Perfeito.
    Só a questão dos +/- 3 dbm é que ainda ficou no ar. Como não foi eu que levantei a questão, mas ainda acreditando nela, vou aguardar o Alexandre.
    Gosto muito destes debates mais técnicos, pois sempre se aprende alguma coisa boa.



  7. #27

    Padrão

    Citação Postado originalmente por motacosta Ver Post
    Com certeza, nas discussões sempre aprendemos. Isso é o legal nesse forum. Outra coisa que é furada é medirmos potência de sinal em porcentagem. Furada por que é relativo e cada fabricante tem seu método. Quando falamos: "sinal 50%" - fica a pargunta no ar - "50% de quê?". Devemos sempre nos referir a potência nesses casos em dBm que é absoluto.

    Sds,
    Eu já tinha lido algo sobre isso. Se não me engano o Sérgio levantou também esta questão.
    Alguns firmwares trazem em porcentagem e entre parenteses em dbm.

  8. #28
    André Andrade*MikrotikRio Avatar de interhome
    Ingresso
    Oct 2008
    Localização
    Brasil.
    Posts
    1.094
    Posts de Blog
    15

    Padrão

    Alem da qualidade do sinal, tem que se levar em conta em que banda esta trabalhando e esses 35 clientes simultaneos estão com qual velocidade ?



  9. #29
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    Bem colocado, interhome. Tem que ver qual a capacidade que os troncos desses dois pontos de acesso tem de escoar o tráfego dos clientes. Fazer um teste de largura de banda nos usuários com menor sinal e comparar se passa a velocidade contratada. Talvez os usuários estejam recebendo o tráfego que foi contratado mas estão esperando demais do link e estão reclamando. Isso acontece, usuário é assim. Se tiver de melhorar o sinal de um cliente, apenas o faça sem se preocupar com os demais. Tem que fazer uma investigação mais apurada, ver interferência de outros pontos de acesso, etc... Esqueçam esse folclore de controlar o sinal dos clientes com +/- 3 dB de diferença entre eles. Isso simplesmente não "ecziste" como diria o Pe. Quevedo.

    Sds,





    Citação Postado originalmente por interhome Ver Post
    Alem da qualidade do sinal, tem que se levar em conta em que banda esta trabalhando e esses 35 clientes simultaneos estão com qual velocidade ?
    Última edição por motacosta; 01-10-2009 às 09:34.

  10. #30

    Padrão

    Citação Postado originalmente por motacosta Ver Post
    Bem colocado, interhome. Tem que ver qual a capacidade que os troncos desses dois pontos de acesso tem de escoar o tráfego dos clientes. Fazer um teste de largura de banda nos usuários com menor sinal e comparar se passa a velocidade contratada. Talvez os usuários estejam recebendo o tráfego que foi contratado mas estão esperando demais do link e estão reclamando. Isso acontece, usuário é assim. Se tiver de melhorar o sinal de um cliente, apenas o faça sem se preocupar com os demais. Tem que fazer uma investigação mais apurada, ver interferência de outros pontos de acesso, etc... Esqueçam esse folclore de controlar o sinal dos clientes com +/- 3 dB de diferença entre eles. Isso simplesmente não "ecziste" como diria o Pe. Quevedo.

    Sds,
    Eu tenho feito o acompanhamento pelo CCQ.

    Outra coisa Mota, no caso de um cliente com sinal ruim, ele vai prejudicar mesmo toda a rede? E esse prejuízo ocorre sempre ou só quando o rádio está sobrecarregado com muitos usuários online?
    Pergunto isso, pois tenho dois assinantes que ainda não consegui melhorar este valor, mas como os Nano não estão sobrecarregados, não dá para notar prejuizo aos demais.
    Pois notei que mesmo com o CCQ com 20 a 30% ele navega, meio reclamando, mas vai.
    E esta medida em porcentagem no CCQ é também fictício como a porcentagem de sinal medida nos firmwares?



  11. #31
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    1929,

    Minha resposta é não. Não vai prejudicar toda a rede. A filosofia de acesso do wi-fi (CSMA/CA) é egoísta no sentido de que se um usuário tá com sinal ruim o problema é dele, não dos demais (não "ecziste" sistema de rádio Comunista). A jogada é entre o AP do POP e o cliente individualmente, não tem nada a ver com os outros. Isso acontece por que cada usuário tem seu tempo de transmitir e escutar individualmente o AP do POP e os usuários não se comunicam diretamente entre si.

    Sobre o CCQ não sei bem do que se trata, mas pelo que vi é alguma medida de sinal em porcentagem né? Se for isso mesmo, repito as palavras do post anterior. Não se baseie em porcentagem, e sim em potência em dBm tendo sempre em mente o seguinte: Próximo de -30 dBm você tem saturação e próximo de -90 dBm seu sinal está sumindo. Você tem esse intervalo pra trabalhar, onde cada cliente só precisa ter o sinal suficiente pra passar a banda contratada. Outra coisa é respeitar a capacidade de escoar tráfego que o POP tem e não pendurar usuário demais, por que aí não tem mágica.

    Espero que tenha ajudado.

    Sds,


    Citação Postado originalmente por 1929 Ver Post
    Eu tenho feito o acompanhamento pelo CCQ.

    Outra coisa Mota, no caso de um cliente com sinal ruim, ele vai prejudicar mesmo toda a rede? E esse prejuízo ocorre sempre ou só quando o rádio está sobrecarregado com muitos usuários online?
    Pergunto isso, pois tenho dois assinantes que ainda não consegui melhorar este valor, mas como os Nano não estão sobrecarregados, não dá para notar prejuizo aos demais.
    Pois notei que mesmo com o CCQ com 20 a 30% ele navega, meio reclamando, mas vai.
    E esta medida em porcentagem no CCQ é também fictício como a porcentagem de sinal medida nos firmwares?
    Última edição por motacosta; 01-10-2009 às 11:29.

  12. #32

    Padrão

    Citação Postado originalmente por motacosta Ver Post
    1929,


    Sobre o CCQ não sei bem do que se trata, mas pelo que vi é alguma medida de sinal em porcentagem né? Se for isso mesmo, repito as palavras do post anterior. Não se baseie em porcentagem, e sim em potência em dBm tendo sempre em mente o seguinte: Próximo de -30 dBm você tem saturação e próximo de -90 dBm seu sinal está sumindo. Você tem esse intervalo pra trabalhar, onde cada cliente só precisa ter o sinal suficiente pra passar a banda contratada. Outra coisa é respeitar a capacidade de escoar tráfego que o POP tem e não pendurar usuário demais, por que aí não tem mágica.

    Espero que tenha ajudado.

    Sds,
    No Nano, tem como analisar a chegada do sinal do cliente. CCQ seria a qualidade de sinal recebido do cliente. E tem também a medida em dbm. Quando dá um sinal mais fraco, como -75 a -80 dbm, o CCQ cai. Mas não sei em que parâmetro se baseia para fazer este cálculo.

    Tenho clientes com 100% de CCQ e navegação supertranquila. Com sinal acima de -65dbm praticamente todos batem em 80 a 100%.
    Mas tenho com 20% que navega mas tem mais lentidão. Em todos o ping é bom, nestes de sinal mais baixo não fica muito bom. O mesmo acontece com clientes bem próximos da base que usam notebook direto. Navegam mas o sinal em dbm sempre é mais baixo e consequentemente o CCQ também.



  13. #33
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    1929, entendi sobre o CCQ. Tem que ver os parâmetros que o CCQ do Nano leva em conta para atribuir uma "qualidade de sinal" aos usuários. Se é somente na potência recebida em dBm ou se ele leva em conta interferências, por exemplo. Eu já tive casos onde o sinal em dBm tava ótimo mas a taxa estava ruim por causa de interferência de outros APs.

    Me diz uma coisa, já tentou aumentar o ganho nas antenas desses usuários com sinal fraco?

    Valeu.


    Citação Postado originalmente por 1929 Ver Post
    Eu tenho feito o acompanhamento pelo CCQ.

    Outra coisa Mota, no caso de um cliente com sinal ruim, ele vai prejudicar mesmo toda a rede? E esse prejuízo ocorre sempre ou só quando o rádio está sobrecarregado com muitos usuários online?
    Pergunto isso, pois tenho dois assinantes que ainda não consegui melhorar este valor, mas como os Nano não estão sobrecarregados, não dá para notar prejuizo aos demais.
    Pois notei que mesmo com o CCQ com 20 a 30% ele navega, meio reclamando, mas vai.
    E esta medida em porcentagem no CCQ é também fictício como a porcentagem de sinal medida nos firmwares?
    Citação Postado originalmente por 1929 Ver Post
    No Nano, tem como analisar a chegada do sinal do cliente. CCQ seria a qualidade de sinal recebido do cliente. E tem também a medida em dbm. Quando dá um sinal mais fraco, como -75 a -80 dbm, o CCQ cai. Mas não sei em que parâmetro se baseia para fazer este cálculo.

    Tenho clientes com 100% de CCQ e navegação supertranquila. Com sinal acima de -65dbm praticamente todos batem em 80 a 100%.
    Mas tenho com 20% que navega mas tem mais lentidão. Em todos o ping é bom, nestes de sinal mais baixo não fica muito bom. O mesmo acontece com clientes bem próximos da base que usam notebook direto. Navegam mas o sinal em dbm sempre é mais baixo e consequentemente o CCQ também.
    Última edição por motacosta; 01-10-2009 às 12:01.

  14. #34

    Padrão

    Citação Postado originalmente por 1929 Ver Post
    No Nano, tem como analisar a chegada do sinal do cliente. CCQ seria a qualidade de sinal recebido do cliente. E tem também a medida em dbm. Quando dá um sinal mais fraco, como -75 a -80 dbm, o CCQ cai. Mas não sei em que parâmetro se baseia para fazer este cálculo.

    Tenho clientes com 100% de CCQ e navegação supertranquila. Com sinal acima de -65dbm praticamente todos batem em 80 a 100%.
    Mas tenho com 20% que navega mas tem mais lentidão. Em todos o ping é bom, nestes de sinal mais baixo não fica muito bom. O mesmo acontece com clientes bem próximos da base que usam notebook direto. Navegam mas o sinal em dbm sempre é mais baixo e consequentemente o CCQ também.
    CCQ é a eficiência da transmissões, muitas perdas na rede geram retransmissoes. Seria como se fazer a seguinte pergunta... quantos % dos pacotes transmitidos estão sendo recebidos pelo cliente? se o valor for 90% por exemplo, 10% dos pacotes estao sendo perdidos e tem q ser retransmitidos, causando assim um pequeno atrazo na rede...



  15. #35
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    Legal, froyer.
    Então o CCQ do Nano não depende somente da potência recebida em dBm, depende do ambiente onde aquela rede está. E ae o culpado disso é o velho problema de poluição em excesso em 2.4 GHz. Com interferência você tem mais retransmissões dos segmentos TCP e com isso a taxa final é menor. Na minha opinião esse é o real causador da maioria dos problemas ligados a RF nesse forum, incluindo o problema do QuickTelecom que originou esse tópico e do 1929.

    Sds,

    Citação Postado originalmente por froyer Ver Post
    CCQ é a eficiência da transmissões, muitas perdas na rede geram retransmissoes. Seria como se fazer a seguinte pergunta... quantos % dos pacotes transmitidos estão sendo recebidos pelo cliente? se o valor for 90% por exemplo, 10% dos pacotes estao sendo perdidos e tem q ser retransmitidos, causando assim um pequeno atrazo na rede...
    Última edição por motacosta; 01-10-2009 às 14:57.

  16. #36

    Padrão

    Eu concordo plenamente com motacosta "A filosofia de acesso do wi-fi (CSMA/CA) é egoísta no sentido de que se um usuário tá com sinal ruim o problema é dele, não dos demais".

    Vejo isso na prática, pois tenho diversos POPs em cidades diferentes.
    Um dos POPs fica numa torre muito alta. Lá é impossível fechar um enlace com sinal abaixo dos -50. Geralmente os enlaces estão entre -50 a -70 dessa torre.
    O que faz sobrecarregar o rádio, é a quantidade de pacotes enviados e recebidos simultaneamente, por isso que quando chega uma determinada quantidade de clientes simultâneos, o sinal do mais fraco poderá "sobrar", desconectando e re-conectando e até mesmo exibindo a mensagem "data from unknow device MAC, sent deauth".

    Em outro POP, longe de poluição e com menos enlaces, acontece um fator curioso. Os enlaces fecham com sinal muito forte (entre -35 a -48). Certa vez, um dos técnicos fechou um enlace em -60 desse POP, o que seria normal para o outro. Mas, como os outros enlaces estavam todos com sinal forte e esse (pode-se dizer um pouco fraco), simplesmente acontecia constantemente de desconectar, re-conectar e aparecer a mensagem "data from unknow device MAC, sent deauth". Só foi solucionado realinhando e trocando o pigtail, pois o sinal caiu para a casa dos -38.

    O que me faz pensar, é que o tal "lençol magnetico" tem certo fundamento, mas respeitando a sensibilidade do cartão/rádio para a taxa de transmissão desejada.



  17. #37

    Padrão

    Citação Postado originalmente por froyer Ver Post
    CCQ é a eficiência da transmissões, muitas perdas na rede geram retransmissoes. Seria como se fazer a seguinte pergunta... quantos % dos pacotes transmitidos estão sendo recebidos pelo cliente? se o valor for 90% por exemplo, 10% dos pacotes estao sendo perdidos e tem q ser retransmitidos, causando assim um pequeno atrazo na rede...
    Explicação bem clara, gostei.

    Citação Postado originalmente por motacosta Ver Post
    1

    Me diz uma coisa, já tentou aumentar o ganho nas antenas desses usuários com sinal fraco?

    Valeu.
    Sim, tenho feito isso em alguns casos. Mas vou fazer nos outros futuramente.
    Fiz o seguinte: usei uma antena de grade e anotei o desempenho. Tirei ela e coloquei na hora outra igual, mas com uma tela de alumínio, forrando a grade, destas que vem em antenas parabólicas de TV. O resultado foi muito bom. O sinal aumentos num caso de -75, -85 para -65, -70.
    Mas era um caso muito difícil pela visada totalmente comprometida. E estabilizou mais já que ficou oscilando em -5dbm. Antes oscilasa em -10dbm.

    Não sei porque as fábricas não fazem as grades mais fechadas. Eu ainda acho muito aberta, pois na verdade a grade forma um retangulo mas acho que não barra tudo que vem de trás e também não reflete tudo. A malha teria que ser menor que 1/4 de onda. Num sentido é bem menor mas no outro é bem maior. E como sempre tem reflexão, será que esta reflexão vai sempre coincidir com o sentido da malha?
    Acho que não. Por isso, uma malha menor, preferencialmente quadrada e não retangular como é hoje, poderia ser melhor.
    Eu vou experimentar mais vêzes para ver no que vai dar.

  18. #38
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    Então Lessa, a minha única implicância com o "lençol digital" é quanto ao que foi divulgado no forum de que há uma necessidade de se ter todo mundo com um sinal no mesmo nível com erro de +/- 3dB. Pra mim isso soa como uma grande piada que vai de encontro com os fundamentos técnicos. E o termo cria a ilusão de que um "lençol protetor" irá salvar sua rede (maldito marketing). De forma que se você concorda com minha afirmação, não há como acreditar em parte no tal "lençol digital" por que minha afirmação é contrária ao tal "lençol". Você mesmo explicou qual era o problema: o Pigtail e alinhamento. E não teve relação com estar ou não no mesmo nível dos outros com +/- 3 dB de erro. Outra coisa que é importante observar é que no caso do wi-fi (CSMA/CA) nunca os pacotes são recebidos simultaneamente, e sim, cada membro transmite no seu tempo, só que isso muito rapidamente. Outra: o sinal não "caiu" para -38, e sim, subiu.

    Sds,



    Citação Postado originalmente por lessa Ver Post
    Eu concordo plenamente com motacosta "A filosofia de acesso do wi-fi (CSMA/CA) é egoísta no sentido de que se um usuário tá com sinal ruim o problema é dele, não dos demais".

    Vejo isso na prática, pois tenho diversos POPs em cidades diferentes.
    Um dos POPs fica numa torre muito alta. Lá é impossível fechar um enlace com sinal abaixo dos -50. Geralmente os enlaces estão entre -50 a -70 dessa torre.
    O que faz sobrecarregar o rádio, é a quantidade de pacotes enviados e recebidos simultaneamente, por isso que quando chega uma determinada quantidade de clientes simultâneos, o sinal do mais fraco poderá "sobrar", desconectando e re-conectando e até mesmo exibindo a mensagem "data from unknow device MAC, sent deauth".

    Em outro POP, longe de poluição e com menos enlaces, acontece um fator curioso. Os enlaces fecham com sinal muito forte (entre -35 a -48). Certa vez, um dos técnicos fechou um enlace em -60 desse POP, o que seria normal para o outro. Mas, como os outros enlaces estavam todos com sinal forte e esse (pode-se dizer um pouco fraco), simplesmente acontecia constantemente de desconectar, re-conectar e aparecer a mensagem "data from unknow device MAC, sent deauth". Só foi solucionado realinhando e trocando o pigtail, pois o sinal caiu para a casa dos -38.

    O que me faz pensar, é que o tal "lençol magnetico" tem certo fundamento, mas respeitando a sensibilidade do cartão/rádio para a taxa de transmissão desejada.
    Última edição por motacosta; 01-10-2009 às 16:24.



  19. #39

    Padrão

    Agora sim, entendi e concordo plenamente com o Mota,

    Realmente é uma utopia ter todo munto com sinal nun determinado nivel. Mas é preciso estabelecer um nivel minimo e maximo.

    Quanto ao protocolo csma/ca o problema que vejo quando a diferença de sinal é grande, e a questão do chaveamento entre as modulações e velocidades, creio que isso possa aumentar o processamento do radio e conseguentemente a latencia da rede.

    Por isso a importancia de se setar a velocidade ou velocidades em que a rede vai trabalhar, pois a troca constante de modulação a meu ver é prejudicial.

    Desculpem se estiver falando bobagem, me baseei em diversas leituras e discussões que vi pela web. Portanto bastante empirica.

    Mota você que possui o conhecimento cientifico, compartilha desse entendimento?

    Abraço

  20. #40
    engenheiro eletricista
    Ingresso
    Nov 2006
    Localização
    Rio de Janeiro
    Posts
    182
    Posts de Blog
    1

    Padrão

    Ae Roger... estamos falando a mesma língua agora. O grande problema de se entender o que acontece com redes wireless é que temos muitas "variáveis variando" e todas elas interferem no rendimento.

    Concordo plenamente com o que você falou sobre o chaveamento das modulações (Acontece no modo B+G).

    Você tocou num ponto chave que é quando temos sistemas operando em B+G. O modo G opera com OFDM que uma modulação muito boa, porém exige sinais fortes e livres de interferências (ela é uma modulação mais "cheia de frescura", digamos assim). E ae no meio de vários clientes operando em G (com sinal forte e limpo), se você tiver um "patinho feio" com sinal fraco, o rádio sempre que for falar com ele vai trocar a modulação para o modo B que usa a modulação CCK ( que não tem tanta frescura quanto o OFDM). E ae contrariando até mesmo o que eu disse antes sobre o "egoísmo wi-fi", o "patinho feio" que tá com sinal fraco pode atrapalhar os outros clientes operando em G por causa dessa troca de modulação que o AP tem que fazer. Mas isso só ocore quando estamos no modo B+G, e esse atraso devido a troca de modulação só atrapalha a partir de um certo número de usuários/tráfego que eu não sei precisar qual seria.

    E isso tudo não tem relação nenhuma com manter os clientes num mesmo nível de sinal com +/- 3dB de erro. "Lençol Digital"? Folclore...

    Sds a todos,



    Citação Postado originalmente por rogeriosims Ver Post
    Agora sim, entendi e concordo plenamente com o Mota,

    Realmente é uma utopia ter todo munto com sinal nun determinado nivel. Mas é preciso estabelecer um nivel minimo e maximo.

    Quanto ao protocolo csma/ca o problema que vejo quando a diferença de sinal é grande, e a questão do chaveamento entre as modulações e velocidades, creio que isso possa aumentar o processamento do radio e conseguentemente a latencia da rede.

    Por isso a importancia de se setar a velocidade ou velocidades em que a rede vai trabalhar, pois a troca constante de modulação a meu ver é prejudicial.

    Desculpem se estiver falando bobagem, me baseei em diversas leituras e discussões que vi pela web. Portanto bastante empirica.

    Mota você que possui o conhecimento cientifico, compartilha desse entendimento?

    Abraço
    Última edição por motacosta; 01-10-2009 às 18:09.