Re: Airgrid m5 - zilhoes de pacotes por segundo PPS - performance - benefício - custo
Citação:
Postado originalmente por
pkmc
Concordo com o amigo
alexandrecorrea A RB independente de qual for só responde pelo processamento secundário, quem é responsável pela quantidade de clientes que um determinado equipamento aguenta conectados simultaneamente são os cartões Mini PCI e nesse quesito ninguém agüenta mais do que os UBIQUITI série XR pois utilizam um projeto bem avançado de aplicação dos ChipSet's Atheros, por mais que os concorrentes usem ATHEROS o projeto a da UBIQUITI é muito superior. Uma dica é mante-los refrigerados ou colocar dissipador de calor estriado em cima dos ChipSet's. E Essa história de pegar qualquer equipamento ChingLing (genérico Chinês) e querer apresentar ele como uma revolução de mercado, só por que tem um processador um pouco mais veloz, não cola mais não !
Bom Dia Pessoal,
O que precisamos entender é a evolução tecnológica do sistema de roteamento, o que vocês estão se esquecendo completamente.
Temos que entender duas coisas praticamente:
1) Recursos processados via software
2) Recursos executados via hardware
Para quem nasceu na geração informática, a palavra chave é MMX, quem se lembra disso? Então, para explicar rapidamente MMX, foi a tecnologia de processos executados por software migrados para um CHIPSET específico para desempenhar essa função.
Então, transferindo hoje isso para o nosso mundo de tele-informática, temos a aplicação de inúmeros processadores voltados para o segmento de roteamento, porém, todos tem vantagens e desvantagens em relação aos outros.
Os processadores Infineon ADM5120 usados antigamente nas RB133 eram excelentes porém, não tinham execução alguma a nível de hardware para funções de rede, o que, praticamente minava todos os recursos de hardware rapidamente.
Quando então a mikrotik introduziu as RB5xx e seguidas pelas RB6xx, o que vimos foi a evolução do software para o hardware onde o processador RISC/MIPS executava apenas funções básicas de rede como criptografia interna e leitura de pacote, o que resolveu parcialmente o problema.
Agora quando chegaram as placas manufaturadas com o chipset Atheros AR71xx a coisa começou a melhoras, pois, algumas outras funções de hardware tomaram a vez do software, porém, ainda não foi a solução, uma vez que esse hardware foi feito para uso doméstico e não industrial (Telecom), então, ainda que melhorado a performance morre no processador ainda que com 800mhz e na memória 256mb. http://www.atheros.com/pt/bulletins/AR7100Bulletin.pdf
Mesmo nas RB1000/1100/800 com processadores da Freescale o problema se da na não disponibilidade de NPE que são os Network Processor Engines, que volta ao problema de ter que rodar tudo no ambiente software.
Quando vamos para a YANOMAMI, o processador constitui se de um hardware nativo para TELECOM, ou seja, foi desenvolvido todo no conceito de network, para dar o melhor resultado tanto para a camada de hardware quanto ao processamento de software. IXP = Internet Exchange Processor.
Olhem a página 32 = http://download.intel.com/design/net...des/316848.pdf
Intel
página 11 = http://download.intel.com/design/net...hts/316842.pdf
Aqui são apresentadas as funções nativas de hardware, veja NPE:
• Two network processor engines (NPE A and NPE C)
Used to off load typical Layer-2 networking functions such as:
— Ethernet filtering
— ATM SARing
— HDLC
— Security acceleration (AES/DES/3DES/SHA/MD-5)
Ou seja, enquanto as placas convencionais precisam rotear os pacotes por software isso é feito por hardware, usando as NPEs em conjunção com as placas de rede, como existe o timelapse de um acesso a outro, dois processadores de rede dão conta de até 6 dispositivos de rede simultâneo, de forma a gerir alto trafego.
Outra coisa importante é atentar ao volume de HDLC nos links (HDLC - Wikipédia, a enciclopédia livre) mesmo não usando esse protocolo nos P2P quando existem regras de nat/firewall rodando, vão usar o mesmo recurso de alocação na NPE, fazendo com que não se use memória ou clock do processador.
Na pagina 14 = http://download.intel.com/design/net...hts/316842.pdf vocês podem verificar a execução nativa de rede quando os NPEs estão sendo executadas, passando direto do PCI/BUS para o NPE e vice versa, sem usar clock.
Seguindo para a Página 19 - "The NPE core is a hardware-multi-threaded processor engine that is used to accelerate functions that are difficult to achieve high performance in a standard RISC processor. Each NPE core is a 133.32-MHz (or 4*OSC_IN input pin) processor core that has self-contained instruction memory and self-contained data memory that operate in parallel. Each NPE core has 4 K x 29bit of instruction memory and 4 K words of data memory." Resumo - 133 MHz em cada NPE com multiprocessamento substituindo as funções nativas de REDE do processador central. Basta ler esta pagina e entender aonde a Yanomami ganha das outras placas.
O que desejo apresentar a vocês é a realidade por traz dos bastidores, onde, o hardware NECESSITA ganhar do software ou será impossível alcançar os resultados.
Ao pesquisar o mercado brasileiro, na sua forma de uso, com reduções de estações radio bases e de recursos de implementações de inúmeras antenas com transmissores, iniciamos o projeto Yanomami voltado para alta densidade e concentração.
A Yanomami consegue tranquilamente rodar 480 clientes simultaneamente, sendo divididos em 4 interfaces minipci, sim, 120 por cada cartão.
O que não levaram em conta é o potencial aplicado, porque olharam apenas em modo ABG, e esqueceram-se do modo N, onde, é possível digerir tranquilamente 100mbps por interface em modo 1t1r draft.
Problema dos provedores
Desde o inicio da era moderna de Wifi todos os provedores por, não existir performance e estabilidade em OFDM para links PtMP, ou seja em modo G, usaram apenas modo B, limitando suas torres para 11Mbps (fora perda de cabeçalho teremos 9Mbps). Isso resultou no desastre de falta de banda real por cliente, porém, ao mesmo tempo, pelo link ser caríssimo, resultou em excelente custo x beneficio inicial. Tendo isso como base, teremos entao, se colocarmos 120 clientes em 9Mbps teremos 7kbps para cada cliente, ou seja, uma conexão discada. Passando isso para modo G - 54Mbps menos perdas e cabeçalhos, teremos 44Mbps, ou seja 36kbps para cada cliente, algo melhor, entretanto, o que esquecemos é o Timelapse no qual estão em uso simultâneo, se cadastrados 120 clientes em 1 minipci, e em uso simultâneo 80, os 44 mbps já são 55kpbs para cada, se falarmos em timelapse no uso da conexão, em 2/3, teremos então um aumento de 40% real de banda para cada usuário, 77kbps, o que ira funcionar dentro da expectativa de cada provedor.
Em, 2.4G
Se olharmos a melhor performance do mercado nos cartões xr2 / sr2 / 8603, seu hardware possui filtragem de ruído, com excelente RX e ótimo TX, se falarmos em cobertura de 5km por estação, teremos uma potencia baixa e alta sensibilidade.
O que precisamos é de CPEs / Kit Clientes que trabalhem EXCELENTEMENTE bem em modo G com melhor sinal x ruído, trabalhando em menor potencia, recomendo fazerem um teste real da CPE SOFT Krazer 400mW real em modo G, na qual bate fácil o uso das nanostation2 no cliente, apresentando redução de custo, e excelente performance.
Voltando ao problema apresentado no quesito 480 clientes, ainda resta uma duvida, como alimentar então 176Mbps para os cartões, via 2 portas Fast Ethernet 10/100, pronto, lembram-se ainda que o NPE é usado em todas as interfaces de REDE?
Outro ponto a considerar são as duas portas USB 2.0 com 480 Mbps cada, basta então, usar um conversor nativo USB 2.0 OTG Gigabit e pronto, terá uma entrada Gigabit em sua placa, os mesmos estão custando cerca de 45 dólares no mercado.
Desta forma, a Yanomami consegue sobressair sobre as outras placas pelo seu melhor hardware, solidificando assim, mais uma vez, o nome Intel no mercado.
Abraços a todos,
Erick MacDonald Filzek
[email protected]