Ver Feed RSS

Tecnologia de Redes, Mobilidade e Inovação

Quem precisa de 400Gbps Ethernet?

Avalie este Post de Blog
O Facebook, Youtube, Yahoo e Twitter precisam... e com urgência. Dia 15/09 um dos engenheiros de rede do Facebook (Donn Lee) deu uma palestra no seminário The Ethernet Alliance sobre esse tema, pedindo que se comece com urgência os trabalhos para o 400GbE (Ethernet de 400Gbps).

Esse seminário discutia o futuro do Ethernet além do IEEE P802.3ba (para quem não sabe, esse é o padrão para Ethernet 40Gbps e 100Gbps). Isso mesmo, eles estavam discutindo como ir **além** dos 100GB, pois já há indícios que, apesar de estarem mal começando, os switchs 100GbE já não vão dar conta do recado em algumas situações.

Nesse seminário Donn Lee explicou que até o final do ano (ou seja, daqui a poucos meses) o Facebook vai ter que crescer ao ponto de necessitar de switchs com quantidades absurdas de portas. O site de relacionamentos vai necessitar de um backbone de 64Tbps. Lembrando que não é um backbone qualquer, tem que ser um backbone com redundância, o que significa switchs redundantes interligados em muitos cabos.

Para atender à demanda, o Facebook necessitaria de switchs de chassis com 800 portas 10GbE (hoje os maiores mal chegam a 200 portas) ou 80 portas 100GbE (que não existem ainda).

E não é apenas uma questão de criar cloud-computing e distribuir vários data-centers pelo mundo. Você necessita sincronizar esse enorme quantidade de informações que é atualizada diariamente pelos usuários. Quem já trabalhou com replicação de banco de dados e redundância de serviços em rede sabe que essa é uma luta ingrata. E os usuários não vão aceitar editar o perfil em um dia e saber que o resultado só vai estar disponível para todos no dia seguinte.

Assim, é bem provável que nos próximos meses comecemos a ter problemas de sobrecargar em alguns serviços da Internet (principalmente os mais acessados) devido a pura e simples falta de capacidade de expansão dos switchs de data center.

Vai um switch 400GbE ai?? Qualquer USD 100.000,00 por porta tá valendo.

Atualizado 17-09-2009 em 12:05 por mlrodrig

Categorias
Não Categorizado

Comentários

Página 1 de 4 1234 ÚltimoÚltimo
  1. Avatar de sergio
    Acho que encomendarei uns cinco desses para minha rede.... hehehehehe

    Quero ver até quando o pessoal vai aguentar "bancar" esses serviços de nuvem, sem cobrar do usuário.
  2. Avatar de Não Registrado
    E vocês acham que só o Facebook lida com esse tipo de problema?

    Acho que estão fazendo tempestade num copo d'água. Eles querem resolver o problema da forma mais fácil, bruta. Problemas difíceis exigem soluções criativas não apenas poder de hardware.

    O Google lida com isso todos os dias e resolve problemas da mesma magnitude toda semana. E nem por isso está pedindo processadores Intel de 200 Ghz ou redes de 400 Gbps.
  3. Avatar de mlrodrig
    Citação Postado originalmente por Não Registrado
    E vocês acham que só o Facebook lida com esse tipo de problema?

    Acho que estão fazendo tempestade num copo d'água. Eles querem resolver o problema da forma mais fácil, bruta. Problemas difíceis exigem soluções criativas não apenas poder de hardware.

    O Google lida com isso todos os dias e resolve problemas da mesma magnitude toda semana. E nem por isso está pedindo processadores Intel de 200 Ghz ou redes de 400 Gbps.
    Em primeiro lugar, temos problemas diferentes. No caso do Google, ele tem tempo para atualizar todas as bases de dados. Se o Google descobre uma nova página (ou uma página é modificada) ele não precisa atualizar todos os datacenter ao mesmo tempo. Ninguém vai reclamar que a página encontrada esta desatualizada 8 horas.

    No caso de sites como o Facebook, se um usuário muda uma informação (ou faz uma melhoria na fazenda, naquele jogo inútil mas popular) ele quer que todos vejam imediatamente. Então o Facebook precisa distribuir todas as atualizações em todos os servidores praticamente ao mesmo tempo. Isso gera uma montanha de tráfego.

    Por outro lado, serviços como Gmail já estão sofrendo desse problema pois precisa manter as mesmas informações atualizadas em todos os servidores. Só para lembrar: o Google também faz parte do grupo que pede o desenvolvimento do 400 GbE.

    Pensando rapidamente, a idéia que primeiro vem realmente é: basta colocar um monte de servidores e pronto. Mas se você parar para pensar, é um problema muito mais complexo, que não tem solução fácil e não basta apenas sair acrescentando servidores.
    Atualizado 17-09-2009 em 18:54 por mlrodrig
  4. Avatar de alexandrecorrea
    google docs ? google earth ? google search ? google mail ? google talk ?

    vai giga hem !
  5. Avatar de phess
    <troll>
    A solução é as pessoas "get a life" e pararem de viver na Internet. Aí fica tudo mais rápido pra quem não conseguir "get a life". Como eu.
    </troll>
Página 1 de 4 1234 ÚltimoÚltimo

+ Enviar Comentário



Visite: BR-Linux ·  VivaOLinux ·  Dicas-L