«

»

fev 03 2009

Gigabit Ethernet é rápido. 10 Giga Ethernet é muito rápido. 1 Tera Ethernet é… espere aí: o que? 1 TERA?!?!?

Isso mesmo! Enquanto Gigabit Ethernet ainda está longe de ser o padrão para LANs convencionais, um novo chip desenvolvido por pesquisadores Australianos e Dinamarqueses consegue interpretar eficientemente transmissões ópticas à velocidades de 640 Gbps, o que pode ser o ponta pé inicial para o desenvolvimento do “padrão” Terabit Ethernet.

Comecem a praticar desde já, portanto, o comando “T0/0” 😀 ! Do modo como as pesquisas vêm avançando, a tecnologia deve estar madura e pronta para o mercado em breve.

O grande salto em velocidade deu-se não na ponta geradora, mas na receptora. Isso significa que os lasers utilizados para a transmissão não foram modificados ou amplificados para gerar o aumento de velocidade, mas os leitores na ponta receptora tiveram que ser trabalhados para conseguir interpretar a elevada taxa de transmissão. Apesar de pouco divulgado, o padrão 100 Giga Ethernet, ainda muito recente, já foi oficialmente publicado e alguns fabricantes já trabalham com esta tecnologia. Analistas acreditam que, dentro de 3 anos, 100 Gb Ethernet já será uma tecnologia comum em datacenters e operadoras.

Enquanto isso, no mundo real…

No que se refere às redes locais, ainda estamos caminhando para uma padronização em 1 Gb, mas esta migração tende a ser mais lenta. Isso porque, em muitos casos, o que engargala a taxa de transmissão não é a rede, mas os dispositivos – e aplicações – finais. Estamos falando de… PCs. Muitos ainda não têm capacidade de operar processando informações a elevadas taxas. Para fazer um teste, não é preciso ir muito longe… basta conectar 2 PCs com um cabo crossover e fazer uma transferência simples de arquivos entre eles. Mesmo com placas de rede operando à 100 Mb (atual padrão), você vai reparar que a velocidade de transmissão raramente chegará próxima disso. Fiz o teste transferindo uma imagem ISO de 4.589.824 KB entre dois notebooks Dell relativamente novos, via conexão 100 Mbps cruzada. Resultado: 10 minutos e 50 segundos, ou 650 segundos gastos do início ao fim da transmissão. Dividindo-se 4.589.824 por 650 temos 7061,27 KB/s. Multiplicando-se por 8, temos 56490,1 Kbps, ou ~ 56Mbps. A transferência foi feita usando-se a transferência direta entre pastas Windows mapeadas (shared), e ambas as portas estavam operando em modo full-duplex. Será que se ambos os notebooks tivessem placas de rede operando à 1 Gbps o resultado teria sido diferente? Não creio.

Indo um pouco além, a taxa nominal máxima de transferência alcançada hoje por um HD SATA de última geração é de 2.4 Gbps. O padrão Firewire 3200 (o mais recente e mais rápido) alcança um pico de 3.2 Gbps. Ultra-320 SCSI, um pouco menos: 2.5 Gbps. Fibre-Channel, a sensação do momento: 16 Gbps (sobre fibra óptica). O que quero mostrar aqui é que estamos alcançando velocidades de transmissão em rede na casa do Terabit por segundo, enquanto os padrões utilizados para armazenagem não chegam à uma fração disso. Resultado: Outro gargalo!

Para encerrar, creio que com base no simples teste realizado e nos dados apresentados acima, seria lógico inferir que, com redes operando a taxas na casa dos 1.000.000 de Kilobits por segundo, muito provavelmente alguns protocolos de rede teriam de ser revistos, se não totalmente recriados.

De qualquer forma, para se pensar, não acham?

Um abraço!

Marco.



Comente usando o Facebook!
0
0

24 comentários

Pular para o formulário de comentário

  1. Cassio Gomes

    Já existem alguns testes com a porta 100Gbps…Grandes routers hoje suportam apenas 40Gbps por slot, e a previsão (2009) são 80Gbps por slot e em seguida uma unica interface de 100Gbps…demais ne!

    0

    0
  2. Carlos Almeida

    Ótimo Post Marco!!!

    Realmente, sempre existe o gargalo que impede uma boa taxa de transferência entre os dispositivos. Quando uma das tecnologias avança, deixa outras para trás.

    Bom saber sobre o avanço da Ethernet. Caramba, 640 Gbps!! Acredito também que nenhum protocolo atual suporta isso.

    Agora estou imaginando essa taxa toda aqui em casa (hehehehe)!

    Abraço!

    0

    0
  3. Benjamim Gois

    Certamente, os padrões de rede ethernet de alta velocidade só possuem aplicabilidade prática na camada CORE ou na Data Center CORE, onde routers e/ou switches L3 farão conexões com servidores de alta criticidade com várias máquinas virtualizadas. Acredito que na camada de acesso, ainda veremos o bom e velho FastEthernet por muito tempo, pois de acordo com o próprio Marco, o gargalo das estações torna estas interfaces desnecessárias.

    0

    0
  4. Fernando Avelino

    Muito legal essa novidade, eu havia lido de manhã no UOL.

    Será lançado também o novo padrão USB 3.0 que permitirá velocidades além dos 3Gbps. Com certeza uma afronta ao firewire.

    Fico pensando quando foi anunciado, a tecnologia Fast Ethernet, muitos deviam achar que seria um absurdo para a época, hoje é uma realidade extremamente comum, e fácil de ser superada, ou seja, o céu não é mais o limite rs.

    0

    0
  5. Diogo Santos

    Inclusive pessoal, já houve testes referentes.

    http://info.abril.uol.com.br/aberto/infonews/112008/19112008-58.shl

    Abraços

    0

    0
  6. Marco Filippetti

    Interessante Diogo! Obrigado por compartilhar!

    0

    0
  7. Alexander Willians

    Muito interessante!

    []’s

    0

    0
  8. genildof

    Excelente o artigo.
    Sobre o teste entre PCs, e não me esquecendo do foco do post, não sei se um dos PCs tinha o Windows XP. Caso sim, precisaria desabilitar o agendador de pacotes QoS que é default, e reserva 20% da banda na interface: http://forum.messbrasil.com.br/lofiversion/index.php/t20.html.

    Abs,

    0

    0
  9. Marco Filippetti

    Genildo, excelente ponto. Entretanto, em ambos os PCs estava desabilitado… mas mesmo se não estivesse, ainda assim, a taxa de transmissão deveria ter batido 80 Mbps. Chegou a 56 Mbps.

    Abs e obrigado!

    0

    0
  10. KleberMuniz

    Eu imagino (tento imaginar) a quantidade de energia necessária pra sustentar equipamentos de velocidade dessa.

    0

    0
  11. moraisjunior

    Marco,

    Este limite (56mbps) que vc verificou é uma característica do TCP/IP e do Windows.
    O Throughput máximo, no seu teste 56mbps, é o resultado da divisão da janela de transmissão TCP/IP do Windows pelo Round Trip Time, que é o tempo de trânsito de um frame desde a origem até o destino. É o mesmo RTT que aparece nos testes de Ping por exemplo.
    Acontece que a janela de transmissão máxima do Windows é de 64k (65535 bytes) o que acaba limitando a taxa alcançada no seu teste. Isso é muito projudicial por exemplo em links internacionais onde o RTT é muito alto.
    Para eliminar este limite de 64KB, teríamos de trabalhar com uma extensão do TCP-IP, denominada Window Scaling Factor (multiplica o valor máximo de 64KB por um fator x1, x2, … xN), cuja configuração na plataforma Windows está descrita no link abaixo:

    http://msdn.microsoft.com/en-us/library/ms819738.aspx

    Se você conseguir um tempo (será ??) altere este fator refazendo o teste e nos conte os resultados.

    Um abraço.

    Other Throughput Considerations

    Some key considerations to keep in mind when optimizing TCP throughput with Windows Server 2003 are as follows:

    * The capacity of a pipe is its bandwidth multiplied by round-trip time. This value is known as the bandwidth-delay product. If a link is reliable, for best performance its receive window size should be greater than or equal to the capacity of the pipe so that the sending stack can fill the window. The largest window size that can be specified is 65,535 bytes, because of the receive window’s 16-bit field in the TCP header. However, larger windows can be negotiated by using window scaling as described in TCP Receive Window Size and Window Scaling.
    * Throughput can never exceed window size divided by round-trip time.
    * If a link is unreliable or badly congested and packets are being dropped, using a larger window size does not necessarily improve throughput. Along with scaling windows support, Windows Server 2003 TCP/IP supports selective acknowledgment (SACK) to improve performance in environments that are experiencing packet loss. For more information on SACK, see RFC 2081: RIPng Protocol Applicability Statement.
    * For improved round-trip time (RTT) estimation, Windows Server 2003 TCP/IP also includes support for time stamps. For more information on TCP time stamps, see RFC 1323: TCP Extensions for High Performance.
    * Propagation delay depends on the speed of light, latencies in transmission equipment, and so on.
    * Transmission delay depends on the speed of the media over which the transmission occurs.
    * For a specified path, propagation delay is fixed, but transmission delay depends upon the packet size. This dependence occurs because packets larger than one maximum segment size (MSS) must be broken into multiple frames, and transmission is not considered complete until the last frame is received at its destination.
    * At low speeds, transmission delay is the limiting factor. At high speeds, propagation delay can become the limiting factor.

    0

    0
  12. Marco Filippetti

    rsrsrs que AULA!!! Obrigado Morais! Vou dar uma olhada no link indicado mais adiante e tentar fazer um teste!

    Acessei o link que vc passou e me deparei com algo interessante…:
    O modo como o Windows implementa o TCP não implementa o mecanismo de janelas variáveis, por default (com exceção do Windows Server, pelo que eu entendi). Ao invés disso, trabalha com janelas fixas por default (o que vc menciona) :

    * For a transmission below 1 megabit per second (Mbps), 8 KB.
    * For a 1-100 Mbps transmission, 17 KB.
    * For a transmission greater than 100 Mbps, 64 KB.

    Ou seja, é preciso habilitar a funcionalidade de janelas escaláveis do TCP no Windows. Achei isso um tanto quanto estranho! Não fazia idéia.

    Isso comprova a essência do post: temos limitações nas pontas, que têm que ser transpostas (como na sua sugestão)!

    Agradeço novamente pelas informações!!!

    Um abraço!

    marco.

    0

    0
  13. A. Carvalho

    Muito bacana, porém acredito que da mesma forma que meios físicos são criados, automaticamente, equipamentos e protocolos também serão.

    Essa é uma novidade recente, e com os tpo, todos os fatores envolvidos para que isso venha a ser implantado, caminharam juntos, podendo assim ter equipamentos capazes de suportar tais taxas elevadas, meios que o suportam e protocolos que interpretam esses valores e possam trabalhar junto a ele.

    E por fim, aplicações serão desenvolvidas para tornar tudo isso possível.

    Nada virá da noite para o dia, mas tenho ctza que grandes empresas se empenharam muito para tornar isso possível.

    Abraços!

    0

    0
  14. rpgabriel

    Quanto a velocidade de armazenamento engargalada na armazenagem, creio que a memória RAM deveria dar conta do recado para certas quantias plausíveis (afinal, uma vez na RAM sendo usada como um spooler de dados, a velocidade de transferencia entre dispositivos não creio que deveria ser engargalada na armazenagem).

    Creio que a plataforma PC existente não faz este tipo de função, o que eu acho que ao menos deveria, e isto mostra a necessidade de um novo tipo de tratamento da RAM, da qual poderia solucionar este tipo de problema.

    Não sei se eu estou falando abobrinha, ou se tenho algo errado na minha teoria, mas sinceramente se eu estivesse ainda na faculdade, certamente seria minha tese de fim de curso.

    Por que não pensei nesta coisa naquela época, hein? =)

    Abraços!
    Rony

    0

    0
  15. Cledir Justo

    Nossa realmente esse post foi uma aula hehehehehe.
    Vlw!

    0

    0
  16. Fabio Luiz Pagoti

    esse é mais um daqueles posts que envolvem alguns conceitos considerados como triviais e rendem discussões muito boas.
    Excelente explicação Morais!

    por falar nessas redes super potentes, deem (agora sem acento) uma olhada nisso aqui

    http://kyatera.incubadora.fapesp.br/portal/o-que-e-o-kyatera/view?set_language=pt-br

    é uma rede optica chamada Kyatera e que interliga as principais universidades do estado de SP. Há muitos estudos em cima dessa rede que indicam exatamente o que o Marco falou, reciclagem de protocolos (além de muitas outras coisas).

    abraços

    Fábio Pagoti

    0

    0
  17. gudines

    Muito interessante pessoal, obrigado por compartilhar.

    0

    0
  18. Tiago Frigério

    Nossa meu é mto rapido!!! imagina isso rodando de verdade!!!

    vlw pela informacao

    abracos
    tiago

    0

    0
  19. Rodrigo Ribaz

    Show de bola

    0

    0
  20. Alexandre Canalle

    Poxa, eu li a matéria dos testes de 100 Gigabit Ethernet há poucos meses…
    SINISTRO!

    0

    0
  21. lgchiaretto

    ouch….

    como que é ?

    Terabit ??

    Meu Deus !!!

    Parece que foi esses dias q eu li sobre 10 Gigabit Ethernet :P:P (to ficando velho) !!!!

    0

    0
  22. Rodrigo Falcão

    Será que ainda verei essa tecnoligia em uso nas nossas redes?

    Sinceramente não consigo realizar, 1 terabit….

    Essa galera não perde tempo, o problema é que isso nunca acontece uniformemente, e acho que será sempre assim, uma tecnologia sempre correndo mais que as outras.

    Abs!

    0

    0
  23. diogocampregher

    Enquanto isso na nossa rede local …….

    Vamos tentando migrar para 1GB …hahaahah

    Haja tempo e dedicação para companhar tanta evolução….onde iremos parar com tudo isso !!!!

    0

    0
  24. renato.021

    Eita, ta Demais isso aqui hein!! Até os comentarios são discussões de alto nivel e material digno de nota!
    [ ] ´s

    0

    0

Deixe uma resposta