«

»

set 12 2009

Exaflood – Uma teoria ou um mito?

Quem aqui já ouviu falar de Exaflood? Basicamente, Exaflood é uma teoria onde a evolução das aplicações e as larguras de banda que elas exigem (especialmente vídeo online) não acompanha a evolução tecnológica da infra-estrutura de rede. O nome vem de Exabyte, ou seja, uma medida de volume de dados que hoje chega a ser surreal, mas que num futuro próximo – de acordo com as previsões – não será. Estaremos caminhando para um colapso, ou seria tudo um mito? De acordo com estudos publicados pela Cisco, a “fome” por banda é algo palpável e está crescendo abruptamente, ou seja, é um fato. 

A tabela abaixo ilustra a quantidade de bytes que um exabyte contém:

Decimal
Value SI
1000 k kilo
10002 M mega
10003 G giga
10004 T tera
10005 P peta
10006 E exa
10007 Z zetta
10008 Y yotta

Eu já havia publicado um post sobre o assunto faz algum tempo. Vídeo online (i.e. YouTube) tem sido encarado como o grande dos ofensores no que se refere ao consumo de banda na rede. Um exemplo é que, há um ano atrás, o YouTube não suportava a transmissão de vídeos no formado HD. Hoje, já suporta. Por si só, esta nova capacidade já mais do que triplica o tráfego gerado por um único vídeo assistido no site. É realmente para pensarmos.

Será que as redes estarão preparadas para suportar a carga que vamos gerar no futuro? Quais as novas tecnologias que estão sendo desenvolvidas para endereçar este suposto problema? Já vimos, aqui no blog,  que a tecnologia de aceleração WAN – na verdade, otimização WAN – está sendo cada vez mais aplicada e refinada (link1 e link2). Esta seria uma das respostas ao problema. Mas pode não ser suficiente. O que vem por aí em termos de demanda de banda é algo fantástico.

Cabe a vocês – futuros engenheiros de rede – pensar em uma solução para isso 😀 !

O vídeo abaixo foi obtido no YouTube.  Não posso atestar a validade do mesmo, mas vale como curiosidade. Não deixa de ser interessante e, certamente, desperta a curiosidade. Infelizmente, está em Inglês.

Espero que gostem!

Abs,

Marco.

0
0

10 comentários

Pular para o formulário de comentário

  1. wagner

    Nao sei se pode ser algo taaaaoo critico assim, mas sem duvida isso é uma realidade.

    Assim como 1gb de hd no meu primeiro computador era muito, hoje 500gb é bom. E temos também, a linha discada, no inicio era um sonho de muitos, lembro disso no meu ensino fundamental e hoje um link de internet de 2mbps em casa é uma realidade. Creio que tudo seguirá seu fluxo, precisamos de mais link, teremos… Sem dúvida as coisas irão acontecendo naturalmente.

    Mas sem dúvida é algo a se pensar e se impressionar com a velocidade que as coisas acontecem nesse mundo de TI.

    Sensacional e curioso post.

    Abracos!!!

    0

    0
  2. A. Carvalho

    Realmente, o Céu é o limite.

    Tudo hoje que possamos imaginar na área de TI, é questão de pesquisa&desenvolvimento, não duvido mais de nada.

    Claro, com o crescimento de redes pelo mundo, novos serviços, cada vez necessitando de mais e mais banda, isso é algo que teria de acompanhar, e pelo jeito, está bem a frente.

    Abs!

    0

    0
  3. Alexandre Avelar

    Acho que não haverá este tipo de problema. Hoje, até a Telefônica está testando acessos à internet residencial à 1Mb.

    0

    0
  4. Carlos Almeida

    Ótimo Post!!!

    A discussão em torno das tecnologias utilizadas nas redes de computadores é sempre algo complicado e curioso ao mesmo tempo.

    Acredito que, em termos de evolução, essas tecnologias são as que mais precisam de atenção no momento, visto não somente por causa do tráfego provocado pelos vídeos, mas também pelo surgimento dos serviços e aplicações on-line (por exemplo, os complementos dos navegadores e os arquivos on-line – como google Docs) das quais cada dia é uma realidade presente.

    Como disse o post, cabe a nós encontrar uma solução!!!

    0

    0
  5. Marco Filippetti

    @mafbotelho, certamente isso ajuda na teoria do Exaflood 😉 ! Imaginem 100MB de anexos! A questão é: Nossas redes estão prontas para este volume adicional de tráfego?

    0

    0
  6. Marco Botelho

    Certamente não.

    Em minha opinião, a demanda por tráfego será uma constante. Estão sempre surgindo novas necessidades, um exemplo disto é o link que enviei no último post sobre anexos do Yahoo! Mail a 100 MBytes.

    Com essas mudanças cada vez mais rápidas não seria necessário uma atualização de alguns protocolos existentes também? O SMTP por exemplo.

    0

    0
  7. Brenocrs

    Então Com o Wagner comentou , muitas coisas antigamente eram impossíveis , exemplo de armazenamento , hoje temos pendrives de 64 Gb , enquanto a 3 ou 4 anos atrás um computador que tivesse uma capacidade de armazenamento como essa era considerado um “Bom computador”.
    Marco eu acredito que sim , estamos em teoria “prontos” o problema e desafio maior é a infra básica para tal , hoje a Telefônica esta com alguns projetos em bairros de luxo com link’s de 20 ou 30 mega via fibra , sim literalmente uma FACADA por isso estão com este projeto piloto somente em Vila Olímpia , Paulista , Etc….etc….etc…

    Estamos prontos sim , porem o investimento para tal ainda não é interessante para as mega corporações , por isso somente alguns testes estão sendo realizados.
    Mas creio que caso esta evolução (ou revolução) aconteça, pode ter certeza o “Cloud-Comuting” será mais difundido aos consumidores do que as empresas como é atualmente.

    0

    0
  8. nikolas

    Eu considero que isso só será possível se pararmos de atualizarmos nossas bases de tecnologia.
    Mas também não sei dizer se a tecnologia avança em velocidade suficiente para acompanhar o tráfego gerado pelos usuários.

    Abraços !

    0

    0
  9. mau_4u

    Muito legal este tema. Na verdade acho ótimo que as aplicações estejam demandando mais recursos de rede. A evolução é um processo natural. Assim como ocorreu a evolução do HD, a evolução dos processadores, a evolução das memórias RAM e como também já ocorreu com as redes de telecomunicações (LAN e WAN). Quem não se lembra das redes 10Base2, 10Base5 que utilizavam cabos coaxiais, conectores vampiro? Os mais antigos lembram das redes SNA, X.25, etc, etc. (não é do meu tempo…rs)
    O fato é que as redes LAN já podem atuar totalmente em Giga Bits, sejam em cobre ou em fibra. E as redes WAN já podem operar com equipamentos de alta capacidade (Redes DWDM de até 32 lâmbdas de 64xSTM1 cada um!). E isso aqui falando do Brasil!! Logo vamos falar em 10G.
    O grande problema que temos atualmente é o custo de tudo isso que estoura sempre no lado mais fraco. Conforme informou nosso colega Brenocrs a própria Telefônica já está disponibilizando mais capacidade de rede por uma facada. Hoje o custo de um link MPLS de 512Kb/s em alguns locais do Brasil (AM, PE, etc) chega a custar R$3k/mês.
    Outro grande problema é que as operadoras não estão mais dispostas a investimentos em infra-estrutura. Todo investimento neste campo foi realizado nos anos de 1997 à 2001 quando houve o estouro da conhecida “bolha da internet”.
    É possível que dentro de alguns anos, devido a grandes melhorias nas aplicações (exemplo: cloud computing, vídeos, etc.), a demanda por banda seja tanta que tenhamos que voltar a investir em infra-estrutura mesmo que as empresas paguem caro por isto. O lado bom desta história é que quando isto ocorrer, haverá mais emprego para nós, especialistas em rede. Assim, para concluir, espero realmente que logo tenhamos mais demandas por banda e mais empregos (…e claro, remunerações melhores!), pois tecnologia vamos ter.

    Abraços, parabéns ao grupo e ao fórum!

    0

    0

Deixe uma resposta