terça-feira, 23 de janeiro de 2018

Para que serve e quando usar VLANs?

Em uma rede local, a VLAN é algo muito simples: são "ilhas" que o administrador da rede cria, os equipamentos que estão conectados em uma VLAN não conseguem falar diretamente com equipamentos que estejam em outra VLAN. O administrador pode criar quantas VLANs ele quiser (na verdade, pode criar aproximativamente umas 4.000 VLANs, que é o limite dos switches).

No entanto as VLANs criam uma dificuldade: como conectar cada VLAN aos servidores e a Internet? Se elas não se falam, como vão compartilhar impressoras, servidor de email, etc? Na verdade a maneira mais simples de um administrador configurar uma rede é deixar todos os equipamentos em uma mesma VLAN, onde todos os recursos são compartilhados.

Então para que criar VLANs? Antigamente o brodcast (quando um equipamento envia um pacote para todos os outros equipamentos da rede) era um problema, e a VLANs ajudavam a limitar já que o broadcast de um equipamento só atinge quem estiver na mesma VLAN. No entanto hoje em dia as portas e switches já tem capacidade muito maior do que o tráfego de broadcast, mesmo em redes muito grandes. Então o bloqueio de broadcast já não é um fator hoje importante para justificar o trabalho e os problemas de se criar VLANs.

Segurança

Hoje em dia uma das principais razões para se implementar VLANs é segurança. Um equipamento (seja notebook, desktop, smartphone, etc) que esteja contaminado por um vírus normalmente só consegue atacar diretamente outros equipamentos que estejam dentro da mesma VLAN.

Além disso se houver um usuário mal intencionado dentro da empresa, ele vai estar limitado a atacar diretamente apenas os equipamentos que estejam na mesma VLAN.

Obviamente que sempre existem exceções, mas em regra geral estar em VLAN separada significa estar mais protegido.

Assim a VLAN da diretoria, estando separada da VLAN de vendas, vai estar mais protegida. Além disso para se interconectar VLANs se usa switches L3 ou mesmo firewalls, que podem fazer o controle de pacote e garantir a comunicação segura entre VLANs. Dentro de uma mesma VLAN existe poucos recursos de segurança que um switch possa fazer.

Priorização

Colocar equipamentos em VLANs diferente **NÃO** quer dizer isolar os congestionamentos. É importante entender isso muito bem!

Imagine que temos 2 switches (switch A e switch B) ligados por uma conexão gigabit. Podemos, por exemplo, criar duas VLANs nesses dois switches, uma de desktops e outra de telefonia IP. Se a VLAN de desktop gerar muito tráfego ela vai congestionar a interconexão gigabit e a telefonia IP vai apresentar problemas. Isso porque essas duas VLANs estão usando a mesma ponte e, se o administrador não fizer nada, não vai haver nenhuma priorização e assim o congestionamento de dados vai atrapalhar a telefonia IP.

Isso não quer dizer que as VLANs não ajudem. O administrador pode habilitar o recurso de priorização do switch (hoje em dia a maioria dos switches possui algum tipo de prioriação, algum QoS) e a maneira mais fácil de fazer essa configuração é por VLAN. O administrador indica para o switch que na conexão gigabit entre os switches o tráfego da VLAN de telefonia deve ser priorizado. Simples assim.

Dessa forma, o uso de VLAN não gera automaticamente priorização em interconexões congestionados, mas simplifica bastante.

Resumo

A desculpa de que o uso de VLANs permite uma maior eficiência na rede por isolar o tráfego de broadcast já não vale a muitas décadas. Se fosse apenas por isso, uma rede poderia operar tranquila com milhares de equipamentos na mesma VLAN e o impacto do broadcast seria mínimo.

Hoje em dia VLAN serve principalmente como mecanismo de segurança e facilidade de configuração de regras de priorização na rede.

quinta-feira, 4 de janeiro de 2018

O que são as vulnerabilidades Meltdown e Spectre?

Existem dois ataques (chamados de Meltdown e Spectre) causados por bug que atinge em todos os computadores, smartphones e celulares do planeta. Baseado na forma como a imprensa está descrevendo, parece que é o fim do mundo digital: uma vulnerabilidade que permite com que qualquer hacker acesse senhas, dados confidenciais e informações criptografadas. E o pior, não existe solução imediata!

Vamos colocar um pouco de racionalidade nessa discussão: não existe nenhum ataque ainda detectado que use essa vulnerabilidade e, entendendo como ela funciona, fica fácil de perceber que ela provavelmente não vai causar problemas reais para ninguém.

Entendendo a vulnerabilidade

Primeiro, precisamos entender a raiz do problema. Um dos maiores gargalos dos processadores é descobrir o que fazer. Os comandos precisam vir da memória, é essa comunicação (processador-memória) é uma avenida super congestionada. Se a instrução não chega, o processador fica sem fazer nada.

Então nas horas vagas, quando o processador está esperando chegar as próximas instruções, ele tenta adivinhar qual a próxima instrução. É como um restaurante de fast-food na hora do almoço: mesmo se não tiver nenhum pedido, a regra é colocar hambúrgueres na chapa, porque daqui a pouco com certeza vão ser necessários.

O problema é que esse processo de adivinhação não é controlado por nenhum mecanismo de segurança (deveria ser, mas não é).

Imagina o seguinte: e se o processador decidir, incorretamente, que a próxima tarefa é ler uma área de memória que tenha uma senha importante? Então se eu sou um harcker que sei como funciona esse mecanismo de "premonição", talvez consiga convencer o processador a executar essas instruções e trazer para meu programa, mesmo que eu não tenha privilégio. O sistema operacional nunca deixaria eu acessar essa informação, o resto do processador normalmente não deixaria também, mas essa "maracutaia" que inventaram para acelerar performance, não se preocupa com isso.

Então - em teoria - é possível convencer o processador de que ele deve dar ao programa do hacker um pedaço de informação que, de outra forma, não teria acesso.

Isso significa que qualquer programa ou app, por mais simples que seja, pode ser escrito de maneira maliciosa para acessar informações que, de outra forma, estariam protegidas.

Entendendo porque ela não é tão perigosa

Ok, lendo até agora dá impressão que estamos perto do fim do mundo digital. Mas não é bem assim.

Em primeiro lugar, não existe nenhum lugar na memória do computador marcado "SENHA IMPORTANTE" ou "INFORMAÇÃO CONFIDENCIAL". Memória é memória, e pode guardar qualquer coisa: uma imagem, uma instrução de um jogo online, uma página web, etc, etc, etc. São gigabytes e mais gigabytes, sendo que apenas um pequena parte **pode** ter conter algo confidencial.

Assim um atacante atrás de uma informação confidencial teria primeiro que saber se essa informação está na memória, depois tentar saber onde ela está, depois tentar convencer o processador a trazer essa informação para ele, iludindo o esse processador com uma série de instruções que convença ele a prever que as próximas são aquelas que tragam essa informação. UFA! Duvido que James Bond consiga...

Em resumo, é algo possível, porém muito, muito, muito, muito improvável de ser feito. Se eu fosse um grande banco fazendo transações de bilhões de dólares ou uma agência de segurança governamental (CIA, FBI, FSS, MI6, FIS, etc) eu poderia me preocupar porque apesar de ser pouquíssimo provável, não é impossível. Mas eu, sendo um humano normal, dificilmente vou ser afetado. É muito mais provável eu morrer atropelado em uma sexta-feira 13, dia de lua cheia, por uma Ferrari, dirigida por um piloto de Formula 1 que se distraiu ao ver um avião caindo por ter sido atingido por um asteroide. 

Entendendo porque ela é difícil de corrigir

É um bug no processador. Praticamente hoje todos os processadores, sejam em servidores, notebooks, desktops, smartphones, tablets e até mesmo smartwatches e televisores tem esse recurso de tentar prever instruções e assim tem potencialmente essa vulnerabilidade.

Existe uma grande discussão entre quais fabricantes de processadores são afetáveis ou não: Intel, AMD, ARM, etc. A AMD dizendo que a arquitetura dela garante que não existe muito risco (mas não diz que o risco é zero), a Intel alega que o problema é igual para todo mundo. Todo mundo tentando não ficar feio na foto!

Mas é um problema de HW, nunca será resolvido via atualização de firmware. Na verdade, é um problema no projeto do processador, então enquanto não sairem novos modelos de processadores, esse problema provavelmente vai continuar. Não é fácil mudar um processador, porque criar uma máquina que fabrica um processador é algo demorado, e qualquer mudança no processador significa mudar totalmente essa máquina, físicamente.

Os fabricantes de sistema operacionais estão trabalhando para criar mecanismos de proteção, porém isso terá um forte impacto na performance dos equipamentos (servidores, smartphones, etc)

Então, porque tanto escândalo por causa dessas vulnerabilidades?

Provavelmente é uma mistura: um pouco de desenformação e um pouco porque repórter gosta de fazer escândalo. Quanto mais melodramático o título da matéria, mas visualizações...




quinta-feira, 7 de dezembro de 2017

Afinal, o que é DHCP?

Todo equipamento em uma rede precisar receber um endereço IP, do tipo 192.168.0.53 ou 200.10.43.89. Tanto faz se é uma rede interna ou uma rede com acesso Internet, todos equipamentos precisam de um endereço. Além disso esse endereço tem que ser único (não pode haver dois iguais na mesma rede) e o endereço deve ser compatível com a rede, ou seja, se estou em uma rede onde todas máquinas começam com 192.168.5, não posso usar endereço 200.10.43.89, nem mesmo 192.168.6.2.


Isso também vale para qualquer tipo de acesso: cabeado, Wi-Fi, 3G, 4G, etc. E também vale para qualquer tipo de equipamento que entrar nessas redes: servidor, notebook, roteador, tablet, smartphone, impressora, XBox, Playstation, etc.

Então como um equipamento descobre qual IP ele pode usar em uma rede? A primeira maneira é o usuário configurar esse endereço manualmente e - antigamente - era a maneira mais comum. No entanto a não ser que o usuário tivesse um conhecimento bom de redes, essa estratégia dava muito problema, como você pode imaginar.

Para ajudar, surgiu o DHCP (Dynamic Host Configuration Protoco) que é um protocolo muito simples onde um equipamento novo na rede (ou um equipamento que foi re-iniciado) procura na rede um servidor (o servidor de DHCP) e pega com ele um endereço (e de brinde recebe algumas outras informações importantes, como endereço do roteador, endereço de servidor DNS, etc.).

Assim, quando você configura um computador ou impressora para obter endereço dinamicamente, na verdade você está indicando para ele usar o DHCP para descobrir o endereço dele.

Quem pode ser Servidor de DHCP?

O servidor de DHCP pode ser o roteador (em redes pequenas) ou um servidor de grande porte dedicado (em redes maiores). Eu posso inclusive ter mais de um servidor de DHCP na mesma rede, assim se um falhar o outro toma conta da tarefa.

O grande problema é que qualquer um pode ser servidor DHCP, inclusive um hacker ou um funcionário mal intencionado. Assim o DHCP é também uma fonte de preocupação dentro das redes, porque é muito fácil transformar um notebook em um servidor DHCP.

Problemas de Segurança

Mas qual seria a razão de um hacker querer ajudar uma rede? Se um funcionário criar um servidor de DHCP no desktop dele, que mal ele pode fazer para a rede?

O primeiro problema é que ele pode parar a rede. Imagine que a rede tem endereço 192.168.0 e o servidor de DHCP desse funcionário está entregando endereços da faixa 10.1.1. Qualquer computador, impressora ou equipamento que receber um endereço IP dessa faixa não vai conseguir acessar a rede nem navegar na Internet. Inclusive não é raro usuários fazerem isso mesmo sem querer: um usuário trás de casa um roteador WiFi e espeta na rede para criar uma rede wireless particular (por exemplo, porque ele acha que o WiFi da empresa não é bom). Se o roteador estiver configurado para ser servidor DHCP (por padrão, todos roteadores WiFi saem de fábrica assim), a confusão é garantida. E pode levar dias para o administrador da rede descobrir o que está acontecendo!!!

Mas o principal problema é com gente mal intencionada. Lembra que eu falei acima que o servidor DHCP também fornece o endereço do roteador? Se um funcionário-hacker configura o seu desktop para trabalhar como roteador e como servidor de DHCP, ele pode entregar para a rede não apenas os endereços IP, mas também indicar o roteador é o desktop desse funcionário. Qual o efeito? Todo o tráfego vai passar pelo desktop do hacker! Acesso aos sites, emails, homebanking, etc. Hoje em dia a maioria desse tráfego é criptografado, o que impediria o hacker de ver o conteúdo, mas infelizmente essa proteção não atinge 100% dos programas e aplicações.

Para evitar esse tipo de problema, alguns switches Ethernet podem ser configurados para identificar quando um servidor de DHCP surge "magicamente" na rede, bloqueando automaticamente a porta desse usuário-hacker e avisando imediatamente o administrador da rede. Apesar desse ser hoje um dia um recurso comum até mesmo em switches de baixo custo, poucos administradores de rede habilitam porque não sabem que ele existe e nem estão cientes dos riscos.



sexta-feira, 24 de novembro de 2017

O que é e para que serve a memória Intel Optane.

A memória Optane é um meio termo entre os HDs e a memória RAM. É uma tecnologia nova lançada pela Intel e, infelizmente, ainda com aplicações muito limitadas (tanto pelo custo, como capacidade).

Antes de continuarmos, vamos fazer uma comparação entre HD e memória RAM.

Os HDs são onde guardarmos as informações por longo prazo. Quando desligamos o computador o HD não "esquece", ele guarda as informações indefinidamente (obviamente, até o momento em que ele quebra, mas isso é outra história). No entanto os HDs são lentos, quando comparamos com a memória RAM. Mesmo os HDs do tipo SSD (que são caros) não chegam perto da velocidade da memória.

Por outro lado a memória RAM é o inverso. Ele é muito rápida, porém quando desligamos o computador ela apaga, perde tudo. Por isso é importante salvar sempre os seus documentos, porque eles ficam na memória RAM e apenas quando você salva ele é jogado para o HD.

Repare que é possível sim fazer um computador sem memória RAM, porém ele seria absurdamente lento, porque teria que acessar todas informações direto do HD. Também seria possível criarmos um computador sem HD (na verdade, os primeiros computadores pessoais não tinham HD), porém ele perderia todo o trabalho ao ser desligado.

A memória Optane é o meio termo: ela é quase tão rápida quanto a memória RAM e não esquece o conteúdo quando a energia é desligada. É uma tecnologia nova, inclusive algo que a Intel não dá detalhes sobre o seu funcionamento interno, é ainda um segredo.

Mas qual a aplicação? O ideal seria um dia termos um computador com Terabytes de memória Optane, porque ai não precisaríamos de HDs. Ainda assim seria uma boa ideia manter a memória RAM, porque ela é mais rápida, então daria um certo ganho de performance. No entanto a memória Optane ainda é muito cara, então para que serve a memória Optane hoje?

Hoje a principal (e até onde sei a única) aplicação da memória Optane é servir como um acelerador de HDs. Na forma como ela é usada hoje pela Intel, a memória Optane armazena os arquivos mais usados, como ela é pequena, a quantidade de arquivos guardados nela é pequena. Mas como são os mais usados, toda vez que o computador precisa usar esses arquivos ele vem da Optane, muito mais rápido do que se tivesse que vir do HD. Para quem gosta de termos técnicos, a memória Optane trabalha como cache do HD.

Então quando você instala a memória Optane, a primeira vez que você liga o computador você não vê nenhum ganho de performance (a Optane está vazia), mas nas próximas vezes que você inicializar (boot) a Optane vai automaticamente aprendendo quais são os arquivos mais usados e guardando, assim o computador vai ficando cada vez mais rápido.

A grande vantagem da memória Optane é diminuir o tempo de inicialização do computador. Como ela ainda tem capacidade pequena, ela vai guardar poucos arquivos, que são basicamente os de inicialização. Se o usuário usar o mesmo software muitas vezes, talvez a Optane tenha espaço sobrando para acelerar alguns desses arquivos também, mas vai depender da capacidade da Optane.

Em um sistema que tenha boot via HD SSD, que já é relativamente rápido, a Optane não vai dar um ganho tão grande. Ela vai ser melhor aproveitada em sistemas com HD convencional.

Além disso a memória Optane não funciona em qualquer processador nem com qualquer processador. Consulte o manual da motherboard e do processador do seu computador e procure pela palavra "Optane", se não  encontrar, é porque não é compatível.

Com o tempo a Intel deve lançar novas versões da Optane com cada vez mais capacidade, onde teremos a possibilidade de usa-la para outras aplicações, mas hoje ela é basicamente cache de HD com a função de acelerar o boot.

Para saber mais:
https://www.intel.com.br/content/www/br/pt/architecture-and-technology/optane-memory.html



segunda-feira, 20 de novembro de 2017

Qual a diferença entre SSD, M.2 e NVMe?

Antes de falar de M.2 ou NVMe, precisamos falar da diferença entre conector e protocolo. O RJ-45 é um conector, o Ethernet é um protocolo que usa o RJ-45. Porém é possível usar o Ethernet em outros tipos de conectores, como o M12 (que não tem nada a ver com o M.2) quando precisamos conectar Ethernet em ambientes industriais.

No entanto é muito comum ouvir falar em "conector Ethernet" quando alguém se refere a um conector RJ-45. Não é um termo 100% tecnicamente correto porque - como você viu - o Ethernet pode usar diversos tipos de conectores.

SSD M.2 NVMe de 512GB


Vamos então ao assunto: SSD, M.2 e NVMe.

O SSD é um tipo de armazenamento mais rápido e eficiente que os HDs convencionais. Mais caro, porém muito mais rápido. Ele é tão rápido, que a conexão SATA não é rápida o suficiente para ele. Quando conectamos um SSD através de SATA, estamos aproveitando apenas parte do benefício, porque o SATA passa a ser um gargalho. É como colocar um carro esportivo para correr com pneus de bicicleta.

Com o tempo foram surgindo outros tipos de conexão como SATAe (pouco usado hoje em dia) e NVMe.

Mas também nessa mesma linha de evolução, surgiu a necessidade de conectores menores, para uso em notebooks e ultra-notebooks, então foi necessário uma mudança no tamanho dos HDs e dos conectores.

Uma das melhorias foi o M.2. Ele é um conector, que pode ser usado para rodar SATA (ai, nenhum benefício de performance, apenas redução de tamanho) ou NVMe, que é um protocolo melhor e mais rápido que o SATA.

Então quando se compra um SSD M.2 é necessário verificar se ele é M.2 SATA (apenas menor que um SSD convencional) ou um M.2 NVMe (menor e também com conexão mais rápida que um SSD convencional SATA).

Obviamente você precisa também verificar se a motherboard do seu computador suporta esse conector e protocolo. A motherboard tem conector M.2 SATA? M.2 NVMe? As mais modernas tem conector M.2 que pode trabalhar nos dois protocolos. Você ainda pode comprar um adaptador PCI M.2, caso a sua motherboard não tenha nativamente M.2 (nesse caso, certifique-se que o adaptador é PCI x4 ou superior, senão o conector PCI vai ser o gargalo).

Além disso existe uma outra pegadinha importante: quando se instala um SSD M.2 NVMe é necessário verificar se a BIOS da Motherboard reconheceu. Inclusive, nas motherboards que aceitam M.2 SATA e M.2 NVMe é possível que ela reconheça o SSD NVMe como SATA (e isso funciona, porém em menor peformance). Assim é sempre bom, depois que instalar um SSD NVMe, conferir na BIOS.

Resumo

SSD é um tipo de armazenamento muito rápido. M.2 é um conector que pode ser utilizado com SSD (na verdade, a principal aplicação do M.2 hoje é SSD) e NVMe é um protocolo usado para conectar a CPU com o SSD através de um conector (que pode ser o M.2).


sábado, 11 de novembro de 2017

Porque e quando usar fibra ótica

A fibra ótica possui muitas vantagens em relação ao cabos metálicos, porém também possuem também muitas desvantagens.

Entre as desvantagens da fibra ótica temos o seguinte:

  • dificuldade de instalação, principalmente na fixação dos conectores (a chamada "conectorização"). A tecnologia de conectores de fibra ótica tem evoluído e melhorado, mas ainda assim é bem mais complicada que a conectorização de cabos metálicos
  • menor resistência física. Os cabos de fibra ótica são mais sensíveis e não podem ser curvados ou puxados da mesma forma que cabos metálicos
  • dificuldade de testes. Os equipamentos de teste para fibra ótica são tipicamente mais caros e complexos de usar.
No entanto os cabos de fibra ótica possuem muitas vantagens e, assim, em algumas situações se tornam a melhor (e as vezes a única) opção.

Na fibra a perda do sinal é menor e além disso ela não sofre interferências eletromagnéticas e também não conduz eletricidade. Então em conexões de longa distância e ambientes com fortes interferências eletromagnéticas (industrias, estações de geração de energia, etc) as conexões de fibra ótica são as mais indicadas.

Por ter menos perda e não sofre interferências eletromagnéticas, as fibra óticas possuem um alcance muito maior e uma taxa de transmissão  muito melhor que os cabos metálicos. Além disso os cabos de fibra ótica são mais finos que os metálicos, o que ajuda em ambientes onde o espaço para passagem de cabos seja limitado.

Um outro problema dos cabos metálicos é que eles (obviamente) conduzem eletricidade. Assim em áreas externas, onde existe a possibilidade de queda de raios (descargas eletromagnéticas) o uso de cabos metálicos não é recomendado, porque um raio próximo ao cabo (mesmo que não caia diretamente no fio) pode causar uma indução que causa danos aos equipamentos e até mesmo a pessoas próximas. Não é recomendado usar cabos metálicos em ambientes externos por essa razão.

Vale lembra que existem cabos de fibra ótica reforçados com fios metálicos, para aumentar a resistência. Esse tipo de cabo pode conduzir eletricidade e assim não são imunes aos problemas de descarga. Esse cabo interno não causa problemas de interferência nem atrapalha a transmissão do sinal na fibra ótica, porém pode causar problemas no caso de queda de raios se for usado em ambiente externo. Sendo assim, quando é necessário também evitar problema de descarga elétricas, é necessário se certificar que o cabo de fibra ótica seja do tipo "dielétrico", que significa que nenhuma parte do cabo conduz eletricidade.

Um problema final, da fibra ótica: alguns tipos de fibra ótica são inflamáveis. Um grande inimigo da fibra ótica é a umidade e para evitar que a fibra entre em contato com a água alguns cabos são recheados com um gel - normalmente a base de petróleo - e por isso são inflamáveis. Existem regulamentações e regras limitando o uso desse tipo de cabo, pois o seu uso em áreas internas (como edifícios ou residencias) pode ser um risco grave à segurança.

Resumo: para ambientes externos, grandes distâncias ou altas taxas de transferências, as fibras óticas são imbatíveis. Porém são mais caras de instalar e é necessário tomar um cuidado especial com o tipo de fibra usado em cada aplicação.

Estou esquecendo alguma vantagem ou desvantagem da fibra ótica? Se você lembrar de alguma deixe sua mensagem nos comentários abaixo.

segunda-feira, 6 de novembro de 2017

Porque o cabo Ethernet tem limite de 100m

O cabo Ethernet cat. 5, cat. 6 ou cat. 7 tem um limite de 100m, independentemente da velocidade, seja 100Mbps ou 10Gbps. Intuitivamente sabemos que uma conexão de 100Mbps deve ter uma alcance maior do que uma de 10Gbps, então de onde vem esse limite?

Origens

Primeiro, um pouco de história. Pouca gente sabe, mas a muitas décadas atrás, quando o Ethernet nasceu, não era cabo par trançado, se usava um cabo coaxial grosso, da largura de uma mangueira de jardim. Esse cabo () era um "varal" onde todos os equipamentos da rede era conectados e compartilhavam a mesma "rodovia".

Transceiver 10Base5

Nessa época havia o problema de que as vezes dois equipamentos tentam transmitir ao mesmo tempo, como era o mesmo cabo, um sinal se misturava com o outro. Além disso por ser um "varal", o sinal de uma ponta tinha atravessar até a outra, quando mais longo o cabo, maior seria essa atenuação (sinal fraco). Então, para controlar esses problemas o tamanho máximo desse "varal" foi limitado em 500m. Se chamava Ethernet 10Base5 porque tinha velocidade de 10Mbps e chegava a 500m.

Conexão "T" 10Base2

Como o cabo coaxial era grosso, era difícil de ser instalado além de exigir um adaptador especial, caro, para cada conexão. Então criaram o Ethernet em coaxial fino (muito parecido com o coaxial da TV a cabo de hoje). Nesse momento aproveitaram para fazer algumas otimizações de custo, reduzindo o tamanho máximo do cabo (cabo mais curto, significava menor potência nas placas Ethernet, que permitiu custos menores nos componentes). Assim nasceu o 10Base2, com 10Mbps e alcance de 200m.

Hubs e Switches

Chegou então um momento onde alguém teve uma ideia brilhante: criar um equipamento central, que pudesse receber as conexões e facilitar ainda mais as instalações. Ao invés de um "varal" o equipamento central seria um "polvo", saindo diversos cabos. O sinal que chegava em um cabo era automaticamente amplificado e re-transmitido para todos os demais.

Neste caso cada braço do "polvo" teria que estar limitado a 100m: os sinais percorrem uma perna de no máximo 100m para chegar no hub e percorre as outras, de no máximo 100m, mantendo o total de 200m.

Ai você pode se perguntar: se o hub amplifica o sinal, porque limitar a 200m no total? A questão não é apenas potência e perda. Lembra que temos o problema da colisão e o 10Base2 foi criado para tratar o problema de colisão  em distâncias de 200m. Quanto mais longo o cabo, mais tempo demora para o sinal elétrica ir de um ponto para outro. A eletricidade tráfego a 270Km/s no cabo, é muito rápido mas não é instantâneo. Assim o protocolo 10Base2 trata bem colisões considerando que o sinal tem que cruzar no máximo 200m, acima disso o protocolo começa a apresentar problemas.

Quando os hubs foram inventados eles precisavam aproveitar a base instalada de placas de redes e as tecnologias existentes. Então eles mantiveram essa limitação.

Switches, 100Mbps e Além

Com a criação dos switches e do Ethernet full-duplex acabamos com o problema da colisão, porém a cada etapa de evolução a tecnologia precisava manter compatibilidade com a anterior. Quando surgiram os switches 10Mbps full-duplex, ainda haviam muitos equipamentos 10Mbps half-duplex (que tinham problemas de colisão). Quando surgiu o 100BaseT (100Mbps) ainda haviam muitos equipamentos 10Mbps full-duplex (e alguns 10Mbps half-duplex).

Quando surgiu o 1000BaseT (1Gpbs), ainda havia muitos 100Mbps. Então a primeira consideração do 1000BaseT era que ele funcionasse no cabeamento de 100m. Enquanto a tecnologia não evoluiu o suficiente, o gigabit não se popularizou. Apenas quando foi possível trafegar gigabit nos cabos com 100m é que o conceito se tornou popular. Hoje em dia já existe tecnologia para trafegar gigabit em cabos maiores que 100m, mas nenhum fabricante nem o IEEE (que padroniza o Ethernet) está interessado em pensar em mudar.

E as Conexões de Fibra Ótica

É muito comum usarmos fibra ótica em distâncias maiores que 100m. Na verdade, essa é a principal aplicação da fibra, ultrapassar o limite dos 100m do UTP. Então como isso é possível, já que temos o problema das colisões? Na verdade não temos mais, lembre: o full-duplex não tem colisão.

Nos casos raros onde eventualmente um switch tenha algum equipamento muito antigo conectado (por exemplo uma controladora industrial  10BaseT half-duplex) faz ele o papel de controlar as colisões.

Resumo

Hoje em dia temos tecnologia que permitiria conexões de 100Mbps e até 1Gbps em distâncias muito maiores que 100m em UTP, porém não existe nenhum incentivo para os fabricantes e IEEE em mudar essas características.

Dessa forma, hoje estamos com essa restrição por razões históricas, e muito provavelmente vamos manter essa restrição por muito tempo.

Ajude a divulgar este artigo você também

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.