sábado, 11 de novembro de 2017

Porque e quando usar fibra ótica

A fibra ótica possui muitas vantagens em relação ao cabos metálicos, porém também possuem também muitas desvantagens.

Entre as desvantagens da fibra ótica temos o seguinte:

  • dificuldade de instalação, principalmente na fixação dos conectores (a chamada "conectorização"). A tecnologia de conectores de fibra ótica tem evoluído e melhorado, mas ainda assim é bem mais complicada que a conectorização de cabos metálicos
  • menor resistência física. Os cabos de fibra ótica são mais sensíveis e não podem ser curvados ou puxados da mesma forma que cabos metálicos
  • dificuldade de testes. Os equipamentos de teste para fibra ótica são tipicamente mais caros e complexos de usar.
No entanto os cabos de fibra ótica possuem muitas vantagens e, assim, em algumas situações se tornam a melhor (e as vezes a única) opção.

Na fibra a perda do sinal é menor e além disso ela não sofre interferências eletromagnéticas e também não conduz eletricidade. Então em conexões de longa distância e ambientes com fortes interferências eletromagnéticas (industrias, estações de geração de energia, etc) as conexões de fibra ótica são as mais indicadas.

Por ter menos perda e não sofre interferências eletromagnéticas, as fibra óticas possuem um alcance muito maior e uma taxa de transmissão  muito melhor que os cabos metálicos. Além disso os cabos de fibra ótica são mais finos que os metálicos, o que ajuda em ambientes onde o espaço para passagem de cabos seja limitado.

Um outro problema dos cabos metálicos é que eles (obviamente) conduzem eletricidade. Assim em áreas externas, onde existe a possibilidade de queda de raios (descargas eletromagnéticas) o uso de cabos metálicos não é recomendado, porque um raio próximo ao cabo (mesmo que não caia diretamente no fio) pode causar uma indução que causa danos aos equipamentos e até mesmo a pessoas próximas. Não é recomendado usar cabos metálicos em ambientes externos por essa razão.

Vale lembra que existem cabos de fibra ótica reforçados com fios metálicos, para aumentar a resistência. Esse tipo de cabo pode conduzir eletricidade e assim não são imunes aos problemas de descarga. Esse cabo interno não causa problemas de interferência nem atrapalha a transmissão do sinal na fibra ótica, porém pode causar problemas no caso de queda de raios se for usado em ambiente externo. Sendo assim, quando é necessário também evitar problema de descarga elétricas, é necessário se certificar que o cabo de fibra ótica seja do tipo "dielétrico", que significa que nenhuma parte do cabo conduz eletricidade.

Um problema final, da fibra ótica: alguns tipos de fibra ótica são inflamáveis. Um grande inimigo da fibra ótica é a umidade e para evitar que a fibra entre em contato com a água alguns cabos são recheados com um gel - normalmente a base de petróleo - e por isso são inflamáveis. Existem regulamentações e regras limitando o uso desse tipo de cabo, pois o seu uso em áreas internas (como edifícios ou residencias) pode ser um risco grave à segurança.

Resumo: para ambientes externos, grandes distâncias ou altas taxas de transferências, as fibras óticas são imbatíveis. Porém são mais caras de instalar e é necessário tomar um cuidado especial com o tipo de fibra usado em cada aplicação.

Estou esquecendo alguma vantagem ou desvantagem da fibra ótica? Se você lembrar de alguma deixe sua mensagem nos comentários abaixo.

segunda-feira, 6 de novembro de 2017

Porque o cabo Ethernet tem limite de 100m

O cabo Ethernet cat. 5, cat. 6 ou cat. 7 tem um limite de 100m, independentemente da velocidade, seja 100Mbps ou 10Gbps. Intuitivamente sabemos que uma conexão de 100Mbps deve ter uma alcance maior do que uma de 10Gbps, então de onde vem esse limite?

Origens

Primeiro, um pouco de história. Pouca gente sabe, mas a muitas décadas atrás, quando o Ethernet nasceu, não era cabo par trançado, se usava um cabo coaxial grosso, da largura de uma mangueira de jardim. Esse cabo () era um "varal" onde todos os equipamentos da rede era conectados e compartilhavam a mesma "rodovia".

Transceiver 10Base5

Nessa época havia o problema de que as vezes dois equipamentos tentam transmitir ao mesmo tempo, como era o mesmo cabo, um sinal se misturava com o outro. Além disso por ser um "varal", o sinal de uma ponta tinha atravessar até a outra, quando mais longo o cabo, maior seria essa atenuação (sinal fraco). Então, para controlar esses problemas o tamanho máximo desse "varal" foi limitado em 500m. Se chamava Ethernet 10Base5 porque tinha velocidade de 10Mbps e chegava a 500m.

Conexão "T" 10Base2

Como o cabo coaxial era grosso, era difícil de ser instalado além de exigir um adaptador especial, caro, para cada conexão. Então criaram o Ethernet em coaxial fino (muito parecido com o coaxial da TV a cabo de hoje). Nesse momento aproveitaram para fazer algumas otimizações de custo, reduzindo o tamanho máximo do cabo (cabo mais curto, significava menor potência nas placas Ethernet, que permitiu custos menores nos componentes). Assim nasceu o 10Base2, com 10Mbps e alcance de 200m.

Hubs e Switches

Chegou então um momento onde alguém teve uma ideia brilhante: criar um equipamento central, que pudesse receber as conexões e facilitar ainda mais as instalações. Ao invés de um "varal" o equipamento central seria um "polvo", saindo diversos cabos. O sinal que chegava em um cabo era automaticamente amplificado e re-transmitido para todos os demais.

Neste caso cada braço do "polvo" teria que estar limitado a 100m: os sinais percorrem uma perna de no máximo 100m para chegar no hub e percorre as outras, de no máximo 100m, mantendo o total de 200m.

Ai você pode se perguntar: se o hub amplifica o sinal, porque limitar a 200m no total? A questão não é apenas potência e perda. Lembra que temos o problema da colisão e o 10Base2 foi criado para tratar o problema de colisão  em distâncias de 200m. Quanto mais longo o cabo, mais tempo demora para o sinal elétrica ir de um ponto para outro. A eletricidade tráfego a 270Km/s no cabo, é muito rápido mas não é instantâneo. Assim o protocolo 10Base2 trata bem colisões considerando que o sinal tem que cruzar no máximo 200m, acima disso o protocolo começa a apresentar problemas.

Quando os hubs foram inventados eles precisavam aproveitar a base instalada de placas de redes e as tecnologias existentes. Então eles mantiveram essa limitação.

Switches, 100Mbps e Além

Com a criação dos switches e do Ethernet full-duplex acabamos com o problema da colisão, porém a cada etapa de evolução a tecnologia precisava manter compatibilidade com a anterior. Quando surgiram os switches 10Mbps full-duplex, ainda haviam muitos equipamentos 10Mbps half-duplex (que tinham problemas de colisão). Quando surgiu o 100BaseT (100Mbps) ainda haviam muitos equipamentos 10Mbps full-duplex (e alguns 10Mbps half-duplex).

Quando surgiu o 1000BaseT (1Gpbs), ainda havia muitos 100Mbps. Então a primeira consideração do 1000BaseT era que ele funcionasse no cabeamento de 100m. Enquanto a tecnologia não evoluiu o suficiente, o gigabit não se popularizou. Apenas quando foi possível trafegar gigabit nos cabos com 100m é que o conceito se tornou popular. Hoje em dia já existe tecnologia para trafegar gigabit em cabos maiores que 100m, mas nenhum fabricante nem o IEEE (que padroniza o Ethernet) está interessado em pensar em mudar.

E as Conexões de Fibra Ótica

É muito comum usarmos fibra ótica em distâncias maiores que 100m. Na verdade, essa é a principal aplicação da fibra, ultrapassar o limite dos 100m do UTP. Então como isso é possível, já que temos o problema das colisões? Na verdade não temos mais, lembre: o full-duplex não tem colisão.

Nos casos raros onde eventualmente um switch tenha algum equipamento muito antigo conectado (por exemplo uma controladora industrial  10BaseT half-duplex) faz ele o papel de controlar as colisões.

Resumo

Hoje em dia temos tecnologia que permitiria conexões de 100Mbps e até 1Gbps em distâncias muito maiores que 100m em UTP, porém não existe nenhum incentivo para os fabricantes e IEEE em mudar essas características.

Dessa forma, hoje estamos com essa restrição por razões históricas, e muito provavelmente vamos manter essa restrição por muito tempo.

Ajude a divulgar este artigo você também

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.

segunda-feira, 9 de outubro de 2017

Qual a diferença entre um switch L2 e L3?

Um switch Ethernet realiza várias tarefas, entre elas criar VLANs. No entanto existem dois tipos de switches: os Layer 2 (L2) e Layer 3 (L3). Qual a diferença entre eles?

Antes, um pequeno resumo sobre VLANs (para quem quiser um artigo mais completo sobre VLANs, acesse este outro artigo clicando aqui). As VLANs são como ilhas dentro de uma rede. Os equipamentos que estão  em uma "ilha" não tem acesso direto aos equipamentos de outra. Assim as VLANs criam isolação entre partes da rede, mesmo que os equipamentos estejam conectados no mesmo switch.

No entanto algumas vezes é necessário ter alguma comunicação entre VLANs diferentes. Seja para acessar um servidor (comunicação  entre as VLANs dos usuários e a VLAN dos servidores), seja para acessar a Internet (comunicação entre as VLANs dos usuários e o roteador de saída para a Internet). E esses são apenas alguns exemplos de aplicações onde podemos precisar "interconectar" essas "ilhas".

Um switch L2 gerenciável permite a criação de VLANs, mas não faz a interconexão entre elas. Assim, se eu tenho uma rede feita totalmente de switches L2, eu até posso criar VLANs, mas não consigo fazer elas se comunicarem. Eu até posso usar um roteador (que também é um equipamento Layer 3) para interconectar as VLANs, mas normalmente um roteador é um equipamento que tem uma baixa capacidade de comutação de pacotes, ou - traduzindo para o português - um roteador pode se tornar um gargalo na comunicação entre as VLANs.

Um switch L3, por outro  lado, é um switch igual a um switch L2 (tem portas, cria VLANs, gerenciável, etc) mas ele tem uma funcionalidade que os switches L2 não tem: permite interconectar as VLANs.

Um comentário antes de continuarmos: um switch L3 é um roteador. Muita gente pensa que roteador é apenas o equipamento que conectar com a Internet. Não é verdade. Um roteador é qualquer equipamento que liga redes diversas. Assim um switch L3 é também um roteador. Então quando falei acima que  "..mas normalmente um roteador é um equipamento que tem uma baixa capacidade de comutação de pacotes..."  eu não estava sendo 100% honesto com você leitor. Um roteador (do tipo que conecta rede com Internet) é sim normalmente um equipamento de menor capacidade de comutação. Porém um switch L3 é um roteador, que está "dentro" de swich L2 (ou seja, faz tudo que um switch L2 faz) e tem  uma maior capacidade. Vamos agora voltar ao nosso assunto.

Então com um switch L3 o administrador da rede consegue - de maneira organizada - fazer a comunicação entre as VLANs. É importante que eu posso ter vários switches L3 ou apenas um L3 na minha rede, mesmo tendo vários switches L2.

Se eu tenho um switch L3 e vários L2, esse switch L3 normalmente é o switch central. Todo o tráfego entre VLANs passa por ele.

Se eu tenho vários switches L3, o custo do meu projeto é maior e também a complexidade de configuração é maior. Porém com vários L3 eu divido a minha carga, então posso ter uma performance melhor na interconexão entre as VLANs.

Hoje em dia a maior parte dos projetos tem como objetivo ligar as VLANs dos usuários com a VLAN dos servidores e com a Internet, e mais nada. Ou seja, hoje em dia a maioria dos projetos não precisa de grandes arranjos de switches L3: vários switches L2 conectados a um switch L3 central (ou se eu quiser redundâncias, conectados a dois switches L3 centrais) já é o suficiente para a grande maioria dos projetos.

Se ainda ficou alguma dúvida ou tiver perguntas, deixe nos comentários abaixo que eu tento responder o mais rápido possível.

Ajude a divulgar este artigo você também

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.

quinta-feira, 3 de agosto de 2017

O que são "canais de memória" (memory channels)?

Em um computador existem diversos componentes, entre eles a memória e processador (CPU). Para se comunicarem, existe uma conexão entre essa CPU e a memória, essa conexão é o "canal". Em uma placa mãe é posso ter apenas um canal de memória, ou posso ter vários canais.


É importante notar que isso não tem nada a ver com a quantidade de pentes de memória. Eu posso ter uma placa mãe com capacidade para 4 pentes de memória, e ter apenas 1 canal. Eu posso ter outra placa mãe e ter 4 pentes de memória e 2 canais, ou então ainda uma outra com 4 pentes e 4 canais. Mas para que servem esses canais?

O canal de memória é como se fosse uma rodovia que liga o processador com as memórias. Se eu tenho apenas um canal, tem apenas uma faixa, o que significa que o processador só consegue acessar um pente de memória de cada vez. Já se eu tiver dois canais (e dois pentes de memória) o processador vai conseguir acessar em paralelo as duas memórias, e assim obviamente ser mais rápido no processamento.

Existem também algumas informações importantes adicionais que precisamos saber, vamos lá.

Se eu tiver uma placa mãe de 2 canais, mas tiver apenas 1 pente de memória, o processador só vai conseguir fazer um acesso por vez. Assim, por exemplo, se eu tiver uma placa mãe de 2 canais e colocar 2 pentes de 8GB vou ter melhor performance do que se eu colocar apenas 1 pente de 16GB nessa mesma placa. Porém se a placa mãe tiver apenas 1 canal, não haverá diferença. Por outro lado de se eu tiver uma placa mãe de 3 canais, mas colocar 2 pentes de 8GB, vou ter apenas dois acessos ao mesmo tempo, mas ainda sim vai ser melhor do que seu eu colocar nessa placa apenas 1 pente de 16GB. Mas neste caso a melhor performance será com 3 pentes de 8GB (porque além de ter obviamente mais memória, o processador vai conseguir aproveitar todos os 3 canais).

Existe também a questão da quantidade de slots de memória. Posso ter uma placa mãe de 2 canais com 4 slots de memória. Assim o slot 1 e 3 vão estar no primeiro canal e os slots 2 e 4 vão estar no canal 2. Neste caso se eu tiver 2 pentes de memória vou ter melhor performance se eu colocar um no slot 1 e o segundo no slot 2. Se eu adicionar um terceiro pente, posso colocar tanto no slot 3 ou 4, não vai fazer diferença. No entanto se eu tiver 2 pentes e colocar nos slots 1 e 3 vou perder performance, porque coloquei eles no mesmo canal. Repare que essa associação entre slots de memória e canal pode mudar de fabricante para fabricante, ou seja, pode ser que a sua placa mãe tenha o canal 1 nos slots 1 e 2 e o canal 2 nos slots 3 e 4, assim os dois pentes precisariam ir nos slots 1 e 3 (ou 1 e 4, ou  2 e 3, ou ainda 2 e 4, tanto faz desde que cada um esteja em um canal diferente). A grande maioria dos fabricantes usa cores para indicar os slots dos pentes de memória: cores iguais, mesmo canal, então  procure sempre colocar os pentes de memória primeiro nos slots de cores diferentes.

Outro ponto importante é que a memória não sabe quanto canais a placa mãe tem. Não existe pente de memória de 1 canal ou pente de memória de 2 canais. A placa mãe (e o processador) é que tem mais ou menos canais, cada pente vai ocupar um canal.

Por último, existe a questão dos pentes de memória casados. Para melhorar a performance alguns fabricantes de memória testam a performance dos pentes e vendem em kits casados. Nesses kits o sincronismo entre os pentes é o melhor possível. Nesse caso se minha placa mãe tem dois canais vou ter a melhor performance se eu comprar um kit casado de 2 pentes. Se minha placa mãe tiver quatro canais, o ideal é eu comprar um kit de 4 pentes casados. Repare que eu não sou obrigado a usar pentes casados e, mesmo se eu usar pentes não casados o computador irá funcionar normalmente, apenas que quando usamos pentes casados dessa forma, conseguimos tirar o melhor realmente dessa tecnologia de canais de memória. Levamos essa característica ao máximo.

Em resumo, quanto mais canais de memória eu tiver na minha placa mãe (que é casada com o processador), melhor mais performance. Mas para isso preciso colocar pelo menos um pente de memória em cada canal, quanto mais pentes melhor e, de preferência, que sejam kits de pentes casados, testados de fábrica e garantidos pelo fabricante.

Compartilhe você também

Se ainda ficou alguma dúvida ou tiver perguntas, deixe nos comentários abaixo que eu tenho responder o mais rápido possível.

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.

terça-feira, 18 de julho de 2017

Qual a diferença entre memórias ECC e non-ECC

A memória RAM dos computadores (tanto faz se servidor, desktop ou notebook), podem sofrer erros aleatoriamente e não existe nada que os fabricantes de memória possam fazer para evitar que isso aconteça. Existem técnicas de produção e materiais que reduzem esse efeito, mas nenhuma garante 100% de proteção.

E mesmo nas melhores tecnologias, em um servidor com 128GB de memória operando 24x7 podemos ter diversos desses erros ocorrendo por semana. Muitos desses "pulos" ocorrem em áreas de memória não crítica, mas como são aleatórios as vezes atingem áreas com informações importantes e com isso temos erros, travamentos, reboots e até mesmo perda efetiva de informação.

Entra ai então as memórias ECC. Nos pentes de memória com esse recurso existe alguns componentes adicionais que são capazes de detectar e corrigir os erros mais comuns.

Então os pentes de memória ECC são mais caros que os pentes non-ECC, mas são mais seguros e dão maior estabilidade (menos reboots e problemas aleatórios). Por essa razão as memórias ECC são raras em desktops ou notebooks, mas muito comuns em servidores e equipamentos de aplicação crítica.

Para quem se interessar, existe um estudo interessante que foi patrocinado pelo Google (http://www.cs.toronto.edu/~bianca/papers/sigmetrics09.pdf) sobre a taxa de ocorrência desses erros aleatórios nos servidores do parque de máquinas deles.

ECC e R-DIMM

Não confunda memórias ECC com memória R-DIMM. Temos até um artigo sobre memórias R-DIMM x U-DIMM para quem se interessar: https://tecnologiaerede.blogspot.com.br/2017/07/qual-diferenca-entre-memorias-r-dimm-e.html

Mas é importante saber que eu posso ter uma memória ECC R-DIMM ou ECC U-DIMM e também posso ter memórias non-ECC R-DIMM e non-ECC U-DIMM, ou seja, uma coisa não depende da outra. No entanto normalmente as memórias de servidor são ECC e também R-DIMM, então é muito comum vermos memórias ECC R-DIMM e non-ECC U-DIMM a ponto de as pessoas pensarem que essas duas coisas sempre andam casadas, o que não é uma obrigação, é apenas a situação mais comum em cada aplicação.

Compartilhe você também

Se ainda ficou alguma dúvida ou tiver perguntas, deixe nos comentários abaixo que eu tenho responder o mais rápido possível.

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.

sexta-feira, 14 de julho de 2017

Qual a diferença entre memórias R-DIMM e U-DIMM

Falando de maneira simplificada, as memórias R-DIMM são mais caras, possuem normalmente uma performance levemente inferior em aplicações com poucos pentes (mas superior com muitos pentes na mesma placa mãe) e geram uma carga elétrica menor na placa mãe.

Falando tecnicamente, os pentes de memórias R-DIMM (R significa "registered") tem um circuito adicional que faz a ponte com a placa mãe. Na placa mãe existe um circuito chamado Controlador de Memória, quando se usa memórias U-DIMM (U significa "unregistered") esse Controlador de Memória se comunica diretamente com os chips de memória no pente. Quando usamos R-DIMM existe esse circuito intermediário entre o Controlador de Memória da placa mãe e os chips de memória.

Assim as memórias R-DIMM são usadas normalmente em aplicações onde é necessário instalar uma grande quantidade de pentes de memória na mesma placa mãe, tipicamente no caso de servidores.

É importante lembrar que a placa mãe (e o controlador de memória que vem nela) normalmente suporta apenas um dos dois tipos de memória. Normalmente uma placa mãe R-DIMM não funciona com pentes U-DIMM (mesmo que sejam poucos) e vice-versa, uma placa U-DIMM não vai funcionar com pentes de memória R-DIMM. Como tudo na vida, existe exceções e algumas placas mãe podem funcionar com ambos pentes, porém mesmo nessas placas não podemos usar R-DIMM e U-DIMM ao mesmo tempo, todos os pentes instalados nessa placa mãe tem que ser do mesmo tipo.

Para finalizar, U-DIMM ou R-DIMM não tem nada a ver com ECC ou non-ECC. Podemos ter memórias U-DIMM ECC, U-DIMM non-ECC, R-DIMM ECC e R-DIMM non-ECC, mas por conta da aplicação em servidores ser crítica, a grande maioria (se não todos) fabricantes de memória fazem as memórias R-DIMM também ECC. Para saber mais sobre as memórias ECC, acesse o artigo http://tecnologiaerede.blogspot.com/2017/07/qual-diferenca-entre-memorias-ecc-e-non.html

Na questão de performance as memórias R-DIMM consomem um ciclo a mais de clock (mas esse tempo é insignificante) e tem melhor performance quando temos mais um pente por canal de memória (que é uma característica da placa mãe).

Em resumo: verifique qual o tipo (U-DIMM ou R-DIMM) a sua placa mãe suporta e siga com ele. Se ela suportar os dois tipos e você precisar de muitos pentes de memória (e tiver verba) vá de R-DIMM.

Compartilhe você também

Se ainda ficou alguma dúvida ou tiver perguntas, deixe nos comentários abaixo que eu tenho responder o mais rápido possível.

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.

Para saber mais:

segunda-feira, 3 de julho de 2017

Quando e como usar discos SSD (Solid-State Drive)

Os discos SSDs são muito mais rápidos que os HDs convencionais, porém são muito mais caros (comparando GB por GB, quase 10x mais caros), então eles não são utilizados em qualquer situação nem de qualquer maneira. Vamos ver então quando é boa ideia (e quando não é) usar SSDs e como otimizar o seu uso.

Vantagens do SSD


Os HDs SSD são mais rápidos, geram menos ruído, são mais resistentes a impactos, menos suscetíveis a campos magnéticos e suportam temperaturas de operação maiores que os HDs convencionais, então já temos então uma pista de onde usar os SSDs (considerando que não tenhamos problema de verba).

Se fala muito que os SSDs consomem menos energia, são menores e mais leves que os HDs convencionais, mas isso é meia-verdade. Um HD SSD de 1TB realmente é menor que um HD convencional de 1TB, porém se eu preciso de 10TB eu não tenho um SSD com essa capacidade, então vou necessitar de vários SSDs, que vão seguramente ocupar mais espaço, gastar mais energia e serem mais pesados que um HD de 10TB. Assim os SSD possuem essas vantagens em pequenas quantidades de armazenamento.

Outro ponto importante para se usar HDs SSDs é o barramento da placa mãe e a performance do processador. Para quem não conhece o conceito de barramento, basta entender o seguinte: o barramento é "rodovia" da placa mãe que conecta todas as partes. Não adianta colocar uma Ferrari em uma estrada de terra esburacada. Existem no mercado placas mãe com ótimos processadores, muita capacidade de memória, mas péssima performance de barramento que então não vão conseguir aproveitar a performance de um SSD.

Quanto ao uso, em um servidor/desktop/notebook com SSD se trabalha da mesma forma que um com HD. Uma vez instalado, o SSD vai ser comportar (independentemente do sistemas operacional ser Windows, Linux ou MacOS) como um HD convencional mais rápido.

Onde e como usar da melhor forma um SSD

Obviamente quando não temos restrição de dinheiro, quase sempre é melhor usar SSD (veja algumas exceções mais abaixo). Em aplicações críticas, onde é necessário muita performance, se usam grandes quantidades de SSDs. Por exemplo em datacenters, servidores das grandes empresas, em notebooks para processamento de imagens ou mesmo em máquina de gamers (que gastam enormes quantidade de dinheiro atrás de performance) os SSDs são essenciais.

Mas além disso, como usar da melhor forma essa tecnologia? O ideal é fazer um misto de SSD e HD convencional no mesmo servidor. Usamos o SSD para boot e para instalar as aplicações (banco de dados, servidor web, servidor de email, etc.) e HD convencional para os dados (armazenar os emails do servidor de email, armazenar as páginas web do servidor web, etc.). Dá um pouco mais de trabalho porque precisamos configurar as aplicações para usar um disco diferente daquele onde elas estão instaladas, mas temos o melhor dos dois mundos: não gastamos tanto mas temos uma boa aceleração de performance das aplicações.

Mesmo em aplicações de banco de dados, podemos fazer uma engenharia mista: os banco de dados mais críticos, mais acessados e que impactam mais na performance (e normalmente são menores) ficam no SSD, já os dados mais volumosos e menos acessados ficam em um banco de dados armazenado em HD convencional. Novamente, é algo trabalhoso porque o programador precisa ter essa preocupação de separar os dados, para permitir essa estratégia, mas vale a pena quando é bem feito.

Outra aplicação interessante de SSDs são em ambientes críticos, como equipamentos instalados em áreas externas ou industriais, que acabam sendo expostos a altas temperaturas e interferências eletromagnéticas. Nesses casos os SSDs duram mais que os HDs convencionais. Isso também se aplica em caminhões, trens e ônibus (por exemplo, para gravar imagens de câmeras, como uma "caixa preta" do veículo) onde a tecnologia SSD é mais indicada.

Desvantagens do SSD e quando não utilizar

Existem algumas aplicações onde os discos SSDs não são recomendados, independente da verba disponível para o seu projeto.

Uma das situações onde os SSDs não são tão bons é quanto temos muita gravação com pouca leitura. Exemplos de aplicações desse caso são servidores de backup, servidores de log (registro) e servidores de CFTV (DVR/NVR/VMS). Nesses casos o servidor grava diversas vezes sobre o mesmo local (apagando um backup, log ou imagem antiga para colocar uma nova), isso acaba reduzindo o tempo de vida útil dos SSDs. Além disso, normalmente nesses casos a performance não é um fator crítico.

Repare que no caso de aplicações de "caixa-preta" para veículos temos uma mistura de benefícios e desvantagens: o SSD é muito bom para suportar as temperaturas e vibrações típicas dentro de ônibus, trens e caminhões, mas por outro lado a gravação contínua de imagem acaba diminuindo a vida útil do SSD. Mas no final o SSD é a melhor opção: apesar da menor vida útil por causa da grande quantidade de gravação, o fato dele suportar bem vibração e temperatura vai dar uma vida útil maior que um HD convencional na mesma aplicação.

Compartilhe você também

Se ainda ficou alguma dúvida ou tiver perguntas, deixe nos comentários abaixo que eu tenho responder o mais rápido possível.

Se você achou útil este artigo, por favor compartilhe utilizando os botões do Twitter, Facebook e Google+ para que outros possam ter acesso.