Por mais que esteja sempre ocorrendo uma evolução cada vez mais rápida no mundo tecnológico, a demanda solicitada ao redor do globo é superior a essa velocidade. Diversas vezes, dependendo da necessidade a nível computacional, a equação “custo x beneficio” acaba sendo inviável e portanto, decidir utilizar um cluster é ter escalabilidade, disponibilidade, alto processamento com um preço relativamente moderado e por consequência, ter essa equação resolvida. Muitas vezes se pensa que tudo isso é uma grande novidade mas na realidade é simplesmente, mais um clássico.
Cluster basicamente é um sistema, o qual realiza a união de dois ou mais computadores para que trabalhem em conjunto. No contexto dessa arquitetura, cada computador que faz parte do cluster recebe o nome de nó e independente do número de máquinas interligadas, as mesmas devem ser vistas pelo usuário (ou pelo sistema que necessita deste processamento ou recurso) como um único computador. Não é necessário que todos os nós sejam iguais a níveis de hardware, mas é de fato importante que tenham o mesmo OS, garantindo que o software controlador do agrupamento tenha pleno gerenciamento em todas as máquinas.
A ideia de interligar os Mainframes na época da geração baby bommer (década de 60) deu início a história do Cluster. Pensamento de vanguarda da poderosa IBM, empresa que já tinha grande parte do domínio da tecnologia nessa época e que possuía a necessidade de obter uma solução ao mesmo tempo em que que teria o recurso de paralelismo e fosse altamente comerciável.
Já em meados de 1980, algumas tendências surgiram, como microprocessadores de alto desempenho, o sistema de interligar máquinas começou a ganhar força de verdade. Uma tendência em destaque, é a necessidade de processamento em escala maior, como em aplicações científicas e comerciais, gerando uma negativa, pois se tornam aliadas ao custo exorbitante e difícil acesso a um único “supercomputador”.
Foi então que na década seguinte, dois pesquisadores da NASA (Donald Becker e Thomas Sterling) criaram o rascunho do que viria a ser o modelo de cluster dos próximos anos, o qual iria contra o conceito de uso de máquinas potentes. O modelo inicial foi criado como protótipo com base em computadores pessoais e possuía 16 processadores DX4 conectados por dois canais Ethernet acoplados. O que garantiu um sucesso surpreendente e impressionante, com utilização na época apenas no âmbito acadêmico, NASA e centros de pesquisa. Esse projeto foi denominado Beowulf.
Os tipos de clusters são divididos em: Alta Disponibilidade (High Availability (HA) and Failover), Balanceamento de Carga (Load Balance) e Cluster Combinado: Alta Disponibilidade e Balanceamento de Carga. Como já é sabido, a RedeHost trabalha com System Center da Microsoft, veja aqui uma demonstração de um cluster de máquinas virtuais com Hyper-V.
A questão mais discutida desde que começou os estudos sobre Cluster, é o debate: Super Computador versus Aglomerado de Máquinas mais simples. Cada tem a sua opinião nessa hora. O mais importante é a utilização do Cluster para escalabilidade, disponibilidade e não nos prender a utilização de apenas um hardware, compartilhando, agregando e escolhendo recursos computacionais dos mais variados tipos.