.NET

2 ago, 2010

A Computação está nas Nuvens?

Publicidade

Um dos termos mais na moda atualmente em relação à
infra-estrutura de computadores é o “Cloud Computing”, o que em bom
português pode ser traduzido por “Computação em Nuvem”.

Para explicar melhor este conceito, vale a pena rever
algumas outras idéias antes, para um melhor entendimento. Primeiro, a indústria
da tecnologia da informação, que já foi um dia chamada de processamento de
dados, tem “ondas” de tendências e isso é valido especialmente quando se fala no
segmento corporativo.

Quando o mundo viu o advento da computação, a idéia era
concentrar o processamento em grandes (e caríssimos) computadores, os chamados
“mainframes”, acessados por terminais com pouco ou nenhum poder de
processamento e armazenamento. Isso era considerado uma verdade quase absoluta
pelos líderes de mercado em meados do século 20, prova disso são frases como “I
think there is a world market for maybe five computers” (“Acho que há
mercado mundial para talvez cinco computadores”), dita em 1943 pelo então
presidente do conselho de administração da IBM, Thomas Watson, e “There
is no reason anyone would want a computer in their home” (“Não há
nenhuma razão pela qual alguém vá querer um computador na sua casa”) dita em
1977 pelo fundador da DEC, Ken Olson.

A História mostra que os inovadores como Steve Jobs, um dos
fundadores e atual CEO da Apple, questionaram os líderes de mercado (para o bem
da humanidade) e o mundo assistiu ao surgimento do Computador Pessoal, o famoso
PC (do inglês “Personal Computer”) no final dos anos de 1970. Durante a
década de 1980 o Computador Pessoal se consolidou como ferramenta de trabalho
principalmente nas empresas e, ao mesmo tempo, foram criados servidores menores
baseados na mesma arquitetura do PC e com configurações mais robustas. Assim,
nos anos de 1990 vemos o surgimento de uma nova tendência, o “downsizing”
de servidores, já que a adoção da arquitetura PC representava uma opção mais
barata, mais flexível e com melhor relação custo x benefício em relação aos mainframes.

Com o “downsizing”, os PCs passaram a ser conectados
em rede a servidores que não tinham tanto poder de processamento e, para que os
sistemas funcionassem adequadamente, o processamento era distribuído entre a
máquina que acessava o sistema e o servidor, o que se convencionou chamar de “arquitetura
cliente-servidor”. Isso não significou o fim dos mainframes, que
continuam sendo utilizados até hoje no segmento Financeiro e em grandes
organizações, mas sem dúvida barateou o acesso à tecnologia e facilitou a sua
adoção em larga escala, principalmente nas empresas.

A partir dos anos de 1990 também vemos a expansão da
Internet, que consolidou-se a partir do ano 2000, além de computadores pessoais
e servidores a cada dia mais potentes. Com isso passamos a ter cada dia mais recursos
computacionais e banda de comunicação disponíveis, possibilitando a troca de
dados e informações entre computadores em volume e velocidade crescentes. Assim,
grande parte dos sistemas que antes compartilhavam recursos entre os servidores
e as máquinas que os acessavam (“cliente-servidor”), passam a ser acessados
exclusivamente pela internet (web), sendo 100% processados nos servidores.

Outros dois fenômenos que ocorrem nessa época são a
Globalização, que ampliou a concorrência entre as empresas para um nível
mundial, e o conceito de “TI Verde”, que surgiu a partir de uma conscientização
sobre as mudanças climáticas e o aquecimento global.

Em resumo, o cenário atual mostra o seguinte: em tempos de
globalização, a internet é algo fundamental e a cada dia temos possibilidade de
trafegar mais informações e com velocidade crescente; os computadores estão cada
vez mais potentes, mas com baixa eficiência energética; a maior parte dos
servidores em uso possui uma capacidade ociosa não utilizada; com a
concorrência trazida pela globalização é necessário que as empresas racionalizem
seus custos, e as áreas de TI não ficam imunes a isso.

A partir dessas questões, surge o conceito de
“virtualização” de servidores, que visa aproveitar melhor os recursos
computacionais disponíveis. A partir da adoção de softwares como VMWare ou Xen,
um único servidor físico passa a conter vários servidores virtuais
compartilhando os recursos da máquina. Para os usuários, esses servidores
virtuais são vistos como máquinas físicas. Para os gestores, causa um aumento
da eficiência energética dos computadores com uma racionalização de custos, e
ainda por cima colaborando com a natureza. Fantástico!

Porém, algumas aplicações podem demandar mais do que um único
servidor físico, ou servidores muito grandes cujo custo pode ser proibitivo. Quando
isso acontece, é necessário consolidar a infra-estrutura unindo vários
servidores em clusters ou grids, ou então partir para servidores mainframe,
cujo custo é inacessível para a grande maioria das empresas. A consolidação
pura de servidores físicos é algo complicado de implantar, porém quando se
expande o conceito de virtualização para um conjunto de servidores, a coisa
muda, pois foram disponibilizadas ferramentas para tal.

Pode-se criar um conjunto de servidores atuando em conjunto,
o que se chama de cluster, com uma solução de armazenamento de dados
centralizada, integrada aos mesmos (storage). Vejam que esse conjunto de
servidores mais a solução de armazenamento podem gerar vários servidores
virtuais, cuja operação também é transparente para o usuário, que os acessará
da mesma forma que faria com servidores físicos. E, para dar suporte a esse
conjunto de equipamentos, os já mencionados softwares VMWare e Xen, entre outros,
foram expandidos para dar suporte a esse tipo de configuração.

E é aqui que chegamos ao primeiro degrau do conceito de Cloud
Computing. Por analogia, essa solução virtualizada de servidores e
armazenamento pode ser considerada uma “nuvem” de recursos. Aliás, a própria
internet é freqüentemente representada como uma nuvem, pois acessamos vários
recursos, páginas, etc., sem sabermos onde estão e nem como funcionam. Pois
bem, nesse primeiro estágio do Cloud Computing, os gestores de TI passam
a contar com uma nuvem de recursos que são configurados de acordo com a
necessidade da empresa, com benefícios tais como:

  • Redução
    do espaço ocupado por servidores físicos;
  • Redução
    do consumo de energia, pois há menos equipamentos;
  • Redução
    dos custos com ar-condicionado, pois com menos equipamentos há menor
    dissipação de calor;
  • Redução
    da complexidade do ambiente dos servidores, com menos cabos, tomadas,
    etc., facilitando a sua gestão e operação;
  • Aumento
    da disponibilidade dos servidores, pois se algum servidor físico falhar, o
    software que gerencia a configuração faz o balanço de carga de
    processamento com os demais que fazem parte da nuvem, até que o problema
    seja solucionado.

Mas será que Cloud Computing é só isso, algo ligado
apenas ao segmento corporativo? Na verdade, nem os próprios especialistas ainda
sabem direito como definir esse conceito, porém há um consenso geral de que ele
irá mais além do que simplesmente a virtualização de computadores, atingindo um
público muito maior do que o corporativo.

Espera-se que o aumento de capacidade computacional dos
servidores e principalmente o aumento da oferta de banda de comunicação
continuem de forma constante. Assim, o poder computacional dos computadores
pessoais não precisará mais ser tão grande, já que tudo poderá ser acessado
on-line e, dessa forma, o processamento e o armazenamento de dados ficarão na
nuvem de servidores e dispositivos de armazenamento que estarão na internet.
Juntamente com isso espera-ser que cada vez mais os aplicativos (softwares)
sejam migrados para a internet, dispensando a sua instalação nos PCs. Assim, a
tendência é que os computadores pessoais sejam cada vez mais simples, leves e
práticos de usar, com recursos mais voltados à conectividade em rede do que
para o processamento e o armazenamento local.

Empresas como o Google, a IBM, a Oracle, Locaweb, entre
tantas outras estão trabalhando nas suas soluções de Cloud Computing,
seja para consumo interno ou para venda, e em diferentes estágios de adoção.
Alguns estão focando no momento apenas a infra-estrutura de servidores, outros
já estão pensando além. Um exemplo de um “próximo passo” foi dado pelo Google,
ao disponibilizar um conjunto de aplicativos para escritório na internet, o
“Google Docs”. Esse pacote de software é acessado 100% via internet e permite a
criação e edição de documentos, planilhas, apresentações, etc., que inclusive
podem ser armazenados no próprio espaço disponibilizado pelo Google para cada
usuário. Para acessar esse sistema não é necessário instalar nada, basta um
computador conectado à internet.

Vejam que, tal qual o ditado, o “mundo da TI também dá
voltas”. Se nos lembrarmos que no início dos tempos dos computadores o conceito
vigente era de um grande servidor acessado por terminais com pouco ou nenhum
poder de processamento e armazenamento, hoje percebemos uma volta a esse
cenário. Porém, ao invés de um único grande computador restrito ao ambiente de uma
organização, teremos algo em escala global, com nuvens de servidores em vários
locais trabalhando em rede para executar diversos softwares que poderão ser
acessados on-line, formando uma grande nuvem que será a internet do futuro.

Ou seja, pelo que tudo indica, dá para concluir que o futuro
da computação estará sim nas nuvens.