Nos artigos anteriores focamos o conceito de capacity planning, passando uma visão geral e a importância de controlar e planejar recursos por meio da disciplina.
Relembrando o primeiro artigo, o gerenciamento da capacidade, tem como objetivos:
- Obter uma visão geral sobre a capacidade existente na infraestrutura e capacidade sistêmica;
- Ter possibilidade de planejar a capacidade antecipadamente;
- Estimar o impacto de novas aplicações ou modificações de funcionalidade no ambiente;
- Obter economia de custos;
- Alcançar melhores serviços em harmonia com os requisitos de negócio.
E para alcançar esses objetivos, a disciplina de capacidade se apóia nas seguintes dimensões que afetam o crescimento sistêmico e infraestrutura da empresa:
- Projetos;
- Crescimento natural do negócio e planejamento de capacidade;
- Desempenho computacional e melhorias.
Conhecer essas etapas significa conhecer também:
- Quais são os processos de negócio da organização;
- Quais os volumes desses processos de negócio;
- Quais sistemas atendem aos processos de negócio;
- Quais elementos de infraestrutura suportam esses sistemas, e por ultimo,
- Como os volumes de negócio afetam determinados sistemas.
Essa exploração por si só, como abordamos, é um ciclo vivo, novos projetos e/ou novos produtos geram novos sistemas e/ou novos volumes de negócio respectivamente. Capacity Planning deve estar preparado para conhecer a organização, estar interado dos seus projetos e estratégias para prever com antecipação o investimento e evitar as surpresas.
O volume de negócio afeta diretamente um sistema, é uma relação geralmente proporcional, se o volume de determinado negócio cresce (por exemplo de vendas), os sistemas que suportam a sua operação (emissão de notas fiscais, rede, etc) são mais demandados e conseqüentemente CPU, Memória, Disco, Banda de Rede entre outros indicadores também aumentam.
Os dois parágrafos a seguir podem ser resumidos ao gestor de capacidade em uma só sentença: “sempre tenha um especialista ao seu lado”.
Os indicadores que controlamos dependem da tecnologia que estamos trabalhando, geralmente para servidores Windows e Unix falamos em CPU, Memória, uso de disco em storage,além de paginação (outros indicadores podem ser analisados, Wait I/O, runQ para Plataforma RISC, etc) e para Mainframes MIP’s e consumo de storage.
Porém isso depende também do que o servidor está rodando, por exemplo, é esperado que um servidor de DataWarehouse tenha alto consumo de CPU e I/O alto, Um Servidor SQL-Server é esperado que consuma 80% da memória total do servidor, e um Sysbase dependendo do número de engines alocadas pelo menos 60% de consumo de CPU mesmo que não esteja em workload máximo.
Especialistas na tecnologia que saibam fazer capacity são profissionais um tanto quanto raros, pois depende da senioridade e vivência do profissional. Porém está se tornando cada vez mais comum as empresas em busca de reduções de custo e aumento de desempenho buscar profissionais com esse gabarito.
Atualmente a métrica mais aceita para medir a capacidade de um servidor é o tpmC, métrica divulgada pelo http://www.tpc.org, geralmente sites de vendors de hardwares fornecem bechamarks de tpmC para hardwares em seus sites, baseados em alguma configuração padrão.
Definido o ciclo se inicia a decisão de metodologias estatísticas para correlacionar consumo, negócio, métrica e conseguirmos realizar uma projeção assertiva. No próximo assunto trataremos brevemente desse assunto.
Segue algumas referências complementares importantes:
1. site do transaction trocessing Council (TPC) – http://www.tpc.org/
2. site do computer measurement group – http://cmg.org/
Um abraço e até a próxima!
Rodolpho – @3dotz