Assisti a uma apresentação sobre busca orgânica feita pela Luisa Gontijo, Ivo Saldanha e Bruno Torres, da área de marketing online do UOL. Nessa apresentação eles falaram sobre diversos pontos a serem avaliados para se criar um site buscável e bem posicionado nos respectivos ranks. Neste artigo, vou falar apenas os itens que achei mais interessantes e mais técnicos, ou seja, o que podemos, na profissão de webmaster, fazer para melhorar em um site para que seja bom do ponto de vista do SEO.
Um mecanismo de busca como o do Google avalia diversos itens. Muitos destes não são divulgados nem pelo Google, nem pela sua concorrência, por razões comerciais. Mas estima-se que são mais de 200 itens avaliados para esse propósito.
Boa parte dos critérios analisados são relativos ao conteúdo textual do site, ou seja, é de responsabilidade de quem prepara o texto que será usado no site. Vejamos, primeiro, esses dois itens. Depois falaremos dos relativos à codificação.
O primeiro item relativo ao conteúdo é que se uma página tiver mais termos relativos à busca feita terá mais relevância (nesse quesito). Mas é preciso tomar cuidado com excesso de termos repetitivos, já que o robô de busca pune esse tipo de comportamento para evitar formas de burlar por esse meio.
O outro quesito analisado é o chamado “link juice”. São links de outros lugares que apontam para esse site, vistos como muito ou pouco relevante. Por exemplo, se uma notícia de um grande portal linkar para um site, isso terá muito mais relevância que se o hotsite de uma pequena padaria apontar para o mesmo site. E essa relevância adquirida é repassada para os links externos do site que os recebeu.
Os itens acima são de responsabilidade de quem monta os textos do site. Para o webmaster, é preciso apenas conhecê-los para justificar, caso quebrando a regra e o site não estiver bem posicionado.
O papel do webmasters
Um robô de busca dá mais ponto para “url’s amigáveis”, ou seja nos dois sites a seguir:
- site.com/index.php?parametro1=234¶metro2=764¶metro=2
- site.com/index/234/764/2/minha-url
o robô dará mais pontos para a segunda url. pois além de ela ter menos caracteres identificadores, ainda possui um parâmetro com o nome do título no final. Logo, utiliza ao máximo as urls amigáveis. Hoje em dia existem diversos frameworks que já trabalham dessa forma por padrão, mas também é possível fazer sem essa ajuda, apenas fazendo configurações.
Próximo item relativo ao código é manter a ordem dos itens mais relevantes acima, e consequentemente os menos relevantes abaixo. Ou seja, respeitar a ordem das tags <hX> por exemplo, onde o <h1> tem mais representação que o <h2>. Mesmo que no layout o h1 apareça menor que o h2, na estrutura do html deve-se deixar o h1 antes e no css manipular o tamanho da forma que quiser.
Outro ponto levado em conta é a sujeira no código-fonte. Para um site ter um bom layout não precisa ter um excesso de tags – isso também é punido pelos robôs. Quando estiver criando a árvore DOM do site, questione se cada elemento é necessário mesmo para o resultado final. Não só o excesso de tags deixa um código sujo. Também a não-separação de html-js-css, estilização e manipulação de eventos inline são péssimos hábitos, sempre.
O próximo item de responsabilidade do webmaster é inserir a tag meta, description, em cada template. O ideal é ter uma descrição para cada seção, já que, juntamente com outros critérios, descrições repetidas podem ser punidas como conteúdo repetido nas buscas.
Um problema desse último item é que muitas vezes não podemos manipular todas as seções do site, definindo uma descrição para cada. Muitas vezes, um mesmo produto tem duas formas de serem vistas e para isso não ser visto como página com conteúdo duplicado existe a tag <link> com “rel” = canonical. Com ela podemos dizer que uma página de detalhe de produto é relativa à página desse mesmo produto, mas sem detalhes.
O tempo de carregamento do site é outro fator importante. O que pode influenciar nesse caso é o uso excessivo de bibliotecas javascripts de terceiros. É possível ver no próprio site da biblioteca como diminuir o tamanho dela, por exemplo baixando apenas uma parte principal ou módulos específicos necessários para o projeto. A maioria dessas bibliotecas apresenta essa opção. Outros pontos: minificar os arquivos js com ferramentas especificas; não carregar arquivos css não utilizados nas sessões atuais. Claro que, além de tudo isso, sempre é bom refatorar os códigos css e js para remoção de regras e funções não usadas e melhorá-los em alguns casos.
Páginas com links quebrados também são punidas pelo buscador. Para isso não acontecer, existem ferramentas de testes como Selenium (veja um artigo meu sobre o assunto).
Adicionar atributos title e alt nas imagens do site ajudam aos robôs a dar relevância à página e à imagem, em caso de buscas por imagens.
Todos esses pontos são analisados por um robô e utilizados para diferenciar resultados de “busca natural” ou seja, além de tudo isso, os buscadores ainda possuem outros tipos de resultados que são os de links patrocinados, ou ainda quando uma pessoa está logada, onde seu histórico de navegação e suas preferências são armazenadas para suas próximas buscas.
Aconselho a visitar o site do Bruno Torres. Ele escreve muito bem sobre SEO.