Você já parou pra pensar na busca interna do seu site? No que ela pode te trazer de informações? Veja aqui como otimizá-las.
we are developers
- Publicou7Artigo(s)
- Visualizados4900Vezes
- Desde2009
Quando o usuário para pra pensar no que a informação ou ação faz em um site, é sinal de que a usabilidade não foi aplicada de forma correta.
Você já parou pra pensar na busca interna do seu site? No que ela pode te trazer de informações? Veja aqui como otimizá-las.
O arquivo Robots.txt se trata de um arquivo .txt que Webmasters e SEOs utilizam para informar aos Crawlers (sites de pesquisas) as permissões de acesso a páginas e diretórios e é neste ponto que mora o perigo do Robots.txt.
Entre as razões para utilizá-lo estão ganhos de desempenho, melhor organização de código e evitar bugs.
Neste artigo veremos uma forma rápida e fácil de gravar informações no SQL Server 2008, porém, ainda podemos utilizar o mesmo código no SQL Server 2005 realizando algumas alterações no código.
Um CSRF pode ocorrer de diversas formas e neste artigo vamos tratar a solicitação de informações via POST entre sites.