Como: Gerar Robots.txt no WordPress

Introdução

O arquivo robots.txt é uma parte essencial de qualquer site, pois ele ajuda a controlar o comportamento dos robôs de busca, como o Googlebot, em relação ao rastreamento e indexação do conteúdo. No WordPress, é possível gerar o arquivo robots.txt de forma simples e eficiente, garantindo que seu site seja rastreado corretamente pelos motores de busca. Neste glossário, vamos detalhar passo a passo como gerar o robots.txt no WordPress, com todas as informações necessárias para otimizar seu site para SEO.

Passo 1: Acesso ao arquivo robots.txt

Antes de começar a gerar o arquivo robots.txt, é importante ter acesso ao diretório raiz do seu site WordPress. Isso pode ser feito através de um cliente FTP ou do gerenciador de arquivos do seu provedor de hospedagem. Certifique-se de ter as credenciais corretas para acessar o diretório raiz.

Passo 2: Criação do arquivo robots.txt

Com o acesso ao diretório raiz garantido, é hora de criar o arquivo robots.txt. Utilize um editor de texto simples, como o Bloco de Notas ou o Sublime Text, para criar um novo arquivo chamado “robots.txt”. Certifique-se de salvar o arquivo com essa exata nomenclatura e com a extensão .txt.

Passo 3: Estrutura básica do arquivo robots.txt

O arquivo robots.txt segue uma estrutura básica composta por diretivas e valores. Cada diretiva é responsável por instruir os robôs de busca sobre o que eles podem ou não fazer em relação ao seu site. Vamos começar com uma estrutura básica:

User-agent: *

Disallow:

Passo 4: Definindo as diretivas User-agent e Disallow

A diretiva User-agent especifica qual robô de busca será afetado pelas instruções do arquivo robots.txt. O asterisco (*) é utilizado para se referir a todos os robôs de busca. Já a diretiva Disallow é utilizada para indicar quais partes do site devem ser bloqueadas para o robô de busca. Por exemplo:

User-agent: *

Disallow: /wp-admin/

Passo 5: Bloqueando diretórios específicos

Além de bloquear o diretório /wp-admin/, é possível bloquear outros diretórios específicos do seu site. Por exemplo, se você possui um diretório chamado /private/ que contém informações sensíveis, pode bloqueá-lo adicionando a seguinte diretiva:

User-agent: *

Disallow: /private/

Passo 6: Permitindo o acesso a diretórios bloqueados

Em alguns casos, você pode querer permitir o acesso a um diretório bloqueado para um robô de busca específico. Para fazer isso, basta adicionar uma nova diretiva Allow, seguida do diretório que deseja permitir o acesso. Por exemplo:

User-agent: Googlebot

Disallow:

Allow: /private/

Passo 7: Bloqueando arquivos específicos

Além de bloquear diretórios, você também pode bloquear arquivos específicos do seu site. Por exemplo, se você possui um arquivo chamado “confidential.pdf” que não deseja que seja indexado pelos motores de busca, pode adicionar a seguinte diretiva:

User-agent: *

Disallow: /confidential.pdf

Passo 8: Bloqueando todos os robôs de busca

Em alguns casos, você pode querer bloquear completamente o acesso do seu site para todos os robôs de busca. Para fazer isso, basta adicionar a seguinte diretiva:

User-agent: *

Disallow: /

Passo 9: Permitindo todos os robôs de busca

Da mesma forma, é possível permitir o acesso de todos os robôs de busca ao seu site, removendo a diretiva Disallow. Por exemplo:

User-agent: *

Disallow:

Passo 10: Testando o arquivo robots.txt

Após gerar o arquivo robots.txt, é importante testá-lo para garantir que as instruções estão corretas. Para fazer isso, você pode utilizar a ferramenta de teste de robots.txt do Google Search Console. Basta acessar a ferramenta, informar a URL do seu site e verificar se as instruções estão sendo interpretadas corretamente.

Passo 11: Upload do arquivo robots.txt

Após testar o arquivo robots.txt, é hora de fazer o upload para o diretório raiz do seu site WordPress. Utilize novamente o cliente FTP ou o gerenciador de arquivos do seu provedor de hospedagem para fazer o upload do arquivo. Certifique-se de que o arquivo esteja no local correto e acessível para os robôs de busca.

Passo 12: Verificação do arquivo robots.txt

Após fazer o upload do arquivo robots.txt, é importante verificar se ele está funcionando corretamente. Para fazer isso, basta acessar a URL do seu site seguida de “/robots.txt” no navegador. Você deverá visualizar o conteúdo do arquivo, sem erros ou mensagens de aviso.

Passo 13: Monitoramento e atualização

Por fim, é importante monitorar regularmente o arquivo robots.txt e atualizá-lo sempre que necessário. À medida que seu site evolui e novas páginas são adicionadas, pode ser necessário ajustar as instruções do arquivo para garantir que os robôs de busca estejam rastreando e indexando corretamente o conteúdo.

Sobre o autor | Website