Sobre esta ferramenta
O arquivo robots.txt diz aos crawlers de mecanismos de busca quais páginas eles podem e não podem acessar no seu site. Ele fica no diretório raiz do site e é o primeiro arquivo que qualquer crawler bem-comportado verifica antes de indexar seu conteúdo.
Um robots.txt mal configurado pode bloquear o Google de indexar seu site inteiro, ou acidentalmente expor páginas de admin que você queria esconder. Este gerador ajuda você a criar um robots.txt correto com um editor visual — adicione regras por bot, defina caminhos allow/disallow, inclua URLs de sitemap e use templates para configurações comuns.
O arquivo gerado segue o padrão Robots Exclusion Protocol suportado por Google, Bing, Yandex e todos os principais mecanismos de busca.
Como usar
1. Comece com um template ou construa do zero
2. Adicione grupos de user-agent — cada grupo é para um bot específico (ou todos os bots com *)
3. Adicione regras Allow e Disallow para cada grupo
4. Opcionalmente defina Crawl-delay para bots que suportam
5. Adicione URL(s) do seu sitemap no final
6. Copie o robots.txt gerado e faça upload na raiz do seu site
Formula
Formato do arquivo robots.txt:
User-agent: * # Aplica a todos os bots
Disallow: /admin/ # Bloqueia pasta admin
Disallow: /private/ # Bloqueia pasta private
Allow: /public/ # Permite explicitamente (opcional)
User-agent: Googlebot # Regras específicas para Google
Allow: / # Permite tudo
Sitemap: https://seusite.com/sitemap.xml