Gerador de Robots.txt Gratuito
Gere um arquivo robots.txt para seu site. Defina regras de user-agent, caminhos allow/disallow, adicione URL do sitemap e configure crawl delay. Baixe ou copie instantaneamente. Sem cadastro.
100% gratuito — nenhuma conta necessária
Predefinições
Pré-visualização
User-agent: *
Recursos de Gerador de Robots.txt Gratuito
Diga aos mecanismos de busca o que indexar
Regras de User-Agent
Defina regras para todos os rastreadores (*), Googlebot, Bingbot ou user agents personalizados.
Copiar e Baixar
Copie para a área de transferência ou baixe como arquivo robots.txt.
3 Predefinições
Permitir tudo, bloquear tudo ou bloquear pastas sensíveis (/admin, /api, /private).
Allow e Disallow
Adicione múltiplas regras de caminhos allow e disallow para controle preciso.
FAQ
O que é robots.txt?
Um arquivo de texto na raiz do seu site (exemplo.com/robots.txt) que diz aos rastreadores de busca quais páginas rastrear e quais pular.
O robots.txt bloqueia a indexação?
Não. Ele controla apenas o rastreamento. Páginas ainda podem ser indexadas se tiverem links de outros lugares. Use meta noindex para prevenir indexação.
Devo incluir um sitemap?
Sim. Adicionar a URL do seu sitemap no robots.txt ajuda os mecanismos de busca a descobrir todas as suas páginas eficientemente.
Otimize Seu SEO
Meta tags, robots.txt e agendamento de conteúdo — tudo em um só lugar.