Generador de Robots.txt

Crea archivos robots.txt para WordPress, tiendas online y cualquier web. Controla qué rastrean Google y otros bots. Incluye ejemplos y validación.

Tool UI component not found: dev/robots-txt

Acerca de esta herramienta

El archivo **robots.txt** indica a los motores de búsqueda y otros bots qué partes de tu sitio web pueden rastrear. Es fundamental para el SEO técnico: controla qué páginas indexa Google, evita que se rastreen áreas privadas, y optimiza el presupuesto de rastreo. Un robots.txt bien configurado puede mejorar tu posicionamiento evitando contenido duplicado, proteger áreas de administración, y bloquear bots no deseados (como rastreadores de IA). También es donde declaras la ubicación de tu sitemap XML. Este generador te permite crear robots.txt para WordPress, tiendas online, blogs, y cualquier sitio web. Incluye plantillas predefinidas, validación de sintaxis, y la opción de bloquear bots específicos como GPTBot, CCBot, y otros rastreadores de IA.

Cómo usar

1. Selecciona una plantilla base según tu tipo de sitio (WordPress, eCommerce, etc.) 2. Añade reglas de Allow (permitir) y Disallow (bloquear) según necesites 3. Incluye la URL de tu sitemap (ejemplo: https://tudominio.com/sitemap.xml) 4. Opcionalmente, bloquea bots de IA u otros rastreadores específicos 5. Revisa la vista previa y copia o descarga el archivo 6. Sube el archivo robots.txt a la raíz de tu dominio (tudominio.com/robots.txt)

Fórmula

Sintaxis de robots.txt: User-agent: * → aplica a todos los bots User-agent: Googlebot → solo para Google Disallow: /admin/ → bloquea carpeta Allow: /admin/public/ → permite subcarpeta Sitemap: https://ejemplo.com/sitemap.xml Orden de evaluación: la regla más específica gana

Preguntas frecuentes

¿Cómo crear un archivo robots.txt para WordPress?
Para WordPress usa: User-agent: * seguido de Disallow: /wp-admin/ y Allow: /wp-admin/admin-ajax.php (necesario para funcionalidades AJAX). Añade Disallow: /wp-includes/ y tu Sitemap: https://tudominio.com/sitemap.xml. No bloquees /wp-content/ o las imágenes no se indexarán.
¿Dónde se coloca el archivo robots.txt?
El robots.txt DEBE estar en la raíz de tu dominio: https://tudominio.com/robots.txt. No funciona en subdirectorios. Si tienes subdominios (blog.tudominio.com), cada uno necesita su propio robots.txt. Súbelo vía FTP, cPanel, o el administrador de archivos de tu hosting.
¿Cómo bloquear bots de IA en robots.txt?
Para bloquear rastreadores de IA añade: User-agent: GPTBot / Disallow: / (bloquea ChatGPT), User-agent: CCBot / Disallow: / (bloquea Common Crawl usado por IA), User-agent: anthropic-ai / Disallow: / (bloquea Claude). Repite para cada bot que quieras bloquear.
¿Qué pasa si no tengo robots.txt?
Sin robots.txt, los bots asumen que pueden rastrear todo tu sitio. No es un problema grave, pero pierdes control sobre el rastreo. Google mostrará error 404 para robots.txt pero seguirá indexando normalmente. Es buena práctica tener uno, aunque sea básico.
¿Cómo incluir el sitemap en robots.txt?
Añade la línea Sitemap: seguida de la URL completa de tu sitemap XML. Ejemplo: Sitemap: https://tudominio.com/sitemap.xml. Puedes incluir múltiples sitemaps, uno por línea. Esto ayuda a los bots a descubrir todas tus páginas eficientemente.
¿El robots.txt protege contenido privado?
No, robots.txt NO es seguridad. Solo indica a bots 'educados' qué no rastrear, pero no impide el acceso. Cualquiera puede ver tu robots.txt y acceder a URLs 'bloqueadas'. Para contenido privado usa autenticación (login), .htaccess, o páginas protegidas con contraseña.
¿Cómo verificar si mi robots.txt funciona?
Usa Google Search Console → Herramientas → Probador de robots.txt. Ingresa URLs para verificar si están bloqueadas o permitidas. También puedes visitar tudominio.com/robots.txt directamente para ver el archivo. Search Console muestra errores de sintaxis si los hay.

Herramientas relacionadas