Uber dieses Tool
Die robots.txt-Datei teilt Suchmaschinen-Crawlern mit, auf welche Seiten sie zugreifen können und welche nicht. Sie befindet sich im Stammverzeichnis deiner Website und ist die erste Datei, die jeder gut erzogene Crawler überprüft, bevor er deinen Inhalt indexiert.
Eine falsch konfigurierte robots.txt kann Google davon abhalten, deine gesamte Website zu indexieren, oder versehentlich Admin-Seiten offenlegen, die du verbergen wolltest. Dieser Generator hilft dir, eine korrekte robots.txt mit einem visuellen Editor zu erstellen — füge Regeln pro Bot hinzu, setze Allow/Disallow-Pfade, füge Sitemap-URLs hinzu und verwende Vorlagen für gängige Setups.
Die generierte Datei folgt dem Robots Exclusion Protocol-Standard, der von Google, Bing, Yandex und allen großen Suchmaschinen unterstützt wird.
Anleitung
1. Beginne mit einer Vorlage oder erstelle von Grund auf
2. Füge User-Agent-Gruppen hinzu — jede Gruppe zielt auf einen bestimmten Bot (oder alle Bots mit *)
3. Füge Allow- und Disallow-Regeln für jede Gruppe hinzu
4. Setze optional Crawl-delay für Bots, die es unterstützen
5. Füge deine Sitemap-URL(s) am Ende hinzu
6. Kopiere die generierte robots.txt und lade sie in das Stammverzeichnis deiner Website hoch