Die Datei robots.txt steuert, welche Bereiche deiner Website von Suchmaschinen wie Google, Bing oder DuckDuckGo besucht und indexiert werden dürfen.
Wenn sie falsch konfiguriert ist, kann das dazu führen, dass deine gesamte Website unsichtbar für Suchmaschinen wird.
Die Datei robots.txt
liegt im Hauptverzeichnis deiner Domain (z. B. https://www.meinefirma.ch/robots.txt
).
Sie enthält Anweisungen für Suchmaschinen-Crawler, sogenannte „Robots“.
Ein einfaches Beispiel:
User-agent: *
Disallow:
→ bedeutet: alle Seiten dürfen gecrawlt werden.
Wenn jedoch steht:
User-agent: *
Disallow: /
→ bedeutet das: keine einzige Seite darf indexiert werden.
In gewissen Fällen darf die robots.txt Seiten sperren:
https://www.deine-domain.ch/robots.txt
.Disallow: /
vorhanden ist.User-agent: *
Disallow: /intern/
Allow: /
Sitemap: https://www.meinefirma.ch/sitemap.xml
→ Diese Variante erlaubt den Zugriff auf alle Seiten, ausser auf den Ordner „/intern/“, und verweist direkt auf die Sitemap.
Unser Monitoring-System überprüft regelmässig, ob deine robots.txt korrekt konfiguriert ist.
Wenn Suchmaschinen fälschlicherweise blockiert werden, wirst du automatisch informiert, bevor dein Ranking darunter leidet.
Auf Wunsch helfen wir dir, die Datei korrekt einzurichten und mit deiner Sitemap zu verknüpfen.
Dieser Check ist Teil unseres Service Level Agreements (SLA) und stellt sicher, dass deine Website jederzeit sichtbar und suchmaschinenfreundlich bleibt.