Fertige "robots.txt" Datei zum anpassen

Aus all-connect Hilfe-Center
Version vom 14. November 2013, 18:59 Uhr von Acdc (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „__NOTOC__ Ja. Die "robots.txt"-Datei wird von Suchmaschinen in Ihrem Web-Server Verzeichnis gesucht. In dieser Datei könnten z.B. Einschränkungen für die S…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen


Ja. Die "robots.txt"-Datei wird von Suchmaschinen in Ihrem Web-Server Verzeichnis gesucht. In dieser Datei könnten z.B. Einschränkungen für die Suchmaschine stehen, welche Verzeichnisse oder Dateien nicht indiziert werden dürfen.

Beispiel 1

Jeder Robot darf alles durchsuchen, außer /cyberworld/map/, /tmp/ und die Datei foo.html direkt im Hauptverzeichnis Ihres Web-Servers.

User-agent: *
Disallow: /cyberworld/map/
Disallow: /tmp/
Disallow: /foo.html

Beispiel 2

Kein Robot darf /cyberworld/map/ durchsuchen - Nur der Robot "cybermapper" darf das. User-agent: *

Disallow: /cyberworld/map/
User-agent: cybermapper
Disallow:

Beispiel 3

Kein Robot darf Ihren Server durchsuchen.

User-agent: *
Disallow: /