robots.txt - alles sperren ausser eine Datei?!

HPI-Service

Aktives Mitglied
Hallo,

ich möchte gerne alles für die Spider sperren bis auf die Startseite. Stehe gerade ne bisschen auf ne Schlauch, wäre das so richtig?

CODE User-Agent: *
Disallow: /
Allow: /index.html


Danke für Eure Hilfe.

Gruß
Mirko
 
wenn ich die robots.txt so gestalte wie ich angegeben hatte und das tool rüberlaufen lasse meckert er das man nicht eine einzelne datei per "allow" zulassen kann.

muß ich jetzt wirklich jede Datei/Ordner per "disallow" sperren ausser die eine die erlaubt sein soll? wäre ne menge arbeit. geht das wirklich nicht alles zu sperren ausser eine datei?

gruß
mirko
 
QUOTE (HPI-Service @ Mi 20.06.2007, 11:59)muß ich jetzt wirklich jede Datei/Ordner per "disallow" sperren ausser die eine die erlaubt sein soll?

Kurze Antwort: Ja.

Alternative: Verschiebe alles eine Ebene tiefer in einen Ordner und sperre diesen. Oder kennzeichne alle Dateien außer der Startseite mit noindex.
 
danke nochmal für die bestätigung das es wirklich so umständlich gemacht werden muss
wink.gif


ein verschieben in einen unterordner geht nicht da ich sonst die komplette sitestruktur ändern muß was bei 50-100 dateien sehr umständlich ist
sad.gif


gruß
Mirko
 
Zurück
Oben