Michael Hierweck
Aktives Mitglied
Hallo,
bei einem von uns betreuten Internetangebot ist es so, dass der Traffic erheblich schneller wächst als der Besucherstrom. Eine Analyse über die vergangenen Wochen ergab:
Das Angebot weißt (per Zählpixel/Cookie) etwa 1.000 Besucher mit 2.200-2.500 Seitenabrufen täglich aus. Hinzu kommen noch im Mittel 2.500 Seitenabrufe durch Googlebot und sage und schreibe rund 15.000 Seitenabrufe durch Yahoo Slurp! pro Tag. Tendenz seit Wochen steigend.
Wir freuen uns natürlich darüber, dass uns die Suchmaschinen mögen. Keine Frage.
Aber: insgesamt etwas mehr 20.000 Zugriffe durch Robots, das ist Faktor 10 gegenüber den menschlichen Zugriffen, stellen doch Probleme dar. Vor zwei Monaten war es noch Faktor 3-4. So lässt die Performance der Website gerade in der vergangenen Woche messbar (gemessen mit ab (Apache Benchmark)) nach, was mit einen Rückgang der menschlichen Seitenabrufe einher geht.
Wären die Zugriffe menschlicher Natur, könnten wir ohne mit der Wimper zu zucken technisch aufrüsten, um die Performance wiederherzustellen... Leider bringt Robot-Traffic allein kein Geld.
Selbst wenn wir keine Lösung finden, würde ich das Thema, was ich auch "an sich" für interessant halte, gern diskutieren.
Beste Grüße
Michael
bei einem von uns betreuten Internetangebot ist es so, dass der Traffic erheblich schneller wächst als der Besucherstrom. Eine Analyse über die vergangenen Wochen ergab:
Das Angebot weißt (per Zählpixel/Cookie) etwa 1.000 Besucher mit 2.200-2.500 Seitenabrufen täglich aus. Hinzu kommen noch im Mittel 2.500 Seitenabrufe durch Googlebot und sage und schreibe rund 15.000 Seitenabrufe durch Yahoo Slurp! pro Tag. Tendenz seit Wochen steigend.
Wir freuen uns natürlich darüber, dass uns die Suchmaschinen mögen. Keine Frage.
Aber: insgesamt etwas mehr 20.000 Zugriffe durch Robots, das ist Faktor 10 gegenüber den menschlichen Zugriffen, stellen doch Probleme dar. Vor zwei Monaten war es noch Faktor 3-4. So lässt die Performance der Website gerade in der vergangenen Woche messbar (gemessen mit ab (Apache Benchmark)) nach, was mit einen Rückgang der menschlichen Seitenabrufe einher geht.
Wären die Zugriffe menschlicher Natur, könnten wir ohne mit der Wimper zu zucken technisch aufrüsten, um die Performance wiederherzustellen... Leider bringt Robot-Traffic allein kein Geld.
Selbst wenn wir keine Lösung finden, würde ich das Thema, was ich auch "an sich" für interessant halte, gern diskutieren.
Beste Grüße
Michael