Regelmässige Besuche der Bots

C

Chaim

Guest
Hallo!


Ich würde gern wissen, wovon es abhängig ist, wie oft ein Suchmaschinenbot eine Seite wieder und wieder besucht.
Ich habe bsp. eine Page, die etwa jeden 2 Tag Besuch bekommt, daher sind die Inhalte im Cache von Google immer relativ aktuell.
Und eine andere die nur etwa jede Woche besucht wird.
Mir wäre es natürlich lieber, wenn jede meiner Seiten jeden bis jeden zweiten Tag besucht wird, damit insbesondere aktuelle Artikel sofort im Suchindex landen und nicht erst eine Woche später (wenn sie nicht mehr aktuell sind...)

Im Internet hab ich da schon einen Metatag gefunden, aber wenn ich mich richtig erinnere, gab es zu diesem Tag mal eine Diskussion mit dem Ergebnis, dass er nicht funktionieren solle...
Gemeint ist dieser hier:
"<meta name="revisit-after" content="1">" (hier ein link zu diesem tag: http://www.ranking-abc.de/metatags.html)

Kann es sein, dass Suchmaschinen es von den Backlinks abhängig machen, wie oft sie meine Seite(n) besuchen? In Anbetracht der Tatsache, dass ein Bot beim Spidern des Webs ja alle möglichen Links verfolgt, müssten doch Seiten mit mehreren Tausendbacklinks viel öfter Besuch erhalten, als Seiten mit nur einigen Hundert Links...?
Nur das komische ist, die Seite, die öfters besucht wird hat nur etwa ein drittel Backlinks von der Page die einmal pro woche besucht wird
huh.gif



Wer weiß rat?

Danke im voraus
Chaim
 
Wenn das jemand wüßte, würden alle Webseiten darauf ausgelegt sein. Es sind fast dauerhaft zwischen 2 und 10 Bots online.
 
hmm...
ich würde mal "spontan" auf folgende Kriterien tippen:

- Aktualität der Seite (wie oft ändert sich der Content?)
- Einstellung in der robots.txt (yahoo und andere) bzw. in den Webmaster Tools (google)
- Linkstruktur
- "Wichtigkeitsfaktor" der Seite, z.B. Pagerank, Alexarank
- Wie häufig kommen "Anfragen" für AdSense, Google Suche oder ähnliches von deiner Seite
- u.s.w.
 
Mir fallen drei externe Kriterien ein:

Zahl
Stärke
Verteilung

der eingehenden Links. Wenn bsp. Unterseiten eigene eingehende Links haben, dann werden diese auch gleich direkt besucht, also über die Links von außen (und nicht bloß über die Links von der Startseite) gefunden.

Dann ist noch die Änderungsrate wesentlich - ändert man lange nichts, wird google träger, überprüft aber die Seiten mit eingehenden Links trotzdem häufig.

Deine schwächere Seite wird entweder dynamisch sein (keinen 301 liefern), jünger oder sie wird stärkere Backlinks haben. Wahrscheinlich könnte es auch eine Rolle spielen, ob google den Content als 'wichtig' einstuft, ob diese Informationen unique sind oder ob es sie noch auf anderen Domains gibt.
 
Danke für eure Antworten.


jAuer, das ist ja gerade das komische...
meine "schwächere" Seite ist älter (besteht seit 2003, wird seit 2006 wieder genutzt) und wies zu dem Zeitpunkt, als ich das festgestellt habe mehr Backlinks auf (inzwischen hat die neue Seite, die ältere fast eingeholt) und hat einen höheren Pagerank. Außerdem ist die "schwächere" bis auf ein kleines Newsscript statisch und die "stärkere" zu 80% dynamisch.

Ich denke mal, dass es - wie ihr schon angesprochen hattet - daran liegt, dass der Content in unregelmässigen Abständen geupdatet wird und sich auf der Startseite teilweise auch mal 2 Wochen nichts tut.
 
Zurück
Oben