"Grundlegende" Sitemap - Nachteile?

André Griepenburg

Legendäres Mitglied
Hallo,

ich habe bemerkt, dass Google nicht alle Seiten von uns vernünftig indexiert.
Nun hatte ich mir überlegt eine "grundlegende" Sitemap anzulegen, die zwar nicht zu jeder Unterseite führt, aber zumindest auf die Grundsätzlichen Bereiche hinführt.
So könnte ich die Sitemap bei etwa 1000-2000 Links halten und relativ einfach aktualisieren.

Nun habe ich jedoch ein paar Fragen dazu, und hoffe ihr könnt mir hier mit euren Erfahrungswerten weiter helfen.
1) Bestraft google unvollständige Sitemaps, z.B. indem Seiten aus dem index fliegen, die nicht auf der Sitemap sind?
2) Folgt google den Links, die von den auf der Sitemap angegebenen Seiten wegführen?
3) Was wäre für dieses Vorgehen besser? HTML Sitemap oder Sitemap nach dem Standard (XML)?


Danke für eure Hilfe,

LG
André
 
Ich muß gestehen, ich weigere mich hartnäckig, eine Sitemap zu verwenden.

Mein Job ist es, dafür zu sorgen, daß alle Seiten erreichbar sind - der Job der Sumas ist es, die ihnen genehmen Seiten zu spidern und sie zu indizieren. Ich sehe nicht ein, weshalb ich mir da noch zusätzliche Arbeit machen soll.

Und wenn bei dir jetzt Seiten nicht gespidert werden, die erreichbar sind, dann sind deine eingehenden Links zu schwach und / oder einige Seiten zu ähnlich. Aber bei großen Portalen / Foren, bei denen täglich Neues dazukommt und die bsp. Nutzerprofile und eine gewisse Quote von inaktiven Nutzern haben, ist so etwas ohnehin zu erwarten - die fransen hinten immer aus.
 
QUOTE Mein Job ist es, dafür zu sorgen, daß alle Seiten erreichbar sind - der Job der Sumas ist es, die ihnen genehmen Seiten zu spidern und sie zu indizieren. Ich sehe nicht ein, weshalb ich mir da noch zusätzliche Arbeit machen soll.


Bist Du also auch der Ansicht, daß die entsprechende Zusammenarbeit mit Google-Sitemap in den Webmastertools nichts Wesentliches bringt?
 
QUOTE (- Matthias - @ So 13.5.2007, 19:21)Bist Du also auch der Ansicht, daß die entsprechende Zusammenarbeit mit Google-Sitemap in den Webmastertools nichts Wesentliches bringt?

Ich habe keine Erfahrung mit den Dingern, weiß von daher auch nicht, was mir alles entgeht
biggrin.gif


Die Hinweise zur robots.txt oder zur Standarddomain (die ich so vom Hörensagen her kenne), sind für unerfahrene Webmaster sicher hilfreich, ich brauche das nicht.

Das Problem ist grundlegend: Die Frage, wieviele Seiten einer Domain gespidert werden und wieviele davon mit welcher Bewertung im Index ausgegeben werden, ist grundlegend für die Arbeit einer Suma. Und deshalb macht es für eine Suma nur wenig Sinn, alles zu fressen, was ihr ein Webmaster per Sitemap unterjubeln will - weil das den eigenen Algorithmus konterkarieren würde.

Wenn damit Seiten per Xml-Sitemap zusätzlich reinkommen, die davor nicht drin waren, dann dürften sie trotzdem keine wesentliche Rolle spielen, also nicht vorne erscheinen. In diesem Sinne ist es nur etwas fürs Ego des Webmasters: 'Bei mir sind alle Seiten indiziert'.

Und die Html-Sitemap hat für mich den Nachteil, daß ich sie zum einen nicht brauche, weil bei mir ohnehin jedes Unterverzeichnis in sich komplett verlinkt ist und sie zum anderen die Hierarchie der Domain nivellieren würde. Das will ich nicht - also baue ich auch keine Html-Sitemap.
 
Das ist eine interessante These, über die sich wirklich nachzudenken lohnt. Wenn man Deine Argumentation umsetzt, spart man viel Zeit, denn das ganze Webmastertoolzuges hält ganz schön auf, wenn man einige Dutzend Seiten hat.
 
ich denke mal, Sitemaps bringen relativ wenig.
Habe da schon ein paar Versuche durchgeführt, hat aber so gut wie nichts gebracht.
 
mhh,
danke für eure Meinungen zu diesem Thema.
ich war bisher der Ansicht, dass die Sitemaps relativ hoch gewichtet werden. Schön, dass es doch noch nicht soweit gekommen ist
wink.gif
 
Ich verwende schon eine Sitemap. Diese schreibe ich in HTML und es werden nicht alle Seiten eingestellt. Nur die wichtigsten.
 
QUOTE (kivat @ Mo 14.5.2007, 14:42) es werden nicht alle Seiten eingestellt. Nur die wichtigsten.

Und konntest du einen Effekt feststellen?
Also irgendeine positive/negative Veränderung?
 
also ich war ja auchmal so weit wie du und wollte das testen und wissen und dann hab ich mir paar sitemaps für www.felix-eckerle.de erstellt..

hier sind die:
http://www.felix-eckerle.de/sitemap.xml
http://www.felix-eckerle.de/sitemap.rss
http://www.felix-eckerle.de/sitemap.html
http://www.felix-eckerle.de/sitemap.txt

jede einzelne UnterSeite von felix-eckerle.de verlinkt auf diese sitemaps..
Ob das jetzt wirklich was gebracht hat weiß ich nicht, aber ich hatte das Gefühl, dass meine ganzen UnterSeiten paar Tage schneller drin waren und der Spider öfter vorbei kam. Aber das kann auch an was anderem liegen, da ich ziemlich viel an der Page gemacht habe. An deiner Stelle würde ich aufjedenfall mal paar Sitemaps erstellen, Nachteile gibt es auf keinen Fall, soviel ist sicher
biggrin.gif


Gruss Felix


Achja wenn du so ne Page wie www.linkdirectory24.de hast brauchst keine Sitemap, da verlinkt sowieso alles untereinander..
 
1) Bestraft google unvollständige Sitemaps, z.B. indem Seiten aus dem index fliegen, die nicht auf der Sitemap sind?
In der Anfangszeit der XML-Sitemap ist es vorgekommen, das Google erstmal alle Seiten aus dem Index genommen hat und danach (teilweise erst 4 Wochen später) die Seiten aus der Sitemap übernommen hat. Die Zeiten sind glücklicherweise vorbei. In der Zwischenzeit macht Google keine Generalbereinigung und auch Seiten, die nicht in der Sitemap vorhanden sind, werden normal indiziert.

2) Folgt google den Links, die von den auf der Sitemap angegebenen Seiten wegführen?
Jupp

3) Was wäre für dieses Vorgehen besser? HTML Sitemap oder Sitemap nach dem Standard (XML)?
lt. meinen Erfahrungen: XML-Sitemaps

Der Vorteil der (XML-)Sitemaps besteht lt. meinen Erfahrungen hauptsächlich darin, das man auch bei schwächeren Seiten die Einzelseiten im 1.000-Pack in den Index gedrückt bekommt. Besteht das Projekt nicht gerade aus zig 1.000 Seiten, dann ist ein einigermaßen starker Link auf die Seite effektiver.
 
Sitmaps bei Google sind sehr wichtig und hat keine Nachteile sondern nur Vorteile, neue Seiten von mir sind meist schon nach 2-3 Tagen im Index ohne SItemap hat das immer min ne woche gedauert. Ich nutze die XML-Sitmaps
 
So, einiges an Zeit vergangen und ich beschäftige mich wieder mit dem Thema.
Habt ihr inzwischen neue Erkenntnisse?
Wie bekomme ich am Besten große Seiten (>250.000 Pages) in den Index?
Derzeit werden nur ca. 10% angezeigt bzw. Google spricht von rund 10% gefundenen Seiten.

Die Frage ist nun halt, ob ich z.B. >200 Sitemaps erstellen soll, je mit 1000 Links?
Oder eher nur 10 Sitemaps mit Links zu den "wichtigsten" Punkten, sodaß sich google & co von dort ausgehend den rest suchen können?
 
Moin André,

QUOTE
Derzeit werden nur ca. 10% angezeigt bzw. Google spricht von rund 10% gefundenen Seiten.



In den WMT oder über die site: Abfrage? Letztere ist seit ca. 6 Monaten nicht mehr vernünftig zu gebrauchen - ähnlich vernebelt wie schon seit je die link: Abfrage.

Ich fahre bei einem Projekt auch ohne Sitemap gut, Google kennt eine 8-stellige Anzahl interner Links von einer Million internen Quellen ... dafür arbeitet der Spider auch tagtäglich fleißig
smile.gif


Um die Seite besser in den Index zu bekommen, brauchst Du weniger eine Sitemap, sondern einfach gute Backlinks und eine gute Seitenstruktur (Tiefe der Ebenen, etc.).

Andererseits denke ich, dass es auch nicht unbedingt lohnenswert ist, für jedes einzelne Partybild die Unterseiten URL in Google zu haben. Wichtiger sind doch letztlich die Einstiegspunkte (Galerie Party soundso, etc.) und wie die bei Google auftauchen.

Wirklich alle URLs in den Index puschen müssen eh nur die Preisvergleiche und Produktsuchmascchinen (Einstiegsseite: konkretes Produkt), die ja einen riesigen Longtail abgrasen.
 
Hmm, ich nutze immer noch XML-Sitmaps und der Effekt ist das neue Seiten schon nach ein paar Stunden im Index sind. Und stimmt laut site: sind nur 348 Seiten im Index, aber laut Google-Sitemap 1100+.
 
QUOTE (Christian_ @ Do 16.09.2010, 12:55) Um die Seite besser in den Index zu bekommen, brauchst Du weniger eine Sitemap, sondern einfach gute Backlinks und eine gute Seitenstruktur (Tiefe der Ebenen, etc.).


Dem Kann ich mich nur anschließen. Was du machen kannst, ist eine "externe Sitemap" und dort Backlinks drauf setzen.
 
Danke für eure Erfahrungen.
Der Google Bot ist, nach dem Slurp, der aktivste bei mir.
Neue Inhalte sind i.d.R. sehr schnell im Index.
Verwirrt hat mich aber eben die Suche mittels "link" und "site", aber auch der Fakt, dass ein Google Alert auf meine eigene Seite pro Woche (!) nur 2-3 neue Ergebnisse liefert. Da war ich doch sehr enttäuscht.

Also lieben Dank für die Hilfe.
 
Zurück
Oben