Selber Content unter mehreren URLs

Sandro Feuillet

Legendäres Mitglied
Hi SEOs, habe da ne Frage

Ich habe für einen Kunden einen Künstlerkatalog erstellt.
Habe dabei sehr auf SEO geachtet.

Ich habe urls im folgenden Schema:

www.domain.ch/katalog/kategorie1/subkategorie1/1-2-3-kuenstlername.html

aber der selbe künstler kann in bis zu 4 verschiedenen kategorien sein, also auch

www.domain.ch/katalog/kategorie2/subkategorie3/1-2-3-kuenstlername.html

und enthält dann exakt den selben content. wird das als doppelter content betrachtet? oder schlimmstenfalls gar geckickt?

gruss sandro
 
Im schlimmsten Fall wird der Künstler nur einmal indiziert und die weiteren Kategorien nicht. Eine Abstrafung würde ich deswegen nicht erwarten, auch wenn die Seiten 100% identisch wären. Falls die Pages nicht 100% identisch sind, sehe ich kaum Probleme.
 
Kann Remo eigentlich nur zustimmen.
Ist das nicht hinsichtlich Änderungsdienst etwas aufwendiger als wenn es die Datei nur einmal gibt und dahin gelinkt würde?
 
Wie meinst du Änderungsdienst? es ist ähnlich eines Business Directory, und da kann ja ein Zahnarzt auch auswählen unter Z wie Zahnarzt und H wie Huber (wenn er huber heist) das ist bloss eine Metainformation des Eintrags.

Es gibt die Datei (den Datensatz) bloss einmal, er wird halt bloss unter mehreren Kategorien (H + Z) gelistet. Die urls generiere ich per rewrite/script

Gruss Sandro
 
Die Dosis macht das Gift. Wieviele der Künstler kommen denn in mehereren Kategorien vor?

Solltest du zu viele Doubletten produzieren ist es sehr wohl möglich, dass Google irgendwann keinen Bock mehr hat deine Seite zu spidern und zu indizieren. Ich rate dir stark von einem solchen Vorgehen ab.

Ich würde es technisch so lösen, dass man jedem mehrere Kategorien zuteilen kann, aber dass immer auf die Hauptkategorie gelinkt wird. Dann musst du aber relativ intelligente Navigationsleisten haben, die verstehen wo der User hergekommen ist. Oder du verbietest Google die indizierung von allen Doubletten.
 
Hallo,

ich glaube Remo liegt ganz richtig. Allerdings würde ich vorsichtig mit Indizierungsverboten sein. Denn ich glaube damit habe ich Slurp schonmal von einer Domain vertrieben, obwohl nur bestimmte Seiten gezielt mit "nocache","nofollow" und "noindex" markiert waren. Allerdings hat die betroffene Site keinen URL-Rewriter gehabt. Aber man muss ja nicht unnötig mit dem Feuer spielen. Vielleicht hat Remo ja auch andere Erfahrung, würde mich auch interessieren.

Mach es doch am besten so, dass die Seiten einfach nicht gleich sind: Wenn es sich um unterschiedliche Bereiche des Verzeichnisses handelt, könnte z.B. eine Vorschau auf benachbarte Einträge diesen Eindruck erwecken. Damit hast Du außerdem eine schöne Themenrelevanz und unauffällige interne Querverlinkung.

Gruß, SloMo

PS: Bin neu hier und werde mich wenn's Recht ist in Zukunft gelegentlich mal zu Worte melden. Ist halt einfach das einzig brauchbare SEO-Forum im deutschsprachigen Raum.
 
Hm, Mein Problem ist halt, dass dies ein Künstlerkatalog ist, und es gibt halt so vielfältige künstler, die passen nicht in bloss eine Rubrik. Jetzt habt ihr mich wirklich verängstigt.

Die URLs unterscheiden Sich folgendermassen:
/verzeichnis/Kunstler-und-Artisten/Ballonkunstler/7-5-0-5-0-Florin-&-Cato.html
aber derselbe künstler möchte auch gelistet werden bei Magier, weil er halt beides macht, die url sieht dann so aus:
/verzeichnis/Kunstler-und-Artisten/Magier/7-3-0-5-0-Florin-&-Cato.html
der vorschlag einer weiterleitung bringt mich jetzt zum verzweifeln, weil, wohin soll ich das weiterleiten? es wird ja einfach bloss pro künstler ein datensatz abgerufen... *sehrverwirrt*

hat google einen support, welcher mir eine solche frage im vorhinein beantworten würde? das ganze projekt wurde nur wegen suchmaschinenmarketing überhaupt aufgegleist, da wär es eine katastrophe wenn das nun deswegen gekickt wird...

Gruss Sandro
 
QUOTE es wird ja einfach bloss pro künstler ein datensatz abgerufen... *sehrverwirrt*

Die Methode der Weiterleitung ist für SEO optimal, nicht aber für Benutzer. Du musst aus dem Datensatz eine Kategorie auswählen (wie wärs mit der ersten), auf diese wird immer gelinkt (achtung, die Zahlen müssen gleich sein), angezeigt wird der Link aber in allen Kategorien des Datensatzes.

Für den User ist es irritieren, wenn dann in der Adresszeile plötzlich Magier anstelle von Ballonkünstler steht. Das kannst du mit einer intelligenten Navigationsleiste beheben.

Die frage ist immernoch nach der Dosis. Eine Seite, die jede Unterseite vierfach unter verschiedenen Urls im Index hat wird Probleme bekommen.
Wenns dann doch nur ein paar sind, fällt es nicht auf.
 
QUOTE Hm, Mein Problem ist halt, dass dies ein Künstlerkatalog ist, und es gibt halt so vielfältige künstler, die passen nicht in bloss eine Rubrik. Jetzt habt ihr mich wirklich verängstigt.

Ich würde ein paar Schritte zurücktreten. Google wird m.E. sicher nicht die gesamte Domain abstrafen, sondern höchstens die einzelnen Duplikate. M.E. sind auch keine komischen Meta-Tag-Verbots-Konstruktionen nötig, noch eine Weiterleitungs-Konstruktion wie es Alain aus SEO-Sicht vorschlägt.

Bau einfach eine Seite, die Deinen Besuchern den meisten Mehrwert bringt und versuche wo immer es geht, die Google-Richtlinien nicht zu verletzen. Und auch wenn die Richtlinien tangiert werden, gehen m.E. die Besucher vor (wie bei "form follows function" gilt "search engines follow human beings"). Suchmaschinen sollten intelligent genug sein, um damit umgehen zu können.

Ich würde mir keine zu grossen Sorgen machen und die Suchmaschinen nicht übergewichten.

Gruss, Remo
 
QUOTE Eine Seite, die jede Unterseite vierfach unter verschiedenen Urls im Index hat wird Probleme bekommen. Wenns dann doch nur ein paar sind, fällt es nicht auf.


Das macht mir jetzt etwas Angst. Ich habe demnächst das gleiche Probleme. Allerdings kommt es bei mir sogar noch öfters vor und auch in ziemlich großer Menge. Im Verhältnis zu den restlichen Datensätze werden diese ca. 5 % (ohne die Duplikate ausmachen) ausmachen.




QUOTE Bau einfach eine Seite, die Deinen Besuchern den meisten Mehrwert bringt und versuche wo immer es geht, die Google-Richtlinien nicht zu verletzen. Und auch wenn die Richtlinien tangiert werden, gehen m.E. die Besucher vor (wie bei "form follows function" gilt "search engines follow human beings"). Suchmaschinen sollten intelligent genug sein, um damit umgehen zu können.

Ich würde mir keine zu grossen Sorgen machen und die Suchmaschinen nicht übergewichten.


Ich werde wohl einfach bei meinem Vorhaben bleiben. Google hat halt damit zurecht zu kommen. Wenn ich sehe, daß Google manchmal sogar Reflinks von Superclix von mir im Index hat.
wink.gif
 
Da würde ich mir auch keine Sorgen machen. Seid froh, wenn Google die Doubletten erkennt und entsprechend in seinen Index aufnimmt. Das ist viel besser, als wenn Google jede Doublette einzeln verzeichnet, aber nach der Hälfte wegen Spam aufhört.

Allerdings sollte man vielleicht bei so kopflosen Parameterlisten auf Rewrite verzichten. Das macht dabei absolut keinen Sinn mehr, oder?

Wenn die Seiten für Besucher/Anwender sinnvoll sind, wird Google damit auch etwas anfangen können. Das ist deren Job.
 
Zurück
Oben