Krasse Abwertung in Google Serps

JoKa

Angesehenes Mitglied
Vor kurzem ist meine Seite www.shareware-hits.de bei vielen Keywords stark abgerutscht. Teilweise von einer Top10-Position auf unter 100, da hab ich dann aufgehört danach zu suchen. Ironischerweise ausgerechnet jetzt, wo ich nach etlichen Versuchen endlich ins Dmoz aufgenommen wurde
sad.gif


Gekickt wurde die Seite nicht, es gibt sogar noch (wenige) Top10-Plätze. Doorways und solche Tricks hab ich nie eingesetzt und die wenigen ausgehenden Links führen zu "sauberen" Seiten, die auch im Google-Index aufgenommen sind.

Daher frage ich mich schon, warum ich plötzlich so massiv abgestraft werde. Habe keine größeren Änderungen vorgenommen und die meisten anderen Seiten, die in den Serps mit mir gelistet wurden, haben ihre Position kaum verändert. Darum halte ich es für unwahrscheinlich, dass es an einer Umstellung des Such-Algos von Google liegt.

Auf meiner Startseite waren sehr viele Keywords in den Text eingestreut, aber keine reinen Aufzählungen und nur in Sätzen, die auch für Menschen Sinn ergeben haben
wink.gif

Habe das vorsichtshalber reduziert, kann es evtl. daran liegen?

Welche Kriterien gibt es noch, hab ich was übersehen? Ich habe nur die seriösen Tipps von Ayom eingesetzt und mich dadurch über Monate immer weiter hochgearbeitet. Möchte die ganze Aufbauarbeit jetzt nicht einfach abschreiben...
 
Mir geht es seit ein paar Tagen genauso wie dir. Stetig sind meine Seiten nach oben geklettert und vor ein paar Tagen ging es erdrutschartig in der Regel 50 Plätze und teilweise noch mehr runter. Mit vielen Keywords, die vorher auch in der Top10/Top20 waren, bin ich gar nicht mehr in der Top 100.

Leider habe ich auch keinen Plan was los sein könnte.
 
Hallo zusammen,

ich bin wohl auch betroffen. Ich war in den letzten Wochen mit einem Online-Magazin ständig geklettert und seit gestern falle ich sehr stark. Auf Abakus läuft derzeit dazu ein Beitrag.

Ich kann mir gut vorstellen, dass es an doppelten Content liegt. Ich habe ein Forum (phpbb) und dort werden durch einen nicht sonderlich guten seo-mod zu viele Seiten erzeugt, die Google spidert und sicher als doppelten Content feststellt. Ich weiche demnächst auf einen besseren Mod aus.

Ich hoffe, dass der Absturz nur von kurzer Dauer ist, zumal es wirklich die falschen trifft: etablierte Projekte, die zum Teil länger als 4 Jahre bestehen und richtig viel Content besitzen.

Grüße,
Marcel
 
Ich stelle leider seit einiger Zeit die gleiche Entwicklung bei meinen Sites fest.. habe ebenfalls nichts geändert und immer fleissig Content erstellt.

Mal schauen wie es in paar Wochen aussieht.

Gruss, Mike
 
Vielleicht hat es ja auch damit zu tun, dass Sommer ist und viele Leute in den Ferien sind.
 
QUOTE (Ivo Gasser @ Mi 6.7.2005, 17:29)Vielleicht hat es ja auch damit zu tun, dass Sommer ist und viele Leute in den Ferien sind.

Da sind wir wieder bei meinem Problem ... sehe zwar, dass es an den Regentagen wieder aufwärts geht ... war wohl zu schönes Wetter
wink.gif


http://www.ayom.com/topic-7593.html
 
Ivo:

Hier geht es ja nicht um Besuchereinbruch bei gleichbleibenden Googleranking, sondern um einen Einbruch im Googleranking. Besucherschwankungen am Wochenende und Feiertage habe ich auch ohne "schönen" Wetter.
 
@Rainer
Da hast Du natuerlich absolut recht. Mein Hirn hatte wohl einen kleinen Aussetzer.
 
Scheint einigen Seiten passiert zu sein..
Komisch ist nur, das die Analyse wohl an einem der Faktoren Links, Content oder Relevanz liegen muss..
 
Habe ich alle Urls überlesen oder gibt es nur Jokas Domain in diesem Thread?

QUOTE Ich kann mir gut vorstellen, dass es an doppelten Content liegt.

Im Falle von Joka ist das relativ offensichtlicht (wenn ich mich nicht wieder irre ;-) Ich mag Dich, lieber Kanadier, ich mag Kanadier sowieso grundsätzlich ;-)

@Joka, Ich habe 3 Seiten zufällig ausgewählt, Du warst in allen 3 Fällen hinter dem DC Filter. Wenn mehr und mehr Seiten als Replikas erkannt werden, gilts Du ab einem Punkt p als replicated Webcollection und dann Bumm... Das hat nichts mit Änderungen von Dir an Deiner Seite oder vo nG an ihrem Algo zu tun, es ist ein kontinuierliches Lernen von Google. Mit denen Infos, die ich aber bis jetzt von Deiner Seite habe ist das aber so sicher wie die Zukunft der versprochenen Demokratie im Osten...
 
David willst du jetzt Politiker werden?

Ob es im Osten nun irgendwann mal Demokratie gibt weiß keiner so genau, aber diese DC Geschichte wird langsam gefährlich. Sagt G nicht das man anderen Webseiten nicht schaden können soll? Ich kann doch jetzt beliebig Seiten wegschubsen, die mir nicht passen.
 
QUOTE Habe ich alle Urls überlesen oder gibt es nur Jokas Domain in diesem Thread?


Wir anderen trauen uns nicht.
ph34r.gif




QUOTE Komisch ist nur, das die Analyse wohl an einem der Faktoren Links, Content oder Relevanz liegen muss..


An den Links kann es bei mir wohl nicht sein. Da ich sogar Backlinks dazubekommen habe. Content ist auch plötzlich kein andere vorhanden und wird ständig ausgebaut und doppeltest gibt es meines Wissens auf gleichen Domains nicht. Relevanz .... mhh .... ich finde schon das meine Seiten in hoher relevanz zu meinen Keywords stehen.


Vielleicht ist es aber auch nur ein zeitliches Problem bei mir. Google hatte das schonmal bei mir vor glaub 2 Monaten. Hat sich dann aber wieder erholt. Google ordnet auch einige Keywords (aus Linktexten) bei mir nicht richtig zu. Das war damals auch.
 
QUOTE (Alain Aubert @ Mi 6.7.2005, 23:16) @Joka, Ich habe 3 Seiten zufällig ausgewählt, Du warst in allen 3 Fällen hinter dem DC Filter.

Ächz, was mach ich denn falsch? Das einzig gleiche auf meinen Seiten ist die Navigation in simpelstem HTML.

Ich hab schon ewig ein paar weitere Domainnamen, die direkt auf SW-Hits zeigen (z.B. 2dgames.de), aber die gehören alle zum gleichen Web-Paket und sind vom Provider direkt umgeleitet, ich kann die nicht mit Inhalten versehen, die wurden damals einfach zur ursprünglichen Domain dazu gebucht und sind nicht einzeln konfigurierbar. Da es keine eigenständigen Domains sind, sollte das doch nach wie vor ok sein?!

Ein paar alte oder gelöschte Unterseiten hab ich per 301 zur Hauptseite umgeleitet, um keine 404er zu hinterlassen und die Domain fruttifreak.de zeigt auf eine SW-Hits-Unterseite. Aber auch für die hab ich direkt beim Provider eine Umleitung eingestellt, sie hat keinen eigenen Inhalt.

Wie kann es sein, dass meine Seiten trotzdem als DC gewertet werden, ich dachte das passiert nur wenn man die gleichen Inhalte auf mehreren Domains ablegt?

Btw., wie kann ich sehen, ob meine Seiten hinter dem DC-Filter liegen, braucht man dafür spezielle Tools oder geht das irgendwo online?
 
Joka,
QUOTE Ächz, was mach ich denn falsch? Das einzig gleiche auf meinen Seiten ist die Navigation in simpelstem HTML.

Die Grundidee einer Suchmaschine ist redundanter Content zu erkennen und damit bzgl. Ressourcen und Wiederaufbereitung optimal umzugehen. Das Problem ist, dass Du für eine Maschine in diesem Fall der Mirror bist. (Zu wenig Links, die Dich referenzierenden Seiten benutzen Deinen (vollständigen) Text und verstecken die Links, Aktualisierung.) Das Problem in Deinem Fall scheint zu sein, dass alles was Du hast überall kopiert wird und Du demnach sehr viel gespiegelten Inhalt hast, und folglich ein Replika bist.


QUOTE Ich hab schon ewig ein paar weitere Domainnamen, die direkt auf SW-Hits zeigen

Mit Meta Refresh...


QUOTE Wie kann es sein, dass meine Seiten trotzdem als DC gewertet werden, ich dachte das passiert nur wenn man die gleichen Inhalte auf mehreren Domains ablegt?

Das ist der Fall, weil...


QUOTE wie kann ich sehen, ob meine Seiten hinter dem DC-Filter liegen, braucht man dafür spezielle Tools oder geht das irgendwo online?

Du nimmst einen Teil eines Textes auf deiner Seite (z.B. vom Spiel Doublez den ersten Absatz); dort bist du nicht zu finden. -> Sofern Google die Seite kennt, bist Du mit dieser Seite DC. Bestätigung: Du schaltest den Filter ab (&filter=0 in die Url) und suchst Deine Seite.

Was ich machen würde:
- Sorge dafür, dass Du auch verlinkt wirst (schwer, oft hidden links weil Technik)
- Aktualisiere Deine Seite (nicht alles aufs mal bitte, natürlich)
-> Ändere deine Texte (d.h. verbessere, modifiziere, erweitere)
- Ändere die Meta-Refreshes auf deine Seiten (Du hijackst Dich selber bei einer schwachen Seite (Früchtespiel), änderen wie folgt (siehe Weiterleitungs-Artikel z.B.):

CODE RewriteCond %{HTTP_HOST} !^www\.fruchtidingsdomain\.de/$
RewriteRule ^(.*)$ http://www.shareware-hits.de/shareware-spiele/fruttifreak.htm [L,R=301]

- Ziehe die Möglichkeit in betracht direktes Linken auf deine .exe Files zu unterbinden um die Leute zu zwingen auf deine Webseite zu linken.

Ich hab mich jetzt recht weit vorgewagt, weil mir doch alle Relevanten Zahlen fehlen. Die Seite ist auch ein schönes Beispiel für die Verlierer dieses Filters. Du leidest unter einer Nebenwirkung. Ich hab aber zu wenig gesehn um zu generalisieren, hat jemand noch mehr Beispiele...?

PS: Kann es sein, dass die Seite sehr lange nicht geupdatet wurde und Texte sobald heraufgeladen nie mehr geändert wurden?
 
Alain, vielen Dank für die ausführliche Antwort und die Tipps zum DC-Aufspüren!

Du hast Recht, die Texte aktualisiere ich nach dem Upload selten bis gar nicht. Allerdings unterscheiden sich meine Texte meist stark von den Beschreibungen, die ich in Software-Archive eintrage. Bei Deinem konkreten Beispiel "Doublez" war ich aber zu bequem...grrr
mad.gif


Ich habe jetzt 5 Seiten ausgemacht, wo ich identische oder sehr ähnliche Texte benutzt habe. Zuerst werde ich also die Refrehes und die 5 Dubletten ändern und mit der Zeit auch alle anderen Texte.

Gibt es Erfahrungswerte, wie lange eine DC-Seite braucht, um wieder zu steigen, muss ich da auch mit Monaten rechnen, bis ich aus dem Filter falle?
 
QUOTE Gibt es Erfahrungswerte, wie lange eine DC-Seite braucht, um wieder zu steigen, muss ich da auch mit Monaten rechnen, bis ich aus dem Filter falle?

Ja, und Monate sind genau die Einheit, die Dich interessiert. Es hängt einfach von zu vielen Indikatoren ab. 3,6 oder 9 Monate sind Zahlen die ein Googler mal als Beispiel genannt hat für DC, aber es hängt davon ab, was sonst noch an Problemen vorhanden sind. Aber Deine Seite ist klein, und ich sehe wenig mehr Problempotential also kann es schnell gehen.

Aufgrund den letzten Abwertungen und den vielen alten Seiten die es getroffen hat ist es naheliegend, dass Aktuallität vs. Stabilität eine Rollte spielt. D.h. es gibt Bereiche in denen sind die niemals geupdateten Seiten die besten (z.B. Linux Befehl Manual Page) und Bereiche in denen die aktuellsten Seiten die bedeutensten sind (z.B. News etc.).

Ich habe Seiten gesehen, die en-block aus dem Filter gehüpft sind und solche die sich erst nach langen Bemühungen mit wenigen Seiten wieder in die SERPs schleichen liessen. Ich denke auch, dass es nicht unerheblich ist wei lange die Seite bei Google schon als replica Collection gilt (d.h. nahezu alle Seiten DC).

In deinem Fall ist das Problem, dass Du für einen Algo eher schwer von den Pseudosuchmaschinen zu unterscheiden bist. Das ist offensichtlich eine IR Schwäche, den Ursprung zu bestimmen.
 
Bei gugl habe ich erst einmal die Meldung doppelter Content in einem Suchergebnis gesehen und folgerte daraus, dass Seiten mit doppeltem Content auch als solche in den Suchergebnissen ausgewiesen werden.
 
@Tuemmel, ich hab das jetzt nicht verstanden.

Siehe auch http://www.abakus-internet-marketing.de/fo...ic/t-15896.html, der Herr scheint dasselbe Problem zu haben wie Joka. Ich muss zugeben, das nur kurz angeblinzelt zu haben, möchte aber jeden Interessierten dazu auffordern einen beliebigen Satz einer beliebigen Seite zu kopieren und in Google dannach zu suchen. Es ist offensichtlich, dass die Texte auf seiner Seite sehr breit verwendet werden. Es ist ausserdem faszinieren, was Google bis anhin zum Thema Duplicate Content leistet. Verzeichnisse, die sich nicht bemühen eigene Formulierungen zu benutzen, werden wohl unter die Räder kommen.
Pro memoria: Pseudosuchmaschinen haben Google Aufmerksamkeit erhaschen können (kein Wunder). Diese kopieren immer Text von verschiedenen Webseiten. Die im Abakus-Tread angesprochene Seite (sowie Deine, @Joka) ist für eine Maschine ebendies.

Ich denke spätents jetzt ist auch dem Hinterletzten klar, dass Ausrichtung auf den Kunden mittels gutem Content von den Suchmaschinen belohnt wird. Letztlich ist das Endziel einer Rankingfunktion Webseiten aufgrund ihrer Nützlichkeit für den Besucher in eine Reihenfolge zu bringen. Wieso also versucht jeder "Google zu bescheissen" anstelle von dem Kunden das zu bieten, was auch Google sehen will? (rethorische Frage, ich gebe zu, es hat lange genug funktioniert und ist immernoch manipulierbar.)

Ich bitte nochmals Betroffene mir ihre Domains zu nennen.

PS: Ich möchte aber nocheinmal darauf hinweisen, das es i.d.R. nicht einzelne Merkmale sind, die entscheiden. Ein Beispiel aus dem Alltag:
Deine Freundin ist sauer, weil Du den Klodeckel obengelassen hast. Ist das wirklich der Kerngrund oder liegt es daran, dass Du ihr seit Monaten keine Blumen mehr gebracht hast, die Reste von Deinem Abendessen im Wohnzimmer liegen gelassen hast, dann die Zahnpastatube unsachgemäss malträtiert und schlussendlich (ohne Dich zu setzen) den Klodeckel oben gelassen hast? Frag Dich selber.
 
QUOTE (Tuemmel @ So 10.7.2005, 8:13) Bei gugl habe ich erst einmal die Meldung doppelter Content in einem Suchergebnis gesehen und folgerte daraus, dass Seiten mit doppeltem Content auch als solche in den Suchergebnissen ausgewiesen werden.

Mein Klodeckel ist sauer, weil ich meine Freundin oben gelassen habe.

Ist denn das so schwer zu verstehen?

Dem Suchresultat "doppelter Content" zufolge, nahm ich an, dem Webadmin sollte zumindest der Hinweis auf doppelten Content seiner Seiteninhalts gegeben werden, sodass er dieses dann ändert. Häufig steckt ja gar keine trickreiche Absicht sondern Unwissenheit hinter doppeltem content. Einmal ist mir so ein Hinweis in den Suchresultaten aufgefallen.
 
Zurück
Oben