Seit gestern aus Google weg

QUOTE (Dieter @ Di 29.04.2008, 11:14)werde ich mich dann wieder von ganz hinten nach vorne kämpfen müssen oder schubst mich g....e automatisch nach vorne??

Wenn der Link für den Penalty verantwortlich war, Du aber den Link (also die Ursache) jetzt entfernt hast und da der Penalty noch ganz frisch war (Du also relativ schnell reagiert hast), kann es durchaus sein, daß Du nach einer Karenzzeit von 30 Tagen an alter Stelle erscheinst - als ob nichts gewesen wäre (cooler Satz
laugh.gif
- ging irgendwie nicht anders).

Ich habe noch keine eigene Erfahrung mit so einem Penalty, habe aber ein solches Szenario schon öfters gelesen.

Und komplett tot bist Du ja noch nicht, sonst würde site: überhaupt nichts mehr listen. Es gibt ja auch Domains, die von heute auf morgen komplett raus sind und auch seither draußengeblieben sind.

Wenn man sehr viele Seiten ändert, dann kann man - je nach Stärke der Domain - einmal für ein paar Tage absacken. Aber das hier ist schon heftiger, das ist nicht bloß eine Neuberechnung.

In so einem Fall würde man bei der Suche nach "www.domain.de" bsp. an dritter oder zehnter Stelle erscheinen.
 
Frage:

Und wenn der Link für den Penalty NICHT verantwortlich war?
 
Du kannst via Google Webmaster Tools eine "Reinclusion" anfordern und auf eine Reaktion warten. Diesbezüglich würd ich dir eine Sitemap ans Herz legen und diese via GWT einbinden (zusätzlich in der robots.txt). Auf den revisit-after und den reply-to kannst du gänzlich verzichten
smile.gif
 
QUOTE (Dieter @ Di 29.04.2008, 20:09) Und wenn der Link für den Penalty NICHT verantwortlich war?

Eventuell auch nur ein kleiner schluckauf und in ein paar Tagen ist deine Page wieder da. Da gerade ein TBPR update läuft, wäre auch möglich das G auch gleich ein paar größere neubewertungen und Serp anpassungen durchführt/experimentiert.
 
Nach meiner Erfahrung kann das alles bedeuten von:

a) Kleiner Schluckauf ... nach ein paar Tagen bist du wieder gleich gut gelistet
b) Google hat deine Seite neu bewertet und stuft sie nun als sehr unwichtig ein
c) Vorstufe des totallen Kick-Outs aus Google
 
Bei mir verändert sich bei allen Seiten die Länge des grünen Balkens. Vielleicht hat es ja auch damit zu tun?

Sylvia
 
@ Rainer

QUOTE c) Vorstufe des totallen Kick-Outs aus Google


Erfährt man auch den Grund dafür??
 
Habe gerade mal die G....le Tools durchforstet.
Da meldet er mir folgendes:

Nicht erreichbare URL's = 73
u.a.
http://www.toskana-terracotta.de/ robots.txt ist nicht erreichbar 12.04.2008

(robots.txt-Datei ist nicht erreichbar Vor dem Durchsuchen der Seiten Ihrer Website haben wir versucht, die Datei robots.txt zu überprüfen, um sicherzustellen, dass wir keine Seiten durchsuchen, die Sie durch robots.txt blockiert haben. Die Datei robots.txt war jedoch nicht erreichbar. Wir haben unser Crawling zurückgestellt, um sicherzustellen, dass wir keine in dieser Datei aufgeführten Seiten durchsuchen. Wenn dies auftritt, greifen wir zu einem späteren Zeitpunkt erneut auf Ihre Website zurück und durchsuchen sie, sobald wir die Datei robots.txt erreichen können. Beachten Sie, dass sich dies von einer 404-Antwort bei der Suche nach der Datei robots.txt unterscheidet. Wenn wir den Fehler 404 erhalten, gehen wir davon aus, dass die Datei robots.txt nicht vorhanden ist, und fahren mit dem Crawling fort.)

Habe dann mal über das G....gle Tool Robots.txt das analysieren lassen und da meldet er:
http://www.toskana-terracotta.de/ - Zugelassen
Als Verzeichnis erkannt; bestimmte Dateien weisen eventuell unterschiedliche Einschränkungen auf.

Muss ich das jetzt verstehen?

Da ich seit Dez.07 nichts an meiner Seite verändert habe, stehe ich vor einem Rätsel. Könnte das der Grund für mein Verschwinden sein?
 
QUOTE (Dieter @ Mi 30.04.2008, 04:15) @ Rainer


QUOTE c) Vorstufe des totallen Kick-Outs aus Google


Erfährt man auch den Grund dafür??

Vielleicht wenn du bei Google anfragst. Mir ist das mal mit einer Domain passiert. Erst war die super gut gelistet und brachte ca. 100 Besucher pro Tag. Dann ging es immer weiter runter und nach einigen Wochen war sie dann komplett draußen. Da war nichts verbotenes drauf, nur vielleicht etwas wenig Inhalt. Die Domain habe ich dann nach einiger Zeit gekündigt. Ich habe sie aber weiter beobachtet; nach ca. 2 Jahren ist sie erst wieder in Google reingekommen.
 
@Rainer

QUOTE Die Domain habe ich dann nach einiger Zeit gekündigt. Ich habe sie aber weiter beobachtet; nach ca. 2 Jahren ist sie erst wieder in Google reingekommen.



Na hoffentlich sind das nicht meine Aussichten......


Dann eröffne ich wohl mal schnell einen neuen Terracotta-Shop
mad.gif
 
QUOTE (Dieter @ Mi 30.04.2008, 06:41) Habe gerade mal die G....le Tools durchforstet.
Da meldet er mir folgendes:

Nicht erreichbare URL's = 73
u.a.
http://www.toskana-terracotta.de/ robots.txt ist nicht erreichbar 12.04.2008

(robots.txt-Datei ist nicht erreichbar Vor dem Durchsuchen der Seiten Ihrer Website haben wir versucht, die Datei robots.txt zu überprüfen, um sicherzustellen, dass wir keine Seiten durchsuchen, die Sie durch robots.txt blockiert haben. Die Datei robots.txt war jedoch nicht erreichbar. Wir haben unser Crawling zurückgestellt, um sicherzustellen, dass wir keine in dieser Datei aufgeführten Seiten durchsuchen. Wenn dies auftritt, greifen wir zu einem späteren Zeitpunkt erneut auf Ihre Website zurück und durchsuchen sie, sobald wir die Datei robots.txt erreichen können. Beachten Sie, dass sich dies von einer 404-Antwort bei der Suche nach der Datei robots.txt unterscheidet. Wenn wir den Fehler 404 erhalten, gehen wir davon aus, dass die Datei robots.txt nicht vorhanden ist, und fahren mit dem Crawling fort.)

Habe dann mal über das G....gle Tool Robots.txt das analysieren lassen und da meldet er:
http://www.toskana-terracotta.de/ - Zugelassen
Als Verzeichnis erkannt; bestimmte Dateien weisen eventuell unterschiedliche Einschränkungen auf.

Muss ich das jetzt verstehen?

Da ich seit Dez.07 nichts an meiner Seite verändert habe, stehe ich vor einem Rätsel. Könnte das der Grund für mein Verschwinden sein?

Also die robots.txt ist auch schon immer unverändert? Dann scheint google tatsächlich ein größeres Problem mit ihr zu haben (warum auch immer), denn von den seiten die mit dissalow aufgeführt sind, sind einige im Index.

[EDIT]
BTW ist die korrekte schreibweise um eine Datei zu sperren nicht:
Disallow: /login.php
anstatt
Disallow: login.php
also mit vorgestelltem Slash?
[/EDIT]

Wenn google dadurch sicherheitshalber annimmt das alle seiten Gesperrt sind, purzeln die natürlich alle deine Seiten nacheinander aus dem Index.

Ich würde versuchen eine neue robots.txt anzulegen, hochzuladen und die alte zu überschreiben, auch wenn die in Ordnung zu seien scheint. Zusätzlich eine XML Sitemap in den WT eintragen.


Vielleicht will dir G auch einfach das Adwords Programm etwas schmackhafter machen..
ph34r.gif
 
QUOTE Vielleicht will dir G auch einfach das Adwords Programm etwas schmackhafter machen..


Dazu habe ich im Augenblick keine Lust - obwohl, könnte ja einnetter Versuch sein, ist jameine Hauptumsatzzeit und wenn ich nicht auffindbar - kein Umsatz
mad.gif
 
Die Seite ist ohne jede Frage geflagged.

1. Löse das https Problem
2. Rede mit dem der tech. für die Webpage verantwortlich ist und scheiss ihn zusammen
2. a) Löse das HTML Tag in Title Tag Problem
2. b) Der Cache Deiner Seiten lassen auf Cloaking schliessen. Ändere das vor allem Anderen. Jetzt!
2. c) Der Link auf aranowa.de verstösst gegen die Google Webmaster Richtlinien. Entferne ihn.

Pro Memoria: 2. b)
 
Hallo Alain,
danke für die Tipps,

das habe ich nicht verstanden:

QUOTE Der Cache Deiner Seiten lassen auf Cloaking schliessen. Ändere das vor allem Anderen. Jetzt!



QUOTE Löse das HTML Tag in Title Tag Problem


Könntest Du mir das erklären? Danke im voraus

 
Lieber Dieter

Wer hat die Internetseite gemacht? Hast Du diese gemacht, bist Du der Webmaster und der Techniker? Ist das die Agentur, welche Du im Footer verlinkst?

Du identifizierst also diese Person, welche dafür verantworlich ist. Dann
QUOTE 2. Rede mit dem der tech. für die Webpage verantwortlich ist und scheiss ihn zusammen

Weiter teilst Du ihm noch

QUOTE 1. Löse das https Problem
2. a) Löse das HTML Tag in Title Tag Problem
2. b) Der Cache Deiner Seiten lassen auf Cloaking schliessen. Ändere das vor allem Anderen. Jetzt!
2. c) Der Link auf aranowa.de verstösst gegen die Google Webmaster Richtlinien. Entferne ihn.

mit und lässt Dir erklären, warum die dieses Derivat des XT Commerce Shops (?) wissen muss, wann der Googlebot kommt.
Solltest Du selber für den Webshop (also auch tech.) verantworlich sein, wird es etwas komplizierter.

Weiter sind das Probleme die mir in einer sehr kurzen Seiten-Analyse aufgefallen sind. Insb. Cloaking ist ein Problem für Google. cloaking ist zu deutsch etwa verschleiern und in diesem Zusammenhang bedeutet es, dass Du der Suchmashine (Google) eine andere Seite präsentierst als dem Besucher. Dann halten sie Dich für einen Betrüger.

Was ich damit sagen will, ist dass es möglicherweise auch Links gibt, welche von Deiner Seite oder auf Deine Seite gesetzt wurden (insb. in letzter Zeit) welche Deine Situation mitkreiert haben könnten.
 
@Alain

Dumm nur, wenn ich

cache:www.toskana-terracotta.de

aufrufe, kommt diese Meldung:

Die Webseite kann nicht angezeigt werden.

Wahrscheinlichste Ursache:
Einige Inhalte bzw. Dateien auf dieser Webseite erfordern ein Programm, das Sie nicht installiert haben.

blink.gif

 
Hi zusammen

Wäre es möglich, dass jemand einen Link mitbenutzt und umlinkt, so ähnlich wie jemand, der einen Telefonanschluss eines Nachbarn anzapft? Fiel mir jetzt nur so ein, klingt alles sehr mysteriös.
 
Hi Lynn,
dann wäre ich aber nicht bei G....e ins Nirvane verschwunden.. - ist meine Meinung, kann natürlich auch falsch liegen...
 
Zurück
Oben