@Michael:
QUOTE Ich möchte euch eigentlich dazu ermutigen, den Kopf nicht in den Sand zu stecken, da ihr eben letztlich nicht von Google abhängen wollt und jetzt die Initiative für noch mehr Unabhängigkeit zu starten.
Wir stecken den Kopf schon nicht in den Sand. Genau diese einseitigen Abhängigkeiten sind im Online-Business sehr gefährlich. Risikostreuung ist das Stichwort.
@unique:
QUOTE Zu deinem Test mit ayom.com in der URL: Hast du die Testseite ordentlich verlinkt oder nur aus diesem Forum hier?
Ja, wurde wie alle anderen Testdomains verlinkt, die innerhalb von 48h drin waren.
@Slomo:
QUOTE Google hat in dieser Richtung keine wirtschaftliche Motivation, also wird eine systematische Anpassung sehr lange dauern
Symptome bekämpfen mag ja kurzfristig gut sein und wäre für uns auch völlig ausreichend. Trotzdem wäre es schön, die Ursachen zu ergründen, damit evtl. alle Webmaster etwas davon haben. Alles, was wir tun können, ist Google ein freundliches Feedback zu dieser Geschichte zu geben. Was Google dann daraus macht, ist ausserhalb unseres Handlungsspielraums. Ein wirtschaftlicher Nutzen ist sicher da: Mehr Seiten im Index (d.a. mehr Objektivität), zufriedenere Webmaster, Wettbewerbsnachteil gegenüber Konkurrenz ausgemerzt u.a.
QUOTE Vielleicht werden Domains auch nicht so statisch "verbrannt", wie bisher angenommen. Möglicherweise ist es nur ein sehr träger Filter, der eine bestimmte Anzahl Crawlzyklen braucht, um gelockert zu werden.
Ja, von einer Art Trägheit gehe ich auch aus. Sollte sich dies bewahrheiten, dürfte die Frage gestellt werden, warum es einen so trägen Mechanismus braucht bzw. ob man ihn nicht optimieren könnte.
@hatschi:
QUOTE Indem man die Seite mal mit wenig Inhalt in den Index bringt bevor man das eigentliche Projekt dort ansiedelt.
Schlägst Du also tatsächlich vor, die Verwendung einer Domain von Ihrer Googletauglichkeit abhängig zu machen? Ein solches Vorgehen halte ich für sehr riskant. Im Zweifelsfall sollte auf Google verzichtet werden, bzw. sollten Alternativen ins Auge gefasst werden (wie z.B. Verwendung von AdWords, das man besser steuern kann).
@spacefun:
QUOTE Wobei meiner Meinung nach die verbrannte Domain noch lange nicht erwiesen ist.
Wissenschaftliche Beweise können wie leider nicht bieten. Empirisch spricht jedoch alles dafür.
QUOTE Ich glaube eher, das zuviele Domainnamen auf den gleichen Inhalt zielen.
Das Problem bestand schon vorher, als noch keine zusätzlichen Domainnamen auf ayom.com weitergeleitet haben.
QUOTE Er wird sich für einen Namen entscheiden - und zwar für den mit den meisten Backlinks.
Ayom.com sollte mitlerweile eigentlich schon mehr qualitativ hochwertige Links als webmasterforum.ch haben (vgl. vor allem DMOZ).
QUOTE Na ja, falls ayom.com vor der Einbindung des Forums und altem Content wirklich mit unique Content und einem Link von einer mindestens PR5-Seite während 2Wochen nicht von Google indexiert wurde, dann wäre das etwas anderes.
Es war sogar während 3 Wochen. Verlinkt wurde von mehreren PR5-Seiten (obwohl ich nicht verstehe, was der PR damit zu haben soll - relevant ist, dass die linkenden Seiten regelmässig gespidert werden).
@nobody:
QUOTE nur stellt sich für mich die frage wieso das ganze projekt dann trotzdem so schnell auf ayom.com zügeln wenn anscheinend was mit der domain nicht stimmte?
Weil wir uns sicher nicht von Google abhängig machen werden. Google war zwar in der Vergangenheit wichtig für uns, doch muss es nicht zwingend für die Zukunft sein. Wie schon mehrmals erwähnt werden wir im Zweifelsfall auf den generischen Googleindex verzichten und unserer Strategie anderweitig ausrichten.
QUOTE ich denke nich das google was an seinem algo ändern wird nur weil ayom.com davon betroffen ist
Ich gehe einfach mal arrogant davon aus, dass 100 mal mehr Leute betroffen sind, die das Problem auch kommunizieren. Aufgrund dessen wären schon mindestens 100 Websites betroffen ;-).
QUOTE hätte wenn und aber irgendeine lösung muss gefunden werden ..
Gerne nehmen wir Lösungsvorschläge auf (sprecht Euch einfach aus).
@mueret00:
QUOTE Sieht es noch einmal rein philosophisch und vergleicht die Situation mit der Evolution
Sehr schöner Vergleich. Vielen Dank dafür!
@bull:
QUOTE Verbrannt-Sein bedeutet nicht, daß der Bot nicht mehr crawlt.
Nach meinen Informationen werden auch verbrannte Domains nach einem Jahr noch komplett durchgespidert.
Meine Hypothese geht in eine ähnliche Richtung:
Der Crawler crawlt alles, unabhängig von irgendwelchen schwarzen Listen oder Filtern. Erst in der Crawlerdatenbank wird entschieden, ob die Website in die Indexdatenbanken kommt oder nicht (hier erst wird also nach meiner Vorstellung das Gecrawlte bewertet, um Ressoucen zu sparen und Informationen zu sichern).
Beste Grüsse
Remo