Google mag ayom.com nicht

Status
Für weitere Antworten gesperrt.
Die Menschen sind kaum in der Lage, eine eigene Biosphäre zu erschaffen. Warum sollte ausgerechnet Google direkt mit einem Biotop vergleichbar sein?

Erfahrungswerte zeigen, dass bei Google sowohl Veränderung als auch Beständigkeit zum Erfolg führen kann. Gerade bei neuen Webseiten ist eine gewisse Beständigkeit häufig keine schlechte Strategie. Ich würde es eher mit dem Wetter als mit der Evolution vergleichen. Ein durch und durch chaotisches System.
 
Verbrannt-Sein bedeutet nicht, daß der Bot nicht mehr crawlt.
Nach meinen Informationen werden auch verbrannte Domains nach einem Jahr noch komplett durchgespidert.
 
@Michael:
QUOTE Ich möchte euch eigentlich dazu ermutigen, den Kopf nicht in den Sand zu stecken, da ihr eben letztlich nicht von Google abhängen wollt und jetzt die Initiative für noch mehr Unabhängigkeit zu starten.

Wir stecken den Kopf schon nicht in den Sand. Genau diese einseitigen Abhängigkeiten sind im Online-Business sehr gefährlich. Risikostreuung ist das Stichwort.

@unique:

QUOTE Zu deinem Test mit ayom.com in der URL: Hast du die Testseite ordentlich verlinkt oder nur aus diesem Forum hier?

Ja, wurde wie alle anderen Testdomains verlinkt, die innerhalb von 48h drin waren.

@Slomo:

QUOTE Google hat in dieser Richtung keine wirtschaftliche Motivation, also wird eine systematische Anpassung sehr lange dauern

Symptome bekämpfen mag ja kurzfristig gut sein und wäre für uns auch völlig ausreichend. Trotzdem wäre es schön, die Ursachen zu ergründen, damit evtl. alle Webmaster etwas davon haben. Alles, was wir tun können, ist Google ein freundliches Feedback zu dieser Geschichte zu geben. Was Google dann daraus macht, ist ausserhalb unseres Handlungsspielraums. Ein wirtschaftlicher Nutzen ist sicher da: Mehr Seiten im Index (d.a. mehr Objektivität), zufriedenere Webmaster, Wettbewerbsnachteil gegenüber Konkurrenz ausgemerzt u.a.

QUOTE Vielleicht werden Domains auch nicht so statisch "verbrannt", wie bisher angenommen. Möglicherweise ist es nur ein sehr träger Filter, der eine bestimmte Anzahl Crawlzyklen braucht, um gelockert zu werden.

Ja, von einer Art Trägheit gehe ich auch aus. Sollte sich dies bewahrheiten, dürfte die Frage gestellt werden, warum es einen so trägen Mechanismus braucht bzw. ob man ihn nicht optimieren könnte.

@hatschi:

QUOTE Indem man die Seite mal mit wenig Inhalt in den Index bringt bevor man das eigentliche Projekt dort ansiedelt.

Schlägst Du also tatsächlich vor, die Verwendung einer Domain von Ihrer Googletauglichkeit abhängig zu machen? Ein solches Vorgehen halte ich für sehr riskant. Im Zweifelsfall sollte auf Google verzichtet werden, bzw. sollten Alternativen ins Auge gefasst werden (wie z.B. Verwendung von AdWords, das man besser steuern kann).

@spacefun:

QUOTE Wobei meiner Meinung nach die verbrannte Domain noch lange nicht erwiesen ist.

Wissenschaftliche Beweise können wie leider nicht bieten. Empirisch spricht jedoch alles dafür.

QUOTE Ich glaube eher, das zuviele Domainnamen auf den gleichen Inhalt zielen.

Das Problem bestand schon vorher, als noch keine zusätzlichen Domainnamen auf ayom.com weitergeleitet haben.

QUOTE Er wird sich für einen Namen entscheiden - und zwar für den mit den meisten Backlinks.

Ayom.com sollte mitlerweile eigentlich schon mehr qualitativ hochwertige Links als webmasterforum.ch haben (vgl. vor allem DMOZ).

QUOTE Na ja, falls ayom.com vor der Einbindung des Forums und altem Content wirklich mit unique Content und einem Link von einer mindestens PR5-Seite während 2Wochen nicht von Google indexiert wurde, dann wäre das etwas anderes.

Es war sogar während 3 Wochen. Verlinkt wurde von mehreren PR5-Seiten (obwohl ich nicht verstehe, was der PR damit zu haben soll - relevant ist, dass die linkenden Seiten regelmässig gespidert werden).

@nobody:

QUOTE nur stellt sich für mich die frage wieso das ganze projekt dann trotzdem so schnell auf ayom.com zügeln wenn anscheinend was mit der domain nicht stimmte?

Weil wir uns sicher nicht von Google abhängig machen werden. Google war zwar in der Vergangenheit wichtig für uns, doch muss es nicht zwingend für die Zukunft sein. Wie schon mehrmals erwähnt werden wir im Zweifelsfall auf den generischen Googleindex verzichten und unserer Strategie anderweitig ausrichten.

QUOTE ich denke nich das google was an seinem algo ändern wird nur weil ayom.com davon betroffen ist

Ich gehe einfach mal arrogant davon aus, dass 100 mal mehr Leute betroffen sind, die das Problem auch kommunizieren. Aufgrund dessen wären schon mindestens 100 Websites betroffen ;-).

QUOTE hätte wenn und aber irgendeine lösung muss gefunden werden ..

Gerne nehmen wir Lösungsvorschläge auf (sprecht Euch einfach aus).

@mueret00:

QUOTE Sieht es noch einmal rein philosophisch und vergleicht die Situation mit der Evolution

Sehr schöner Vergleich. Vielen Dank dafür!

@bull:

QUOTE Verbrannt-Sein bedeutet nicht, daß der Bot nicht mehr crawlt.
Nach meinen Informationen werden auch verbrannte Domains nach einem Jahr noch komplett durchgespidert.

Meine Hypothese geht in eine ähnliche Richtung:
Der Crawler crawlt alles, unabhängig von irgendwelchen schwarzen Listen oder Filtern. Erst in der Crawlerdatenbank wird entschieden, ob die Website in die Indexdatenbanken kommt oder nicht (hier erst wird also nach meiner Vorstellung das Gecrawlte bewertet, um Ressoucen zu sparen und Informationen zu sichern).

Beste Grüsse
Remo
 
QUOTE Schlägst Du also tatsächlich vor, die Verwendung einer Domain von Ihrer Googletauglichkeit abhängig zu machen? Ein solches Vorgehen halte ich für sehr riskant. Im Zweifelsfall sollte auf Google verzichtet werden, bzw. sollten Alternativen ins Auge gefasst werden (wie z.B. Verwendung von AdWords, das man besser steuern kann).


Das ist eine Frage die man nur von Fall zu Fall entscheiden kann. Wenn ich die Firma widgets habe werde ich mir wohl die Domain widgets.xyz nehmen, wenn ich aber ein Internet-Portal erfolgreich betreibe und Google dabei eine wesentliche Rolle spielt werde ich wohl prüfen was Sache ist. Ungeprüft domains zu verwenden ist sonst eine riskante Sache, man braucht sich ja nur die Situation von ayom ansehen.

Das Beste was für ayom passieren könnte wäre, das die Annahme richtig war/ist, dass sich das Problem alleine in kurzer Zeit löst.
Auf eine aktive Hilfe durch Google würde ich nicht hoffen, das setzt einerseits voraus dass die Annahme richtig ist, dass es sich um eine "verbrannte" Domain handelt, und versetzt euch in eine passive Rolle.
Wenn ihr das bis zu eurer internen Deadline das Problem nicht löst solltet ihr wohl wirklich etwas Geld für einen externen Experten in die Hand nehmen, das ist eine durchaus professionelle Vorgehensweise, diskret gemacht ist es auch kein Image-Schaden.

 
QUOTE Schlägst Du also tatsächlich vor, die Verwendung einer Domain von Ihrer Googletauglichkeit abhängig zu machen? Ein solches Vorgehen halte ich für sehr riskant. Im Zweifelsfall sollte auf Google verzichtet werden, bzw. sollten Alternativen ins Auge gefasst werden (wie z.B. Verwendung von AdWords, das man besser steuern kann).


Ein toller Widerspruch ... euch ist egal, ob Google die Domain aufnehmen will, aber auf Google wollt ihr dann doch nicht verzichten und Werbung kaufen.

Mit eurer "verbohrtheit" was die Domain betrifft lauft ihr meiner Meinung nach in eine Sackgasse. Wenn die Domain schon vor dem offziellen Re-Release der Plattform Schwierigkeiten machte, dann hätte man evtl. auf die Domain verzichten müssen. Namen sind Schall und Rauch solange sie noch nicht bekannt sind. Allerdings weiss ich jetzt nicht, ob da schon an die Öffentlichkeit der neue Name bekanntgegeben wurde.

Wenn ich eine Seite mache und Google mag meine Domain nicht ... was solls, dann wird halt eine andere geholt. Eine Domain ist billiger als die ganze aufgewendete Zeit in die Analyse zu stecken warum Google meine Domain nicht mag.
 
@Rainer:
QUOTE Ein toller Widerspruch ... euch ist egal, ob Google die Domain aufnehmen will, aber auf Google wollt ihr dann doch nicht verzichten und Werbung kaufen.

Bitte unterscheide zwischen generischem Index und ppc-Werbung. Das Problem in diesem Thread bezieht sich auf den generischen Index. Zwecks Risikostreuung sollte sich jeder nicht nur auf diesen, sondern auch auf die ppc-Möglichkeit stützen, die übrigens einiges besser kontrolliert werden kann.

QUOTE Wenn ich eine Seite mache und Google mag meine Domain nicht ... was solls, dann wird halt eine andere geholt. Eine Domain ist billiger als die ganze aufgewendete Zeit in die Analyse zu stecken warum Google meine Domain nicht mag.

Wir haben über 100 Mannstunden in den Namen gesteckt (ergo sehr viel Geld) und haben den Entscheid für den Namen nicht von Google abhängig gemacht (Prämisse). Google ist nicht unser firmeninterner, wohlwollender Diktator (vgl. Arrow), sondern lediglich eine erfolgreiche Suchmaschine, die uns in Vergangenheit gute Dienste erwiesen hat. Nicht wir beeinflussen, ob wir indiziert werden, sondern nur Google kann dies beeinflussen. Deshalb würden wir solch brisante Entscheidungen nicht von Google abhängig machen und niemandem raten, dies zu tun.

Gruss, Remo
 
Remo:

Was bringt es mir aber, wenn Google meine Domain für den Suchindex nicht spidern will? Für meine Webseiten ist es einfacher, dann einfach eine andere Domain zu nehmen als Geld in Adwords zu stecken oder wochenlang zu warten bis MSN mich komplett spidert oder sogar monatelang bis Yahoo und Co. Lust dazu haben. Ich gebe halt ungern Geld für Werbung aus und ein neuer Name ist bei meinen Webseiten schnell gefunden.
 
Rainer:
Auf die Gefahr hin, mich zu wiederholen: Der Hauptgrund ist Risikostreuung.
Vergiss nicht, dass alles kostet, was Du machst, auch wenn effektiv kein Geld fliesst. Auch Deine knapp 3000 Postings bei Ayom haben Geld gekostet - mit einem Stundenlohn von 50 Euro käme man sogar auf eine beträchtliche Summe. Es geht halt immer um den maximalen ROI bzw. den maximalen Kapitalwert einer Investition. Selbst generische Suchmaschinenoptimierung kostet Geld, viel Geld sogar, wenn man eine adäquate Risikoprämie hinzuzählt.
"Ich gebe halt ungern Geld für Werbung aus" ist daher sicher eine legitime Aussage, doch vergiss nicht, dass Du es jeden Tag bereits in einem nicht unerheblichem Masse tust! Auf einen möglichst optimalen Mix kommt es an. Und da ist es halt nicht ungefährlich, nur auf ein Pferd zu setzen ;-).

Gruss, Remo
 
QUOTE (Remo Uherek @ Do 10.2.2005, 21:20) Google ist nicht unser firmeninterner, wohlwollender Diktator (vgl. Arrow), sondern lediglich eine erfolgreiche Suchmaschine, die uns in Vergangenheit gute Dienste erwiesen hat. Nicht wir beeinflussen, ob wir indiziert werden, sondern nur Google kann dies beeinflussen. Deshalb würden wir solch brisante Entscheidungen nicht von Google abhängig machen und niemandem raten, dies zu tun.

Ihr wollt eure Seite nicht von Google abhängig machen, aber in der momentanen SuMa-Lage führt nunmal kein Weg daran vorbei, wenn man sich ernsthaft mit Online Marketing befassen will.

Wenn ihr u.A. SEO anbietet, werden sicherlich auch 80% der Kunden bei Google vorbeischauen, wie es denn bei euch so aussieht und so lange ihr mit eurer Hauptdomain nicht im regulären Index seid, sondern lediglich in den Adwords vertreten ist, wird jeder merken, dass da etwas nicht stimmt. Ich würde jedenfalls mehr als mißtrauisch werden
blink.gif
 
Ich hatte ein ähnliches Problem.
Als ich eine neue Domain auf den Webspace einer anderen Domain geroutet hatte, wurde die neue Domain nicht bei Google aufgenommen.

Da ich die alte Domain sowieso nicht mehr benötigte, habe ich sie löschen lassen.
Und siehe da - die neue Domain wurde problemlos bei Google aufgenommen.
Somitt löste sich das Problem von selbst.

Da ihr aber die webmasterforum-Domains sicher behalten möchtet, funktioniert meine Methode nicht und ich sehe nur eine Lösung:

Anfragen auf webmasterforum-Domains werden auf eine Weiterleitungsseite geschickt, welche dann auf ayom.com weiterleitet.

Das ist zwar nicht wirklich optimal, aber so könnte wahrscheinliche das Double Content-Problem gelöst werden.
 
QUOTE Wenn ihr u.A. SEO anbietet, werden sicherlich auch 80% der Kunden bei Google vorbeischauen, wie es denn bei euch so aussieht und so lange ihr mit eurer Hauptdomain nicht im regulären Index seid, sondern lediglich in den Adwords vertreten ist, wird jeder merken, dass da etwas nicht stimmt. Ich würde jedenfalls mehr als mißtrauisch werden

Ja, dies ist in der Tat ein Wettbewerbsnachteil. Ein Grund dieser Diskussion ist ja u.a., unseren Besuchern (und Kunden) diese Situation zu erklären. Google ist sicher ein gutes Marketinginstrument, doch es kann verheerend sein, darauf seine Existenz aufzubauen. Auch wenn es kurzfristig weh tut, werden wir auf dieses Instrument verzichten müssen, sollte sich die aktuelle Lage nicht ändern. Langfristig ist das m.E. die einzig gangbare Strategie. Generische Suchmaschinenindizes sollte aus Gründen der Risikoaversion nie in die Unternehmenskalulation einfliessen, sondern sollten als "Zusatz", als "ausserordentlicher Ertrag" aufgefasst werden. Jeder, der fest mit dem Traffic kalkuliert, setzt sich aktiv grösserem Risiko aus.

Wir sind überzeugt, dass wir von dieser Situation langfristig mehr profitieren werden als wenn dieses Problem nie aufgetaucht wäre. Aus diesen Lehren werden hoffentlich alle Leser dieser Diskussion und schlussendlich auch unsere Kunden profitieren.


QUOTE Das ist zwar nicht wirklich optimal, aber so könnte wahrscheinliche das Double Content-Problem gelöst werden.

Das sehen wir nicht als Hauptproblem. Das Problem bestand schon vor dem Relaunch (siehe oben).

Gruss, Remo
 
Find ich ne gute Überlegung. Sumas(Die Spider-Technik) sollen sich gefälligst den Webseiten anpassen, und nicht umgekehrt.

So könnt ihr euch den wirklich wichtigen Dingen widmen, besseren Inhalt und bessere Features zu bringen, anstelle möglichst gut dem Google-Spider zu gefallen...
 
ja,ja, recht habt ihr schon - aber es ist nun einmal eine Tatsache, das die meisten Besucher über Google kommen.

Das ayom.com nicht indiziert wird, ist ganz sicher ein Bug bei Google. Es gibt noch viele andere erstklassige Seiten die durch irgend ein Bug bei Google nicht oder falsch in den Index kommen.

Ich habe zum Beispiel Probleme mit verschiedenen Länderdomains die auf denselben Content zielen.
theoretisch müssten die jeweiligen Seiten in der Ländersuche von Google auch vorne erscheinen - aber da tut sich Google sehr schwer.

gruss space
wink.gif
 
Ihr habt ja nicht mal einen <html>-Tag auf eurer Seite. Vielleicht will google das teil nicht in den Index nehmen weil er irgendwie Probleme mit dem HTML-Code hat.
 
QUOTE (qlimax @ So 13.2.2005, 18:35) Ihr habt ja nicht mal einen <html>-Tag auf eurer Seite.

Doch es ist schon da. Aber nach der Schliessung des Tags kommt nochmals Code, was ich nicht ganz begreife...
 
QUOTE Doch es ist schon da.

Oho da ist plötzlich ein <html>-Tag aus dem nichts aufgetaucht
wink.gif
.
 
QUOTE Ihr habt ja nicht mal einen <html>-Tag auf eurer Seite. Vielleicht will google das teil nicht in den Index nehmen weil er irgendwie Probleme mit dem HTML-Code hat.

Danke für den Hinweis mit dem fehlerhaften Code. Daran liegts aber nicht, denn Google hat (ausgenommen gewisser Darstellungsschwierigkeiten) keine Probleme mit unserem Code, siehe:
http://216.239.59.104/search?q=cache:E1Utc....ch/+ayom&hl=de

Gruss, Remo
 
@mueret00:
Nein, das ist nicht unser Hoster ;-).

Ich habe dieses Zuordnungsproblem auch schon erkannt. Ich bin gespannt, wann uns Alexa wird richtig zuordnen können. Eine ähnliche Art Zuordnungsproblem vermute ich bei Google.

Gruss, Remo
 
Status
Für weitere Antworten gesperrt.
Zurück
Oben