Google kennt eure Spam Links

Alain Aubert

Legendäres Mitglied
Ich mache hier ja schon ziemlich lange die Unterscheidung zwischen künstlichen und natürlichen Links. Ich war leider nicht fähig den Ort zu finden an dem ich die Definition einführte.

Auch wenn meine Nomenklatur nicht über alle Zweifel erhaben ist, so fühle ich mich verpflichtet euch mitzuteilen, dass was es bei Ayom schon seit einem Jahr zu lesen gibt nun zum Industie-Know-How gemacht wurde.

Nachdem es ganz genauen Lesern schon aufgefallen war, dass bei dem Google/Urchin-Tool einige ganz flotte Feautures vorhanden sind:
QUOTE Tatsächlich können Sie mit Google Analytics ... Verweise, bezahlte Links, Suchmaschinen und Keywords...

Wow, das würde ja bedeuten Google könnte zwischen natürlichen und künstlichen Links unterscheiden...

Das ist ja weltbewegend und stellt alles bisher dargewesene in den Schatten. Sogar der, der nie auf dem Mond war.

Jetzt aber war es wieder Matt Cutts, der dem ganzen den Witz genommen hat.

Der sass mit seinem Laptop in einem Pubcon (treffen von SEM Nerds), liess sich Domains zur Analyse geben und hat dann direkt nachgefragt was der Sinn hinter all den spammy links sei, ich zitiere rustybrick von seoroundtable mit Übersetzung: http://www.seroundtable.com/archives/002818.html

QUOTE I know, its like 6am here but I couldn't sleep since 4am, thinking about this one topic. Google knows about your linking networks, it knows about your traded links and even some of your paid links.

Der arme kann nicht schlafen, weil Google über eure Linknetzwerke bescheid weiss.


QUOTE Now Matt had his laptop with him and you can see he was doing his own research behind his computer, on the URLs brought up on the screen. While the panelist was looking at site architecture and using Yahoo's Site Explorer to pick on the site links, Matt was using some of his own tools. And let me tell you, it was scary.

Jetzt hatte Matt seinen eigenen Laptop mit, wo er offensichtlich eigene Recherche unternahm, während wir den Yahoo Site Explorer benutzten. Lasst euch versichern, es war beängstigend.


QUOTE He was asking questions, why do you have links from this site. It shows that your part of this and that network. Why are you doing reciprocal linking with this and that group of people?

Er fragte Sache wie warum habt ihr Links von dieser Seite, ihr gehört offensichtlich zu diesem Netzwerk, wieso betreibt ihr reziprokes Linken mit diesen und jenen Leuten?


QUOTE Either way, Matt clearly explained that the links are not hurting the sites, they are however not helping it rank in Google. And if they are paid links or if you are spending your time or resources getting those unnatural links - then it may hurt you financially.

Matt stellte klar, dass diese Links Leerläufe sind und im bezahlten Falle halt einen finanziellen Verlust darstellen.

Evtl. liest man jetzt dieses Thema über modern SEO/Spam bzw. Footer- und Partnerlinks noch einmal.

Wiederum faszinieren ist, dass jeder der meinen Ratschlag von anfang an beherzigt und nach gesundem Menschenverstand urteilte, dies schon gewusst hat. Denn der Common Sense ist ganz klar Google weiss alles. Und im Ernst, wenn ich mir überlege, was ich schon alles über eure Seiten weiss, dann will ich gar nicht wissen, was Google alles weiss.


Hier noch das Kapitel aus dem Paper dass ich nie publizierte (bin nicht viel eines Journalisten)


QUOTE 4.1.1. Natürliche und künstliche Links
Natürliche Links werden von Webmastern gesetzt, welche die gelinkte Seite als Mehrwert empfinden. Diese haben teilweise relevante (aber verschiedene Stichworte), teilweise die ganze Url, teilweise den Namen der Domain und manchmal auch einach klick hier als Linktext. Diese kommen auch idR von thematisch relevanten Seiten, da Erotik Webmaster selten die besten Hundezüchterlinks sammel. Weiter sind sie auch in den Content der Seite eingebunden. Künstlich Links hingegen haben sehr hohe Prozentsätze von übereinstimmenden Linktexten. Es ist bekannt, dass Google bei zu hohen Übereinstimmungen der Linktexte diese eingehenden Links nicht mehr bewertet. Bsp Es existiern sehr viele Links auf das Webmasterforum mit dem Linktext Webmaster Forum. Trotzdem ist das WF für diesen Begriff sehr gut positioniert in den SERPS, da es genügende Links mit einem anderen Linktext gibt.

Frühst mögliche Datierung: Di 12.10.2004, 14:49
 
Nichts neues;) höre ich dich doch fast immer wieder über meine arbeit in dieser Richtung schimpfen
smile.gif

Was ist daran neu-> du weißt es schon lange, google ist auch nicht blöd-> aber der Bericht von der Pubcon ist natürlich trotzdem eine nette Ergänung
smile.gif

Sorry für die knappe antwort, hatte keinen schlaf.
 
Und ich behaupte, dass Google kuenstliche und natuerliche Links nicht in jedem Fall unterscheiden kann. Gegenbeweise, die meine These widerlegen, bitte hier posten.
 
Na ja..

obwohl ich Alains Meinung schätze und auch verstehe denke ich nicht das die heutige Technologie schon soweit ist um dies fehlerfrei zu bewerkstelligen.

Allerdings ist jeder der auch in Zukunft erfolgreich im Internet präsent sein will sicher gut beraten, die Weichen heute schon zu stellen. Denn eins ist klar, Google und Co. werden besser.
Falls dies weniger Spamseiten bedeuten würde, wäre es ganz klar eine gute Sache.

Es stellt sich ja dann nur die kleine Frage wie man ohne Netzwerke gute Projekte in einer vernünftigen Zeit in die vorderen Ränge bekommt. Auch gute contentreiche Projekte wollen gefunden werden.

Auch hier wird ja dann wieder irgendwas entstehen, das von den Suchmaschinen schwerer zu entdecken ist. Netzwerke müssen ja nach einem Raster identifiziert werden und da gibt es sicher Wege dies zu erschweren.
Die ersten die das wiederum benutzen würden, wären die Profispamer und wir wären keinen Schritt weiter als heute.

gruss space
smile.gif
 
Ich weiss gar nicht was Google macht.

QUOTE Und ich behaupte, dass Google kuenstliche und natuerliche Links nicht in jedem Fall unterscheiden kann.

;-) Und ich stelle Dich mit der alles übertreffenden Behauptung in den Schatten Google wäre nicht in jedem Fall und zu jeder Zeit fähig, jeden Spam zu erkennen.

QUOTE Gegenbeweise, die meine These widerlegen, bitte hier posten.

Hmm.. Versteh mich nicht falsch, aber Deine Behauptung - für alle denen die Ironie entgangen ist - war evtl. etwas unüberlegt. Bei IR handelt es sich im Gegensatz zu der Mathematik um keine exakte Wissenschaft. Je nach unserer Definition von künstlichen Links können wir Algorithmen entwickeln, die diese entdecken (wo sich wiederum die Frage stellt wie gut wir die Definition denn implementieren können). Deine Behauptung ist nicht zu widerlegen, sofern wir uns nicht in ein abgeschlossenes System mit genauen Definition und Daten begeben. Das wiederum wäre auch nicht was wir wollen, weil wir ein in der Praxis anwendbares Verfahren suchen. In der Praxis sind diese Definitionen nicht nur schwer zu stecken, sondern auch noch subjektiv. Daraus könnte der Hobbylogiker sogar einen Beweis Deiner Behauptung ableiten. Es wir nie möglich sein alle nicht den Kriterien eines natürlichen Linkes entsprechenden Verweise endeutig zu identifizieren.


QUOTE obwohl ich Alains Meinung schätze und auch verstehe denke ich nicht das die heutige Technologie schon soweit ist um dies fehlerfrei zu bewerkstelligen.

...wie weit ist denn die heutige Technologie?

Kleine Frage am Rande. Nie gab es eine fehlerfreie Technologie im IR. Das liegt an der Datenstruktur im Web und der Lücke zwischen de facto- und Industriestandard. Wieso sollte das in diesem Fall eine Rolle spielen?
The data oriented approach, Beispiel: "Es interessiert mich doch nicht wenn mir die Stopuhr bei 12 Messungen aus der Hand gefallen ist, ich hab ja 1000 gemacht, wenn 500 davon brauchbar sind, sollte ich in etwa wissen was ich eigentlich messen wollte...."

Das Ziel ist doch am Ende, Spam zu teuer zu machen. Und das wird so erreicht. Auch wenn es einige kritische Stimmen gibt, imho hat Google sehr grosse Erfolge im Spam Kampf erziehlen können und der Grund liegt ganz klar in der Linkanalyse, was nicht weit vom Linkspam hergeholt ist.

PS:
Nach einem Wink mit dem Zaunpfahl:
IR: Abkürzung für Information Retrieval, zu Deutsch "Informationsrückgewinnung", das was Google so macht.
Zum data oriented approach eine kurze Erklärung: Es ist ein Konzept in der IR, anstelle den Algo intelligenter zu machen erhöhen wir die Genauigkeit einfach dadurch, dass wir mehr Daten anschauen. D.h. in diesem Fall es ist egal, ob wie viele künstliche Links nicht erkennen, da wir so viele Daten haben, dass das keine Rolle spielt, wenn wir eine Fehlerquote von 30% haben.
 
Hallo,

und was ist, wenn der Link immer mit einem anderen Linktext ausgestattet ist, also ganz viele Varianten existieren und per Zufall eine immer angezeigt wird, aber der Link bleibt der Gleiche?
Dann würde doch Google "denken", dass dies ein anderer Link ist, von wem anderen empfohlen.

Natürlich sollte der Linktext auf der einen Seite immer gleich bleiben, aber auf einer anderen Seite halt anders heißen...

Friedrich
 
QUOTE und was ist, wenn der Link immer mit einem anderen Linktext ausgestattet ist, also ganz viele Varianten existieren und per Zufall eine immer angezeigt wird, aber der Link bleibt der Gleiche?

Das würde evtl. knapp reichen um mein Tool zu überlisten (wahrscheinlich aber nicht ;-). Für das von Google taugt es nichts...

Es geht nicht um Linktexte, sondern um Ecken und Knoten. Stellt euch die Seiten als Netz vor (vgl. Touchgraph). Wenn Du jetzt Deine Seite nun mit Linkpartnern versorgst, so wird das in eben diesem Netz erkennbar sein. Da ist es mir egal, mit welchem Linktext ich linke. Das überfordert auch die sich zu unrecht abgestraft fühlenden Webmaster, wie z.B. im o.g. Footerlinks Thread. Wenn ich auf Dich linke und Du auf Hans, dann gibt es eine Verbindung zwischen mir und Hans. Das nennt sich Transitivität.

Man beachte auch die Wehklagen einger Link Vault (Linktausch Netzwerk) Benutzer nach Jagger. Es reicht nicht einfach künstliche Links zu setzen um richtig Verlust zu machen, es geht darum, dass es zum grossen Problem wird, wenn eine Seite nur künstliche Links (Parner- /Footerlinks) hat (d.h. zu wenig Echte im Verhältnis). Das Problem damit ist, dass diese am Anfang nahezu unmöglich direkt als böse oder wertlos erkannt werden können. Wenn sich aber ein Netzwerk bildet, sagt der Roboter plötzlich: "aha, jetzt seh ich das grosse Bild und es riecht nach Beschiss", und bums fallen Deine Seite.

Die Quintessenz ist recht einfach. Hört auf mit den billigen Linktauschereien, auch wenn ihr euch nicht vorstellen könnt, dass Google das nachvollziehen kann, so predige ich es seit Monaten und mit rustybrick hat es euch doch eigentlich jemand versichert, dessen Reputation die meine um ein Vielfaches übersteigt. Also wenn schon nicht mir, glaubt ihm. Und lest was er schreibt. And let me tell you, it was scary

Wer nicht etwas von Mathe oder Informationsrückgewinnung (...) versteht, sollte aufhören zu versuchen, Google zu hinterführen. Die Zeit und das Geld ist in ehrlichen Marketingbemühungen weit besser angelegt. Es sei denn die Strategie ist hit and run...
 
Ich bin der Meinung, dass wenn man sauber verlinkt, das heisst, dass man keine Footerlinks setzt, wenn man die Partner gut aussucht, und wenn mann auf die Linktexte achtet, es für die Sumas unmöglich festzustellen ob ein Link künstlich ist.

Wegen den Footerlinks: Das alleine darf nicht aussagen, ob ein Link künstlich ist. Dies wird oft auch von nahmhaften Firmen praktiziert.

Zuviel dieselben Linktexte: Das würde ich abstrafen.

Wegen der Netze die Entstehen: Ich halte es für Unmöglich. dass man ein Programm schreiben kann, dass die Verlinkung des ganzen Internets zuverlässig beurteilen kann. Man bedenke die Anzahl an Websites, und dann, dass die Websites immer viele Externe Links haben.

Meine Domains haben im Durschschnitt etwa: 1500 Externe Links auf 100 Seiten. Zu vielleicht 50 unique Domains. Das ganze benötigt eine Riesen DB das ist klar. Dann muss das Programm daraus interpretieren können. Was sehr viel Zeit benötigt, auch bei der besten DB-Architektur. Und geschieht ein kleiner Fehler fliegt der ganze Index über den Haufen.

Ausserdem: Google sagt selbst, dass Backlinks essentiell sind für das Ranking einer Website. Wenn man darauf achtet, dass mann sauber verlinkt, wie will google wohl feststellen, dass es künstlich ist? Meines Erachtens unmöglich. Und wenn man halt bemerkt, dass etwas nicht stimmt, dann liegt der Fehler wo anders begraben und kann mit etwas Aufwand behoben werden.

mfg
 
Hallo Alain,

wirklich interessante Theorie.
Wenn man drüber nachdenkt, kann man natürliche und künstliche Links unterscheiden.

Danke für die Informationen.

MfG
Eugen
 
Matt Cutts: Tell me about your backlinks: http://www.mattcutts.com/blog/tell-me-about-your-backlinks/
SEO Roundtable, SES Chicago Q&A On Links: http://www.seroundtable.com/archives/002925.html


QUOTE Wegen der Netze die Entstehen: Ich halte es für Unmöglich. dass man ein Programm schreiben kann, dass die Verlinkung des ganzen Internets zuverlässig beurteilen kann. Man bedenke die Anzahl an Websites, und dann, dass die Websites immer viele Externe Links haben.

Definiere zuverlässig beurteilt. Bitte. Was macht Pagerank? In meinen Augen beurteilt er die Verlinkung des 'ganzen Internets' (mathematisch) zuverlässig.


QUOTE Meine Domains haben im Durschschnitt etwa: 1500 Externe Links auf 100 Seiten. Zu vielleicht 50 unique Domains. Das ganze benötigt eine Riesen DB das ist klar. Dann muss das Programm daraus interpretieren können. Was sehr viel Zeit benötigt, auch bei der besten DB-Architektur. Und geschieht ein kleiner Fehler fliegt der ganze Index über den Haufen.


Hier kann ich nicht folgen. Die DB der Linkinfo würde weniger Platz einnehmen, wie dieses Topic in der Ayom DB. Also Du hast 50 Domains mit je 100 Seiten und je 1500 (ausgehenden?) Links pro Domain, richtig? Also 50*1500=75k floats in einer 57k*75k Matrix und Nullen sonst. Das kann meiner Workstation per JAVA mit CSR in <1sek. Und die Aussage mit dem kleinen Fehler versteh ich schlicht nicht. Wieso?


QUOTE Ausserdem: Google sagt selbst, dass Backlinks essentiell sind für das Ranking einer Website. Wenn man darauf achtet, dass mann sauber verlinkt, wie will google wohl feststellen, dass es künstlich ist? Meines Erachtens unmöglich. Und wenn man halt bemerkt, dass etwas nicht stimmt, dann liegt der Fehler wo anders begraben und kann mit etwas Aufwand behoben werden.

Wie es Google feststellen will ist nicht mein Problem. Es gibt aber einiges zu lesen über Web Spam. Meistens geht es aber darum, woher die Links kommen.

A propos, ich kann nichth wirklcih sagen, dass das neu ist, aber Google lässt starke, uralte Seiten aus dem SERPS ins Nirvana droppen ohne die anderen Teile der Site zu beeinflussen. Imho starke Leistung und es ist naheliegend, dass die bleibende Seite diese mit den natürlichen Links und die verschwundene die künslich gepushte ist.
 
QUOTE was versteht ihr eigentlich unter SPAM-Seiten?

Diese Frage ist etwas unglücklich, aber wenn wir schon dabei sind, was versteht ihr eigentlich unter einer schönen Frau? In dem Fall können wir über den common sense of aesthetics philosophieren....

Spam Seiten sind Websites, die Praktiken anwenden, um die SEs in die Irre zu führen mit dem Ziel ein besseres Ranking für ihre Seiten zu erlangen als sie verdienen würden. Konkret bedeutet das Praktiken anzuwenden, die das Ranking einer Webseite verbessern sollen, ohne an den Besucher zu denken - d.h. ohne den Wert der Website für den User zu verbessern.

Jetzt stellt sich die Frage nach dem common sense of spam, oder ab wann web spam eigentlich spam ist.

Lies mal das: http://dbpubs.stanford.edu:8090/pub/2004-25
 
Hm, also ich hätte gedacht es sind vielleicht linklisten und ähnliches.

Was für Praktiken sind das denn beispielsweise?

Ich mein, Farbe auf Farbe kennt ja mittlerweile sicher auch jeder SE.

Was ich aber nicht verstehe: Wenn, wie du schreibst, google das ja erkennt... Wären diese sachen demnach doch nutzlos, oder?

M
 
QUOTE Was ich aber nicht verstehe: Wenn, wie du schreibst, google das ja erkennt... Wären diese sachen demnach doch nutzlos, oder?

Grundlegend hast Du es schon verstanden. Spammereien sind sinnlos, weil sie ja nichts nutzen. Die Sache ist aber komplizierter. Wie Ivo im dritten Posting bemerkt ist Spamerkennung keine exakte Wissenschaft. Nicht nur, dass Menschen verschiedene Ansichten/Definitionen von Webspam haben können, auch die Erkennung durch eine Suchmaschine ist keineswegs trivial. D.h. Otto-Normal-Spammer (ONS) ist darauf bedacht, so zu spammen, dass es von der SE nicht erkannt wird. Leider vergisst ONS idR, dass SEs sich weiterentwickeln und realisiert nicht, dass Spammereien, die gestern was gebracht haben, heute erkannt werden können, und morgen richtig schädlich sein können. Google erkennt und versteht sehr viel mehr, als ONS ahnt. Trotzdem ist das nicht wie Mathe, wo 1+1 (fast) immer 2 gibt...


QUOTE Was für Praktiken sind das denn beispielsweise?

Um Dir diese Frage zu beantworten hab ich den Link auf das Molina Paper gepostet.
 
sorry, ich muss es nochmal hervorkramen - es lässt mich nicht los.

Bleiben wir nochmal dabei: ich verstehe nicht, wie er nun auf dieser konferenz seine "bahnbrechende" theorie herausgefunden hat, vielleicht kannst du mir doch nochmal helfen.

liebe grüße
mathias
 
Zurück
Oben