Google erkennt scheinbar Backlinks in php Scripten

Alain Aubert

Legendäres Mitglied
;-) Finally

Ich war schon seit geraumer Zeit der Meinung, dass Links /oubound.pl?http://asdf von Google erkannt werden. Diese Backlinks werden z.B. im Abakus Board eingesetzt um nichts zu vererben oä. Kleinlich wie ich finde und nutzlos wie ich schon lange behaupte.

Ich war stetig der Meinung, dass Google sogar Links ala ?out=37 erkennen sollten, da ihrem Bot das Ziel ja bekannt gegeben wird. Problem mit der technischen Erkennung dieser Backlinks bestehen also nur bedingt. Der Grund warum Google wahrscheinlich darauf verzichtet hat diese zu werten war wohl die fehlende Persistenz der Links. 37 kann Heute das und Morgen das sein.

Weiter sind mir outboud.pl Backlinks schon lange in den Backlink-Abfragen aufgefallen, aber ich dachte immer, dass es daran liegt, dass die ganze Url als Argument übergeben wird.

Unsere lieber 507ner Andreas hat aber eine Website zum Thema Tenerifa. http://www.tenerife-property-sale.com/

Diese hat Backlinks: http://www.google.com/search?q=link%3Ahttp...=utf-8&oe=utf-8

Unter anderm dieser Backlink:
http://216.239.59.104/search?q=cache:eek:dIqc...ays%3D30+&hl=en

Dort ist Andreas' Seite mit www.lucat.de/show_link.php?link_id=34851 verlinkt.
Nicht gerade was man unter einem sauberen Html Link versteht.

Google ist damit endlich meiner Forderung nachgekommen ;-)))
Wobei dieses eine Beispiel nichts beweist. Naja fast nichts.
 
;-)
Morgen Alain. Eine nette Beobachtung.Wobei zu sagen ist, was bringt das?;-)
So kann niemand mehr absichtlich keinen pr vererben,zumindest auf diesen weg net. Gibt aber einen viel feineren den Google selbst einsetzt.
 
QUOTE Eine nette Beobachtung.Wobei zu sagen ist, was bringt das? ;-)

Z.B. Webkataloge.


QUOTE So kann niemand mehr absichtlich keinen pr vererben,zumindest auf diesen weg net.
Ob Pagerank vererbt wird sei dahingestellt.


QUOTE Gibt aber einen viel feineren den Google selbst einsetzt.
?


QUOTE Ja, Google setzt beim Google Blog folgenden Redirect ein:
Schau mal den nächsten Link an.
 
Stimmt Alain,weiß niemand genau, ist aber genau dafür gedacht das Skript das google auch auf blogger oder so einsetzt, ist in weblogs nen interessantes thema.
Stimmt,Webkataloge bringen so 5-10 bls mehr;-)
 
Wie verhält es sich, wenn das Script via robots.txt disallowed ist, also
<a href="/out/out?www.test.com">

und in robots.txt :
User-agent: *
Disallow: /out/
 
@bull, viele sagen Google kümemt sich einen Dreck um die robots.txt, aber ich hab meine Logs dahingehen gar noch nie angeschaut. Suchmaschinen allgemein sollten aber irgendwie der robots.txt folgen, dass ist ja der Sinn des files.
Ist noch schwierig zu sagen, du müsstes eine unverlinkte Subdomain erstellen und sie von einer regelmässig gespiderten Seite verlinken, dann wüsstes du es. Versuchst du zu verlinken ohne dass Suchmaschinen die Links erkennen?
 
QUOTE Versuchst du zu verlinken ohne dass Suchmaschinen die Links erkennen?
Einige ausgehende Links sollen nicht als solche erkannt und bewertet werden - das ist der Sinn der Aktion (da man ja vermittelst eines Links für eine Seite "stimmt").
Googlebot kümmert sich sehr um die robots.txt. Ich hatte zwar einmal einen gegenteiligen Fall, der sich aber nach der Meldung desselben bei WMW rasch erledigt hatte. Wer die "vielen" sind, würde mich tatsächlich mal interessieren.

Tanti saluti,
 
Eben ich habs nicht überprüft, habs ein paar mal gelesen. Weshalb es sich bei mir als, zwar für mich nicht relevanter, aber gut möglicher Fakt gehalten hat war die Erwähnung von Klaus Schallhorn in seinem Blog. Dies ist aber ein guter Moment her. Das ist die einzige Quelle, die ich wirklich in Erinnerung und auch suchen musst du leider selber ... ;-)

Mir ist zwar egal wer meine robots.txt liest, aber meine Idee ist, dass Google sich einen Dreck darum kümmert ob du willst, dass sie deine Links verfolgen. Sie wollen das, weil ihr System sehr auf die Links setzt. Aber mir mehr als theoretischer Überlegung kann ich das nicht begründen. Ausserdem ist die endgültige eventuelle Umsetztung noch eine Frage für sich. Das solche Querystring Backlinks aufgetaucht sind, heisst nicht, dass sie sofort voll umfänglich alle gewertet werden, whatsoever Ich glaube vielmehr, dass sie angezeigt wurden, da sowieso viel mehr Links angezeigt wurden seit ( http://www.webmasterforum.ch/topic-2191.html ). Ich glaube sie wurden schon länger (teilweise) erkannt. Für mich war der Abakus outbound.pl einer der ersten Hinweise.

Wieso möchtest du denn Links verstecken, wenn man fragen darf?


PS "schallhorn blog google robots.txt" in Google eingegeben hat mir zwar nicht gebracht, was ich damals gelesen habe, aber die vermeintliche Fortsetzung und Auflösung (April 03, also wie erwähnt alt):

"robots.txt-Probleme bei Google

Google teilt mit, dass es sich bei der robots.txt-Panne nicht um einen Fehler im Parser sondern um [kurzfristig] volle Platten während des Spiderns handelte und nur wenige Sites betroffen sind. "

Also hab ich wohl nur die halbe Geschichte gelesen und die Story gekauft ;-) Danke für den Hinweis.
 
Danke für den Infos und die Links. Ist interessant dass sogar der Google Guy sich nun dazu meldet
smile.gif
 
QUOTE Verstehe halt nicht wieso, weil ausgehende Links imho gut sind.
Sind sie auch. Jedenfalls wenn sie hubmäßig zum Thema sind.
 
Eben. Wie man mit ausgehenden Links der eigenen Seiten helfen kann sollte ja außer Frage stehen.
Man erweitert den Besuchernutzen durch das Hinweisen auf weitere Inhalte
Man wird eventuell von anderen erwähnt wenn man eine gute Linksammlung bereitstellt
Suchmaschinen bewerten und analysieren Links

smile.gif
 
Ja Alain, das stimmt mit den php links.
Das habe ich schon vor langer Zeit hin und wieder mitbekommen.
Anfangs dachte ich immer das Google einfach Schwierigkeiten mit den CGI- PHP Links hat, doch wenn die Inhalte der Seite nicht ständig ganz zu schnell geändert werden, dann hält Google auch diese Links fest.
Nach meinen Beobachtungen vermute ich mal das es so ist.

Gruß
Single
 
QUOTE Anfangs dachte ich immer das Google einfach Schwierigkeiten mit den CGI- PHP Links hat, ...
Anfangs dachte ja alle nur plain Html Links, aber...

QUOTE doch wenn die Inhalte der Seite nicht ständig ganz zu schnell geändert werden, dann hält Google auch diese Links fest.
Genau so sehe ich es. Es ist auch schon seit länger als nur gestern so ;-)

Welcome on Board @single, mir sind in den letzten Tagen ein paar neue User mit offensichtlichem Schwerpunkt SEO aufgefallen, was mich speziell freut.

PS Der Grund warum Seiten mit Variablen in der Url nicht gespidert wurden war laut Google ja die ständig ändernden Inhalte. Seit man fähig ist zu überprüfen ob sie gleich bleiben... Macht alles Sinn ;-)
 
QUOTE (CMA @ Do 22.7.2004, 4:34) Gibt aber einen viel feineren den Google selbst einsetzt.
Tja...

nur ist an dem auch nix besonderes:


CODE HOST: www.google.com
PATH: /url?sa=D&q=http%3A%2F%2Fisc.sans.org%2Fdiary.php%3Fdate%3D2004-07-26
---------------------------------
HTTP/1.0 200 OK
Cache-Control: private
Content-Type: text/html
Location: http://isc.sans.org/diary.php?date=2004-07-26
Set-Cookie: PREF=ID=6fdafde524b8824f:TM=1092866654:LM=1092866654:S=EmNIbhnPfgQ03U98; expires=Sun, 17-Jan-2038 19:14:07 GMT; path=/; domain=.google.com
Server: GWS/2.1
Content-Length: 301
Date: Wed, 18 Aug 2004 22:04:14 GMT
Connection: Keep-Alive

---------------------------------
<HTML><HEAD>
<TITLE>Redirecting</TITLE>
<META HTTP-EQUIV="refresh" content="1; url=http://isc.sans.org/diary.php?date=2004-07-26">
</HEAD>
<BODY onLoad="location.replace('http://isc.sans.org/diary.php?date=2004-07-26')">
Redirecting you to http://isc.sans
[...]
 
Hallo Alain,

Ja, vor Jahren ist es noch vorgekommen das sich die Spider in einer Datenbank verlaufen hatten und waren dann sehr lange verschwunden.
Wenn sie dann noch in einem großem Shop drin waren, dann kam es vor das sie alle einzelnen Artikel des Laden aufgenommen hatten.
Ich denke mal aus diesem Grund wurden dann solche Datenbank- Links einfach erst mal nicht mehr aufgenommen.
Mittlerweile denke ich, sind die Maschinen aber besser geworden und können unterscheiden, ob sich der Inhalt der Seiten dauernd ändert und Gefahr besteht.
Was ich nun aber vor einiger Zeit beobachtet hatte ist folgendes:
Eigentlich habe ich immer sehr schnell meine Seiten aktualisiert (manchmal mehrmals am Tag), alles schön sauber in html , doch auf einmal hatte ich weniger Spider Besuch.
Was war geschehen? Ich war einfach zu schnell und der Spider hat meine Seiten zwar noch angefunkt, aber nur um zu kontrolieren ob sich der Inhalt wieder in so kurzer Zeit geändert hat.
Da sich der Inhalt ja wirklich in nur kurzer Zeit verändert hatte, ging der Spider davon aus das es sich um eine Seite handelt die sich dauernd ändert.
So habe ich dann seit dem nur noch ein bis zwei mal max. in der Woche aktualisiert und siehe da! Dem Spidern hat es wieder gefallen und er war sich wieder sicher das gutes Futter bekommt.
Ob das sich alles so genau verhalten hat kann ich natürlich nicht 100% bestätigen, aber ich denke da war was dran.


Gruß
Adi

 
Hallo Remo
QUOTE Ja, Google setzt beim Google Blog folgenden Redirect ein:
Ist wohl Eigenwerbung für Google, denn die Blog gehören Google!

Google Tools: We offer various tools to help you get more done online.

Unten
Blogger, Browser Buttons, Google in your Language, Google Toolbar, Translate Tool, Web APIs

Wenn ich Swissinfo glauben soll, soll die Schweiz ein Blogger Entwicklungsland sein?

In den USA werden die Blogs massivst verwendet, denn sie sind sehr einfach und äusserst interaktiv!

So ist ein Blog im Prinzip eine virtuelle Community auf HTML Niveau!

Es gibt gerade für Backlinks kein einfacheres Mittel...! Gerade im Bereich SEO sind Blogs wertvolle Zusatzhilfen!
 
Zurück
Oben