Checkliste für Google -relevante Maßnahmen

Im Prinzip ist es ganz einfach:
  • Content
  • Struktur
  • ein- und ausgehende Links
Der erste Punkt ist klar.

Der zweite Punkt meint: Alles als bloßer Text, unstrukturiert - wie soll das google gewichten. Also selbst strukturieren und gewichten - durch Dateinamen, Ordnernamen, Seitentitel, interne Linktexte, Überschriften, Listen. Die ausführliche Antwort dürfte in dem zitierten Link stehen.

Der dritte Punkt: Du empfielst, auf wen Du linkst und Du wirst empfohlen von denen, die auf dich linken.
 
In der Googlebar steht, dass die Höchstwertung 10 ist. Wieso glauben dann Leute Projekte anbieten zu können die PR 3 oder 4 haben? Da entspräche doch eine Schulnote von 3 minus oder so. Und selbst ein PR 5 sagt doch nicht über die Verdienstmöglichkeit aus sondern nur über die den Erfol für die brave Einhaltung der von jAuer erwähnten Punkte. So wirklich nachvollziehbar finde ich den Deal mit Google nicht - insbesondere wenn ich dann erfahre das mal der Server von denen ausfällt sprich auch keine Umsätze generiert werden können.

Gruß Ronny
 
Der PR einer Seite hängt nicht von den von mir erwähnten Punkten, sondern ausschließlich von der Zahl der eingehenden Links und dem PR der verlinkenden Seiten ab.

Eine leere Seite kann einen hohen PR haben, falls sie von einer hinreichend starken Seite verlinkt wird.

Die PR-Verteilung ist degressiv:
Beispiel: Auf 5 PR0-Seiten kommt eine PR1, auf 5 PR1 eine PR2, auf 5 PR2 eine PR3 - wobei die genauen Verhältnisse nur google kennt.

Schließlich ist der PR nur einer von sehr vielen Kriterien für das eigentliche Ranking.
 
QUOTE Die PR-Verteilung ist degressiv:

hä? Ich kenne PR, Verteilung und Degressivität. Trotzdem verstehe ich das nicht.

PR ist linear. Angezeigter PR (der grüne Fallus) ist logarithmiert. m.E. ist die Basis zw. 5 und 7. D.h. "der Schritt zw. PR n+1 und n+2 ist immer grösser als der Schritt von PR n zu n+1".

Aha. Man kann allerdings sagen die Verteilfunktion (=?"PR-Verteilung" ?) der Seiten mit PR wäre degressiv. Allerdings ist das auch nicht so ganz richtig.

Egal, Ronny, vergiss PR. Die wichtigste Aussage in diesem Thread war "Im Prinzip ist es ganz einfach:". Halte Dich daran. Denke an den Kunden...

Ich vermute aber Du suchtest das 100 Ranking-Faktoren von Google, wobei es deren 2 Listen gibt. Allerdings würde ich mich an Jürgen halten, denn die Liste ist ja schön, aber im Prinzip ist alles viel einfacher...

Wenn noch Verständnisschwierigkeiten mit PR, einfach nachfragen...

Und html ist eine Seitenbeschreibungssprache. Keine gute Struktur, aber eine...
 
QUOTE (Alain Aubert @ Mo 31.7.2006, 16:46)hä? Ich kenne PR, Verteilung und Degressivität. Trotzdem verstehe ich das nicht.

Na ja, etwas ausführlicher:

Der interne PR ist linear: Jeder Seite wird zunächst der Wert 1 zugewiesen, dieser 1-Vektor wird solange mit der Matrix aller Verlinkungen multipliziert, bis sich die Koordinaten des Vektors nicht mehr ändern.

Nun stehen an sehr vielen Stellen Werte knapp über 0, an einigen Stellen Werte zwischen 1 und 10, an sehr wenigen Stellen sehr große Werte (im Prinzip > 100.000) drin.

Diese Werte werden auf die elf Werte 0 - 10 abgebildet - man munkelt, in Form einer logarithmischen Abbildung mit Basis 6. Allerdings muß diese bsp. bei einem starken Anstieg der indizierten Seiten neu skaliert werden, falls die Spitze 10 bleiben soll und es nicht zu viele PR10 geben soll.

Also kann man eine Tabelle machen - zu jenem PR-Wert gibt es so viele Seiten - das ist die ganz gewöhnliche Verteilungsfunktion, abgekürzt 'Verteilung'.

Und das entspricht - zwar grob, aber immerhin - einer degressiven Abschreibung:

Beispiel mit 80%:


CODE 0 100.000.000
1 20.000.000
2 4.000.000
3 800.000
4 160.000
5 32.000
6 6.400
7 1.280
8 256
9 51
10 10

Summe: 124.999.997


Bei 125 Millionen Seiten gäbe es etwa 10 PR10 - so kann man in Excel auch noch 1/6 als Quotient testen. Das kriegt man ganz simpel in Excel hin - Startwert nehmen, immer mit 1/5 malnehmen und auf Ganzzahlen runden.

Wichtig dabei ist: Die Verteilung ist keine Glockenkurve mit der Spitze bei 4 oder 5. Sondern es gibt am meisten PR0-Seiten, bei jedem höheren PR-Wert gibt es deutlich weniger Seiten.
 
Hm. Ich wollte nicht über PR reden. Mit >300 posts, solltest Du nicht davon ausgehen müssen, dass Du mir PR erklären musst. Beim Lesen wäre auch aufgefallen, dass ich gemerkt habe, dass Du den statistischen Begriff benutzt hast. Also wären die Ausführungen nicht nötig gewesen, ich danke Dir allerdings dafür, da ich mich gerne über solches unterhalte... Obschon Du einige meiner Worte wiederholst, kann ich nicht ganz alles so stehen lassen...

QUOTE Jeder Seite wird zunächst der Wert 1 zugewiesen, dieser 1-Vektor wird solange mit der Matrix aller Verlinkungen multipliziert, bis sich die Koordinaten des Vektors nicht mehr ändern.

Startzuweisung ist nicht per se 1 weil es per se keine Rolle spielt. Was ist ein 1-Vektor? Ein eindimensionaler Vektor ;-) Ausserdem wird in der Praxis nach einer best. Anzahl Iterationen abgebrochen, oder gewartet bis die Werte sich zwischen zwei Schritten um weniger als Epsilon unterscheiden d.h. bis es konvergiert. Dein Ansatz ist eine numerische Unmöglichkeit.

Das mit den 1/6teln hab ich nicht verstanden, was soll das? Aha. Du hast die Zahlen einfach immer durch 5 geteilt. Wieso?


QUOTE man munkelt, in Form einer logarithmischen Abbildung mit Basis 6

Die Basis kann man nachrechnen, so wie ich das vor etwa 3 Jahren mal gemacht habe. Allerdings kann ich - wie die meisten andern die munkeln - nicht genügend Daten sammeln um eine Zahl zu produzieren, deren rel. Fehler < 50% ist. Am log ist nichts zu munkeln.
Kannst Du mir sagen, wer Dir sagte die Basis wäre 6?


QUOTE Allerdings muß diese bsp. bei einem starken Anstieg der indizierten Seiten neu skaliert werden

Es muss bei jeder Veränderung von # neu skaliert werden. Es ist nur die Frage wie man das in einem grossen System implementiert, siehe Blockrank.


QUOTE Also kann man eine Tabelle machen - zu jenem PR-Wert gibt es so viele Seiten - das ist die ganz gewöhnliche Verteilungsfunktion, abgekürzt 'Verteilung'.

;-) Das war meine Verwirrung, in SEO Kreisen meint wer PR-Verteilung sagt i.d.R. die Linearkombination. Allerdings folge meinem Aha die Erleuchtung. Trotzdem danke für die Erklärung.


QUOTE Bei 125 Millionen Seiten gäbe es etwa 10 PR10

Das ist allerdings totaler Stuss. Alles was Du ab dem Beispiel schreibst trifft Annahmen über die Verlinkung zwischen Seiten die Du unmöglich kennen kannst. Es ist ebenso möglich, dass es bei geg. Anzahl Seiten eine oder 100 PR-10 Seiten gibt. Du kannst argumentieren, wenn die Links normalverteilt wären... Sind sie aber nicht.

Was ist das für eine Übung mit den Quotienten? Was genau ist die Idee dahinter? Du hast eine Folge von Zahlen konstuiert mit n_0 = 10^8 und n_i = n_{i-1}/5, welche offensichtlich degressiv ist, aber was hat das mit PR zu tun?

PS: Wenn ichs mir recht überlege müsste die Basis einiges gewachsen sein. Für mich ist PR sehr interessant, aber marketingtechnisch ist es eine Unwichtigkeit.
Ich konnts einfach nicht lassen...
 
Oben gab es das Mißverständnis, daß PR mit Schulnoten gleichgesetzt werden könnte. Daß dies nicht so ist, wird aus der Berechnungstechnik klar.

Ein 1-Vektor ist ein Vektor, bei dem alle Koordinaten mit 1 belegt sind - die PR-Berechnung folgt dem Random-Surfer-Modell, damit ist die Wahrscheinlichkeit zum Besuch einer zufällig ausgewählten Seite zunächst für alle Seiten gleich. Ob das 1 oder etwas anderes ist, ist egal - aber mit 1 sind die Zahlen durchsichtiger. Und natürlich wird nicht bei exakter Gleichheit, sondern anhand irgendwelcher numerischer Kriterien abgebrochen - aber mein Beitrag war ohnehin schon so lang.

QUOTE man munkelt, in Form einer logarithmischen Abbildung mit Basis 6


Quelle: http://pr.efactory.de/d-pagerank-implementierung.shtml - da gibt es auch Rechenbeispiele mit 1-Startvektoren.

Aus der Art der Berechnung folgt, daß die PR-Verteilung weder linear (10 PR0, 10 PR1, 10 PR2 usw.) noch glockenförmig ist. Sondern daß zu einer PR(n) - Seite mehrere PR(n-1)-Seiten gehören, daß es also immer sehr viel mehr PR(n-1) wie PR(n) - Seiten geben muß. Das ist nichts anderes als eine degressive Verteilung. Allerdings nicht mit dem im Steuerrecht üblichen Satz von 30%, sondern 80% oder noch mehr. Und 80% habe ich schlicht und einfach deshalb genommen, weil dann die Zahlen simpler sind.


QUOTE Das ist allerdings totaler Stuss. Alles was Du ab dem Beispiel schreibst trifft Annahmen über die Verlinkung zwischen Seiten die Du unmöglich kennen kannst


Jede Modellrechnung nutzt Annahmen, die nur begrenzt korrekt sind - insofern ist jede Modellrechnung totaler Stuß. Nichtdestotrotz erhält man mit Modellrechnungen einen Überblick über ungefähre Größenordnungen. Man spielt mit den Parametern und sieht, wie sich die Spitzenwerte (hier: Zahl der möglichen PR10-Seiten) ändern.
 
Google.com hat einen PR 10. Wahrscheinlich wirst Du direkt auf eine Länder tld weitergeleitet.
Tut mir leid, dass wir Dein Thema für PR-Geplapper missbraucht haben.

Hast Du die 100 Google Faktoren angeschaut? War es das, was Du gesucht hast?

Nochmal @Jürgen PR-Verteilung: die Funktion PR_n = c + \sum{pr_i/c_i}
Du meintest PR-Verteilung: Die Verteilung von Seiten mit PR.
Das bringt die Gefahr mit sich, dass wir uns nicht verstehen...

Wenn ich sage, dass du Annahmen über Verlinkung triffst, dann folgt daraus nicht, dass jede Modellrechnung stuss ist, sondern ich möchte nur klarstellen, dass die Dinge die Du als degressiv bezeichnest eine Folge der Links sind, die gesetzt werden und nicht aus der PR-fkt stammen. Du triffst also Vorraussetzungen die so nicht stimmen müssen um zu erklären, was man direkt aus der Formel sehen kann.

verzeih mir meine Pendaterie, aber für mich war das mathematisch unverdaulich. Rechne mal Dein 80% Beispiel mit 10Mia Seiten.

PS: Hat man mir Gestern erzählt: "Man hat ein Epsilon gefunden, das ist sooo klein, dass wenn man es durch zwei teilt, es negativ wird..." ;-) Wahrscheinlich findes das niemand witzig...

PS: Wir hätten gescheiter einen anständigen FAQ Beitrag verfasst...
 
Die PR-Berechnung besteht aus zwei Teilen - einer Matrixmultiplikation und einer logarithmischen Transformation auf den Ergebnisvektor. Die Matrixmultiplikation (PR-I) könnte als Ergebnis einen Vektor mit Einträgen nahe 1 erzeugen - dann hätte Lieschen Müllers Homepage genauso viele eingehende Links wie Yahoo. Sie könnte einen Vektor mit Werten zwischen 0 und 20 erzeugen. Tatsächlich erzeugt sie Werte zwischen 0 und 'sehr groß'.

Daß beim zweiten Teil der PR-Berechnung (PR-II) also eine logarithmische Abbildung gewählt wird, ist eine Entscheidung auf bereits empirischen Daten. Damit treffe nicht ich Annahmen über die Verlinkung, sondern google macht das - sonst würde als Transformation für PR-II auch eine lineare oder irgendeine andere, 'weniger stauchende' Abbildung genügen. Bei einer logarithmischen Abbildung (Basis 6) ist sofort klar: Eine PR-1-Seite erfordert einen Vektorwert 6. Da die Matrizenmultiplikation linear ist, sind dafür mindestens 7 Seiten notwendig, also ist das Verhältnis von PR-0 zu PR-1 - Seiten mindestens 6:1.

QUOTE (Alain Aubert @ Do 3.8.2006, 12:43)dass die Dinge die Du als degressiv bezeichnest eine Folge der Links sind, die gesetzt werden und nicht aus der PR-fkt stammen. Du triffst also Vorraussetzungen die so nicht stimmen müssen um zu erklären, was man direkt aus der Formel sehen kann.


Das, was ich als degressiv bezeichne, ergibt sich aus der Kombination beider Teile der PR-Berechnung. Aus der Matrixmultiplikation (= PR-fkt im Zitat) kann man das alleine nicht ableiten, die Berechnungsvorschrift sagt natürlich nichts darüber aus, ob das Ergebnis wieder ein 1-Vektor oder ein Vektor mit einigen sehr großen Werten ist. Anhand der Ergebnisse legt google den zweiten Rechenschritt fest. Bei einer anderen empirischen Verteilung hätte google wohl eine andere Transformationsfunktion gewählt, dann wären die Verhältnisse andere.
 
Zurück
Oben