Alain Aubert
Legendäres Mitglied
Hi Ayom
Auf http://www.ayom.com/topic-6711.html aufbauend hier meine Notizen und Kommentare. Teilweise sind sie ein wenig Stichworthaft.... Kursiv geschrieben ist, was nicht direkt auf den Notizblättern war.
Das sind noch nicht alle Notizen...
@Remo, bitte Gegenlesen
Ordnung ins Chaos bringen, so ist es
möglich
Mod: Hubert Gertis von gertis.media
Referenten: Michael Machon von SoQuero
GmbH und Tim Ringel, CEO von Metapeole GmbH
M:
Massnahmen um Webseiten nach vorne zu
bringen:
Tim Ringel
Q&A
Frage: Wie kann ich die Domain History
herausfinden? Antwort: Links suchen. (archive.org, „domain.tld“
(mit &bdquo bei Google suchen)
Frage:
Tracking/Controlling Kennzahlen? Antwort: Speziallfälle tracken,
Session Länge ermitteln (Anzahl PI pro Unique Visitor)
Optimale Struktur
für erfolgereiche und sichere Web Seiten
Stefen Karzauninkat
(..)
(Seiten auf ihre Suchmaschientauglichkeit prüfen)
HTTP Protokoll und
die Suchmaschienen
Jürgen
Pruschausky (Webmaster von der Credit Suisse, CS)
Da die CS das HTTPS
Protokoll verwenden wollte und trotzdem von Suchmaschinen indiziert
werden wollten, tratz ein Problem auf, da die meissten Suchmaschinen
dies nicht unterstützen (Ausnahme: Google).
Als Gründe für
die Verwendung von HTTPS führt P. Authenzität, Integrität
und Anonymität an. Ohne HTTPS kann man alles mitloggen.
Deshalb hat er eine
Backdoor für Suchmaschinen gebaut.
Er erzählt die
Anektote von Google im März 2002, als sie anfingen HTTPS zu
erkennen. Dabei passierte der Fehler, dass sie die robots.txt
missachtet haben. 3.8 Millionen Seiten mussten gelöscht und neu
indiziert werden.
„Agent Web
Ranking“
SEO ist
Usabilityoptimierung
Auf http://www.ayom.com/topic-6711.html aufbauend hier meine Notizen und Kommentare. Teilweise sind sie ein wenig Stichworthaft.... Kursiv geschrieben ist, was nicht direkt auf den Notizblättern war.
Das sind noch nicht alle Notizen...
@Remo, bitte Gegenlesen
Ordnung ins Chaos bringen, so ist es
möglich
Mod: Hubert Gertis von gertis.media
Referenten: Michael Machon von SoQuero
GmbH und Tim Ringel, CEO von Metapeole GmbH
M:
Massnahmen um Webseiten nach vorne zu
bringen:
On Site Optimierungsmassnahmen
Webseiten Ziele definieren
Action Planung
Umsetzung der Massnahmen
Checkliste On Site Optimierung
?!?!
Zusammenfassung
On Site Optimierungsmassnahmen:
Def.: Robots den Zugriff zur Seite
ermöglichen.Optimierung die es möglich macht die hohe
Relevanz zum Thema zu erkennen. Den Content in Form und Struktur
optimal maschinenlesbar und maschinenverstehbar zu machen.
Ziele:
Gute Positionen in Suchmaschinen, d.h. Auffindbarkeit für
bestimmte Suchbegriffe.
Webseiten
Ziele definieren:
Unterscheidung in
drei Kategorien: B2B, B2C und Ecommerce Webseiten:
B2B:
Sichtbarkeit,
Branding, genügen Traffic
B2C:
Abverkäufe
Ecommerce:
Welche
Besucherstöme, woher kommen sie, wie kommen sie, wie teuer sind
sie? Die Frage des Aufwandes.
SEO
Sponsored
Links
Paid Links
(Links kaufen aka high-PR Links ThomasB)
Kooperationen
(Content-Syndication)
Affilate-Marketing
Email-
(Permission-) Marketing
Geruillia-Marketing
Umsetzung der
Massnahmen:
Klar.
Controlling,
Reporting, Kennzahlen. Was muss ich messen, wie muss ich es
betrachten?
Erfolg ist eine
Frage der Definition!
Tracking:
Wichig ist, zu
Beginn eine IST-Messung durchzuführen. Dies ist aus Gründen
einer optimalen Verkaufskontrolle und Budgetplanung unabdingbar.
Ausserdem ist es relativ schwer zu sehen was sich verändert
hat, wenn man nicht weiss, wie es vorher war ;-)
Kennzahlen:
Traffic
(Channels)
Conversion
(=Umwandlungsrate) inkl. Herkunft
Klickpfade (in
meinen Augen nicht zu verachtendes Instrument, das noch viel zu
selten angewandt wird. Guter Kommerzieller Anbieter ist etracker.
Wichtig ist dabei zu beachten, dass durch die Klickpfaderfassung
(d.h. Tracking der einzelnen Klicks) keine Links
„Suchmaschinenunlesbar“ gemacht werden
(Zwischenschaltung von JS etc.))
POA (Point
of Action ~„aka Point of Sale“ nicht ganz dasselbe
online)
POE (Point
of Exit, d.h. Der Benutzer/Kunde verlässt die Seite. Z.B. der
potentielle Kunde bringt den Bestellvorgang ab, da das Formular zu
kompliziert ist. In meinen Augen auch noch stark vernachlässigt.
ROI (Return
of Investment, klar)
Checkliste:
Welche
Massnahmen wurden durchgeführt
Welche
Keywords werden anvisiert (selten mehr als 20 (an dieser
Stelle bin ich nicht ganz gleicher Meinung, wobei es für
„kleine“ (o.a. Nischen-) Seiten durchaus zutrifft.
Sicherlich ist ein Hauptset von 20 Keywords i.O., wobei ich der
Meinung bin, dass die notwendige Breite der Keyword-Palette i.d.R.
unterschätzt (bzw. nicht genügend ausgenützt) wird.))
Target Advertising (d.h.
Zielgruppenabhängige Werbung)
vs. Gieskannenprinzip (d.h. Masse statt Klasse, „Mit
der Gieskanne streuen&ldquo
Welche
Keywords sind schon gut in den SERPs? Und welche davon bringen
Traffic?
Wettbewerbsanalyse.
(Online sind es oftmals andere Konkurrenten als Offline in derselben
Branche). Welche sind reale Konkurrenten? Was haben diese überhaupt
gemacht? Was ist mein Allteinstellungsmerkmal (aka USP: Unique
Selling Proposition)?
Probleme
(nicht im Inhalt?!?)
Keine Seiten
meiner Webseite sind im Index:
Ursachen:
Seite ist neu
Keine Links
von anderen Webseiten, die auf die Webseite zeigen
Viele
Parameter in der Url (d.h.
Index.php?ich=müde&...&fahre=zug&s=dfd9f78df75647...).
Navigation in
Javascript (allgemein Links in JS. Dies reicht aber nicht zur
Nichtindizierung, da von aussen verlinkte Seiten gefunden werden,
d.h. i.d.R. mindestens die Startseite).
Domain wurde
gehijacked (Chanche klein, m.E. übertriebenes Medieneche).
Domain ist auf
der Blacklist (Google führt bekanntermassen solche Listen,
Seekport auch).
Robots.txt
falsch konfiguriert (Falsch sollt m.E. für die meissten
Suchmaschinen egal sein, solange es sich nicht um einen „Disallow
/“ handelt).
Der Content
befindet sich nur in Popups die per Javascript geöffnet werden.
Eine
Introseite ohne Links ist vorgeschalten (m.E. würde wiederum
mindestens diese Seite indiziert).
Kein
Maschinenlesbarer Code (d.h. nur JS, nur Bilder, nur Flash oder
nur Java, etc...).
Seiten sind
indiziert, aber nur mit seltsamen Titeln (etc.)
Ursachen:
Fehlender
Titeltag.
Frames (d.h.
Titel nur im Frameset und nicht in der Contentseite).
Hoher
Bild-, Java(script)- oder Flashanteil.
Erfolg ist die
Summe aller Faktoren. (d.h. diese sollen nicht separat bewertet
werden, da diese kaum definiert werden können) (diese
Aussage scheint sicht sinnvollerweise nur auf SEO zu beziehen).
Zusammenfassung
Zielformulierung
(Controlling), Verlaufskontrolle, Fehler bei der Optimierung können
fatale Folgen haben (m.E. Formulierung stark übertrieben, da
müssen schon sehr gravierende Fehler gemacht werden, die dem
gesunden Menschenverstand massiv wiedersprechen). SEO kann
selten inhouse erledigt werden. Optimierung ist ein fortlaufender
Prozess
Q&A
Was ist, wenn
ich mit meiner Webseite auf der Blacklist bin? Antwort: Fragen sie
sich wieso sie dort sind... (sonst keine wirkliche Antwort)
(Am Beispiel von Google: 1.
Sicherstellen ob Seite wirklich auf Blacklist (aka „gebanned&ldquo:
Seite ist alt genug, Seite ist verlinkt, Seite war (i.d.R.) schon im
Index, Seite ist für den Suchbegriff 'site:domain.tld' (www.
unnötig) nicht auffindbar, es lassen sich genügen echte
Links für die Seite finden ('„domain.tld“',
'„domain“' suchen, Yahoo 'linkdomain:domain.tld' suchen,
etc). 2. Hinsetzen und ehrlich sein, was habe ich gemacht. 3. Fehler
von 2. korrigieren. Alle! 4. Entscheidung ob Domain ausgetauscht
wird (a) (wenn notwendig sogar Server, d.h. IP (sind alle Webseiten
dieser IP aus dem Index gefallen?)) oder ob die Seite (bzw. der
Webmaster) 3 Monate (sowie die Anlaufphase) ohne Google verkraften
kann (b). 4.a. Klar, ich empfehle nicht von Anfang an „mit der
grossen Kelle“ zu verlinken, sowie wenn möglich auf
künstliche Links verzichten. 4.b. Es existiert eine verbreitete
Meinung, dass Seiten die (bei Google) auf der Blacklist gelandet
sind, nie mehr in den Index und viel wichtiger in die SERPs zu
bringen sind. Dies ist offensichtlich falsch. Nach meiner Erfahrung
beträgt die Untergrenze 90 Tage. (Evtl. ist es möglich mit
grossem Budget und sehr sehr guten Links diese Zeit zu verkürzen,
ich gehe aber vom Gegenteil aus.) Während dieser Zeit sollte
der Webmaster sich um echte Links (themenrelevante) kümmern,
und an seinem Content weiterarbeiten. Eine Domain die spärlich
verlinkt ist, kann auch für 6 Monate auf der Blacklist bleiben,
oder sie gar nie mehr verlassen). Dieser Exkurz könnte noch
ausgeführt werden.
Was kann ich
gegen Url-Hijacking tun? Antwort: Url Hijacking wird durch
Serverseitige 302 verursacht (m.E. durch Server- und
Clientseitige 302 (Meta-Refresh)). Schreiben sie den Webmaster
an und bitten sie ihn den Link in einen 301 zu ändern.
(Ich habe zu wenig Erfahrung mit
Hijacking, denke aber die Base Href (erstmals erwähnt von Klaus
Schallhorn) Lösung funktioniert. Ausserdem sehe ich das Problem
als wenig gravierend an. Eine sinnvolle aber nie erwähnte
Lösung bestünde darin, die gehijackte Seite mit
zusätzlichen Links auszustatten, was ein Hijacking schwer bis
unmöglich macht (Schon mal jemand versucht dmoz.org zu hijacken
;-) Begründung klar. Unglücklicherweise konnte ich die
Base Href nur in eine Seite verifizieren.
Wirklich stören tut mich in
dieser Affäre nur die Selbstgefälligkeit Googles. Die
Arroganz des 80% Marktführers ist deutlich sprürbar: „We
are aware of it“ (d.h. wir sind uns dessen bewusst, m.E. seit
wohl über einem Jahr), „Well, it's more a theoretical
than a thechnical problem,“ (d.h. es ist mehr ein
theoretisches wie ein praktisches Problem; sowie ~“nicht
wirklich relevant in der Praxis&ldquo, Auf die Frage der
schlechten Presse und die Sorgen der Webmaster „well, it's an
issue, but it's good because of the PR“ (d.h. naja, es ist
public relation, dh „gratis Werbung&ldquo Ist es nicht
schlechte Werbung? Schulterzucken, Verweis auf PR Abteilung.
Wie schon oben erwähnt halte
ich dieses Problem für weit weniger schlimm als viele andere
Webmaster. Trotzdem kann ich sehr schlecht damit leben, wenn der
Head des whatever Departments hinsteht und klarmacht, was ich schon
von einigen Googler in Positionen gehört habe: Es ist uns sehr
wichtig was ihr sagt, und wenn wir es oft genug hören, werden
wir uns daran machen es zu lösen. Solche Versprechungen müssen
immer eingehalten werden! Und das Hijacking Problem wurde wohl oft
genug angemeldet.
Ich darf mir diese Kritik erlauben,
da ich ein grosser Fan von Google bin, bzw. ihrere Technik etc.
Jedoch bin ich der Meinung, dass Google stark an der PR arbeiten
müsste. Wichtig ist m.E. vor allem, dass sie eine europäische
Identität aufbauen, „we are a californian tech. company“
anlässlich der pre-Florida Problematik. Ich denke nicht, dass
sich dies gross geändert hat, und dass die Ausrichtung noch zu
stark in den Staaten liegt. Ausserdem sollen die guten Herren
endlich mal anfangen die Webmaster zu erziehen, denn sie hätten
die Möglichkeit dazu und es liegt m.E. grosses
(Bindungs-)Potential in dieser Idee.
Wird
die Blacklist automatisch oder manuell geführt? Antwort: Nur
semiautomatisch. (Wobei mindestens am Beispiel von Google
klar ist, dass der allergrösste Teil automatisch passiert, d.h.
es muss zuerst vom Algorithmus etwas erkannt werden, dass sich
überhaupt ein Mensch das anschaut. M.E. läuft viel
vollautomatisch.)
(M.E. ist die Blacklist ein Ort,
den ein normaler Webmaster mit gesundem Menschenverstand nie
erreicht (Aussnahmen!)).
Hat
Google Probleme mit komprimierter Datenübertragung? Antwort:
Nein, Google unterstützt immer zip. (M.E. ist klar,
dass bei nicht unterstützter Komprimierung unverschlüsselte
Daten gesenden werden, wonach sich die Frage erübrigt. Anfügen
sei jedoch noch, dass der „alte Googlebot“ (welcher m.E.
für die eigentliche Indizierung zuständig ist) die Daten
unkomprimiert zieht, während der „neue Googlebot“
(welcher m.E. sich zuerst einen überblick beschafft (Url
Sortieren, DC erkennen, etc) komprimierung unterstützt und
verwendet.
Tim Ringel
Off Site Massnahmen
Schon durchgeführte
Massnahmen
Planung von Off Site Aktionen
Zusammenfassung
Off Site Massnahmen
Sind wichtig um On Site Massnahmen zu
unterstützen. Bsp:
Sponsored Listings
Keyword Advertising
Quantitative Link Popularity
Qualitative Links Popularity
Webserverstruktur (...)
IP Adresse
(...)
Domainumfeld
History einer
Domain
Wettbewerbsumfeld
und Analyse (Eigene Seite sowie Konkurrenz anschauen und
vergleichen.
Sponsoring
(Bsp. Spenden führt zu einer Erwähnung mit Link)
Content
Kooperationen (Content Syndication)
Externe
Trackinglösungen und ihre Funktionalität (Referrer,
aber bitte nicht spammen, muss nicht manuell gemacht werden!)
Katalogeinträge
Domaineinträge
(?)
(Wichtig ist der
Markenschutz in sponsored Listings)
Schon durchgeführte
Massnahmen
Anzahl Links und deren Qualität
überprüfen (Linkpartner überprüfen)
Webserverstruktur (..)
Was ist mit der „History“
der Domain
Kontaktieren Sie relevante
Vermarkter
Was machen die Mitbewerber (diese
Identifizieren)?
Benutzen Sie eine
Trackingsoftware!
Ist meine Marke schützenswert?
Planung von Off Site Aktionen
Ansprechpartner sensibilisieren
(Ziele, Erfolge) (d.h. Wenn viele Personen an Contenterstellung
und insbesondere Programmierung beteiligt sind)
Schaffen Sie
Qualitative und Quantitative Link Popularität
PR Prozesse,
welche die SEO Bemühungen unterstützen:
Nutzung
vorhandener Unternehmungsstruktur (Tochterunternehmen,
Partnerunternehmen)
Austausch von
Themenrelevanten Links mit Marktpartnern und Verbänden
Planen Sie ein
Budget ein
Kundenaqusitionkosten
(..., die Kosten die entstehen um aus dem SE Traffic einen Kunden
zu gewinnen)
Mit dem
Pruduktmanager relevante Keywords erarbeiten
Beobachten Sie
die Benutzer, Welche Keywords führen zu welchen Ergebnissen?
Neben SEO
(langfristig) ist es sinnvoll auch sponsored Listings (schnell)
auszuprobieren)
Bestellvorgangoptimierung
Alle Daten
Sammlen (Logs, Keywordslisten, etc.)
Zeitplan für
On und Off Site Optimierung erstellen. Entscheidung treffen of
Arbeiten in house oder von einem Dienstleister erledigt werden.
Controlling!
Q&A
Frage: Wie kann ich die Domain History
herausfinden? Antwort: Links suchen. (archive.org, „domain.tld“
(mit &bdquo bei Google suchen)
Frage:
Tracking/Controlling Kennzahlen? Antwort: Speziallfälle tracken,
Session Länge ermitteln (Anzahl PI pro Unique Visitor)
Optimale Struktur
für erfolgereiche und sichere Web Seiten
Stefen Karzauninkat
(..)
Suchmaschinen
sind Datensammler
Sie erkenen
Html und Text, folgen Links, Zeichenketten, sie verstehen keine
Wortbedeutung. Suchmaschinen verstehen (meisst) keine
Multimediadateien. „Sie lesen Seiten wie ein alter Browser“
Struktur
(interne Linkstruktur) einer Seite (Hierarchie) soll
möglichst flach sein.
Hierarchische
Links mit Deeplinks auf der Startseite (Je kürzer der
interne Linkweg zu einer Seite (vom Zentrum aus) ist, desto
wichtiger ist sie. D.h. Wichtge Seiten von der Startseite verlinken)
Verteilseiten
(Sitemaps, nicht zu viele Links, Teilsitemaps)
Interne Verlinkung
Querlinks zu
Verteilseiten
Querlinks
innerhalb des Themas
Inhaltliche
Querlinks (Querlinks im Text)
Auf jeder
Seite auf die Startseite verlinken (sowie die Sitemap)
Einheitliche
Links Urls
Alle Seiten müssen auf kurzem
Weg (max 3 Klicks) erreichbar sein.
Ziel: Autoritäten schaffen
Broken Links checken mit Xenu
(http://home.snafu.de/tilman/xenulink.html#Download
Das Tool ist recht schnell)
Mögliche
Problemzohnen:
Frames: E
inzelne Seiten ohne Navigation werden indexiert
Lösung:
No-Frames Bereich, Auf Frames verzichten (Frames sind durch CSS
„imitierbar&ldquo
JavaScript:
Links werden nicht erkannt
Lösung: Blank
Links
Flash: Inhalte
werden nicht (oder nur teilweise) erkannt, Links werden nicht
erkannt.
Lösung: Keine
Zentralen Aussagen in Flash, keine wichtigen Links oder die
Navigation in Flash. Flash nur als Illustration verwenden.
Bilder statt
Text: Keine durchsuchbaren Infos
Lösung:
Alt-Text, Bilder nur zur Illustration verwenden
Weiterleitungen:
Lösung:
Möglichst Vermeiden
Dynamische
Seiten
Lösung:
Dynamische Seiten mod_rewrite, statischen Content auch statisch
darstellen, Einzelne Elemente können auch dynamisch eingebunden
werden.
Unproblematisch
PHP und SSI
includes, Layer
Verwenden Sie Meta
Angaben, robots.txt, Seitenstruktur (klare Titel)
(Seiten auf ihre Suchmaschientauglichkeit prüfen)
HTTP Protokoll und
die Suchmaschienen
Jürgen
Pruschausky (Webmaster von der Credit Suisse, CS)
Da die CS das HTTPS
Protokoll verwenden wollte und trotzdem von Suchmaschinen indiziert
werden wollten, tratz ein Problem auf, da die meissten Suchmaschinen
dies nicht unterstützen (Ausnahme: Google).
Als Gründe für
die Verwendung von HTTPS führt P. Authenzität, Integrität
und Anonymität an. Ohne HTTPS kann man alles mitloggen.
Deshalb hat er eine
Backdoor für Suchmaschinen gebaut.
Er erzählt die
Anektote von Google im März 2002, als sie anfingen HTTPS zu
erkennen. Dabei passierte der Fehler, dass sie die robots.txt
missachtet haben. 3.8 Millionen Seiten mussten gelöscht und neu
indiziert werden.
„Agent Web
Ranking“
SEO ist
Usabilityoptimierung