-
Notifications
You must be signed in to change notification settings - Fork 1
SEO Dokumentation
Coach - Prof. Christian Noss
TODOS:
- Checkliste
- 1.2 Nachbildung dessen was der Anwender will ausführlicher
- mehr Bilder und Beispiele einbinden
Off-Page
- Promotionsmethoden überarbeiten (TB)
Webtools
- Ausbauen, aktuelle Tools vorstellen, 2-3 genauer beschreiben (TB)
WBA 2013 - Überarbeitung von
WBA 2012 - Ausgearbeitet von
1. Einführung in die Suchmaschinenoptimierung
- Was versteht man unter Off-Page SEO?
- Welche Einflussfaktoren gibt es?
- Was sollte man vermeiden?
- Promotionsmethoden
4. Tools zur Verbesserung, Analyse und Auswertung
- Für was braucht man SEO-Tools?
- Kostenlose vs kostenpflichtige SEO-Tools
- Kostenlose und nützliche SEO-Tools?
Search engine optimization (kurz SEO) bezeichnet die inhaltliche und technische Optimierung von Webseiten mit dem Ziel eine möglichst positive Bewertung durch Suchmaschinen zu erhalten. Mit dieser Bewertung soll die Reichweite von Webseiten verbessert, und in vielen Fällen der Umsatz gesteigert, werden. Dabei versuchen Suchmaschinen das Surfverhalten von Benutzern nachzubilden. Automatisierte Software, sogenannte Crawler, rufen dabei die Inhalte der Webseiten über HTTP bzw. HTTPS in regelmäßigen Abständen ab und indexieren diese. Der Indexierungsvorgang interpretiert dabei das Markup und bewertet die semantische Bedeutung der Tags.
Die Crawler der unterschiedlichen Suchmaschinen fügen üblicherweise allen weiterführenden Hypermedia-Links (a
und area
Tags) einer Webseite zu ihrer Crawler-Link-Pool hinzu. Wenn alle Unterseiten einer Webseite über Links erreichbar sind kann die Suchmaschine diese automatisch auffinden. Daher reicht es in den meisten Fällen aus, die oberste Seite einer Suchmaschine bekannt zu machen (manuell oder über einen Referenzlink auf einer externen, bereits indizierten Seite.).
Die genaue Implementierung dieser Bewertung ist i.d.R. ein Geschäftsgeheimnis der unterschiedlichen Suchmaschinenanbieter.
Um die Ergebnisse der Suche zu beeinflussen, gibt es grundsätzlich zwei verschiedenen Ansätze. Es wird zwischen Anpassungen an der jeweiligen Webseite selbst (On-Page
) und der Einflussnahme auf externe Webseiten unterschieden (Off-Page
). Innerhalb des Rankingalgorithmus fließen mehr als 200 Faktoren ein, welche die Stellung der Seite beeinflussen. Aus diesem Grund ist es von Vorteil, wesentliche Aspekte der Suchmaschinenoptimierung zu kennen, um erfolgreiche Webseiten zu entwickeln. Im Laufe der Zeit kann es sein, dass bestimmte Faktoren an Bedeutung gewinnen oder verlieren. Daher gestaltet sich die Suchmaschinenoptimierung als dynamischer Prozess, dem regelmäßig Beachtung geschenkt werden sollte.
Bei der On-Page Optimierung handelt es sich um eine aktive Tätigkeit des Webseitenbetreibers. Er selbst bestimmt den Einfluss auf die Suchmaschinenergebnisse durch Anpassungen an der Seite. Beim Off-Page hingegen kann die Optimierung nicht direkt vom Webseitenbetreiber durchgeführt werden. Dennoch gibt es auch hier verschiedene Methoden zur Optimierung, die im weiteren Verlauf noch genauer beschrieben werden.
Moderne Suchmaschinen versuchen den „gesunden Menschenverstand“ nachzubilden. Bei der Suche, gehen sie heutzutage auf unterschiedliche Aspekte ein, welche auch ein Besucher der Webseite positiv bewerten würde. Dabei ist das Ziel jeder Suchmaschine dem Benutzer, die für ihn beste Webseite zu liefern. Die Suchmaschine übernimmt hierbei die Arbeit des Menschen. Durch den Abgleich zwischen Suchbegriff und dem indexierten Verzeichnis, werden direkt Seiten gefiltert, die (für diese Suchanfrage) irrelevanten Content bieten. Doch auch bei einer Vielzahl von Treffern, wird der Anwender letztendlich derjenige sein der entscheidet, ob die gefundenen Seiten für ihn wirklich von Bedeutung sind. Mit der Verwendung von Suchmaschinen kann der Benutzer sich in der Regel direkt auf den Inhalt der Seite konzentrieren.
Neben dem Abgleich der Suchbegriffe, werden noch zusätzliche Arbeitsschritte abgenommen. Darunter fällt die "Analyse" der Seite, die sonst vom Menschen durchgeführt werden müsste. Dazu zählen folgende Aspekte:
- Findet sich der eingegebene Suchbegriff im Falz (oberer, direkt sichtbarer Bereich).
- Erscheint die Domain „vertrauenswürdig“. Ohne Suchmaschinen würde man hier vermutlich eigenständig analysieren, welche Webseiten die verwendete Seite referenzieren. Dieses Verhalten bilden auch die gängigen Suchmaschinen ab.
- Die Performance einer Webseite.
Die Suchmaschinenoptimierung einer Webseite ist ein wichtiger Bestandteil des Web. Die Optimierung dient dazu, dass Nutzer von Suchmaschinen die passenden Webseite möglichst schnell finden können. Dabei muss einem die Existenz von verschiedenen Zielgruppen bewusst sein. Interessenten einer Seite können mit verschiedenen Erfahrungen, Wissen und Fähigkeiten ausgestattet sein. Dementsprechend speziell kann auch der Anspruch an eine erfolgreiche Suche sein und sollte auf den Anwender abgestimmt werden.
Bei einem Skateboard-Shop könnte man z.B. von unterschiedlichen Suchbegriffen ausgehen, abhängig davon wie tief der Suchenende in der Thematik ist:
- "Skateboard kaufen"
- "Bigfoot Trucks" (Achsen)
Unter On-Page Optimierung versteht man die Verbesserung der Webseite durch den Betreiber. Zur Anpassung der eigenen Webseite gehört sowohl die Ergänzung und Anpassung des Inhalts, der Struktur, als auch die Optimierung des HTML-Markups. In einigen Fällen kann sogar die Verwendungsart von JavaScript Auswirkungen auf die Webseite haben.
Bevor mit der Optimierung der Seite begonnen wird, sollte festgelegt werden unter welchen Suchbegriffen die zu optimierende Seite gefunden werden soll. Das Ziel ist es, bei den definierten Keywords so weit oben wie nur möglich bei vielen Suchmaschinen angezeigt zu werden. Dazu sind im optimalsten Fall der Title, die URL und die <h1>
gleich und kommen dazu noch im Meta-Tag description vor. Genauere Aspekte werden im folgenden erläutert:
Bevor man sich daran begibt das Markup einer Webseite zu verbessern, sollte man sich zunächst mit dem Inhalt beschäftigen. Jeder Internetnutzer, egal welcher Zielgruppe er angehört, möchte guten Content vorfinden. Dieses wird gewährleistet, wenn man seinen Inhalt sauber formuliert, strukturiert und leicht verständlich gestaltet.
Do's:
-
Es sollte darauf geachtet werden, dass die Navigation innerhalb der Seite klar erkennbar und für den
Benutzer leicht zu bedienen ist. Das Entwickeln einer sinnvollen Seitenstruktur mit Ober- und
Unterkatogorien, sowie das setzen von Deep-Links auf Unterseiten ist ein effektives Mittel. -
Einzigartigkeit des eigenen Inhaltes ist überaus wichtig. Es führt zu einem schlechteren Rating bei
Suchmaschinen, wenn der Inhalt nicht klar erkennbar ist. Ein negatives Beispiel dafür kann man auf der Seite "www.Heise.de" sehen. Sowohl beim Newsticker als auch auf der eigenen Security Seite stehen gleiche Artikel.
Dont's:
-
Allgemeine Wörter, wie Produkt oder Ähnliches, sollte man versuchen zu vermeiden. Kein Suchmaschinenbenutzer, wird nach „Produkt“ suchen, wenn eigentlich nach Skateboards gesucht wird. Daher sollten konkrete Begriffe verwendet werden, die den Inhalt eindeutig abheben.
-
Um eine höhere Lesbarkeit zu erzielen, sollte man keinen Text in Bildern verwenden. Dabei ist z.B. gemeint, dass der Titel als Text anfängt, aber als Bild beendet wird.
-
Um die Anzahl an getroffenen Wörtern, wird manchmal auf "unsichtbaren" Text zurück gegriffen. Dabei wird
der Text mit der selben Farbe versehen wie der Hintergrund. Wenn die Suchmaschine nun die Seite abarbeitet, findet sie Wörter und Absätze, die für den Benutzer unbrauchbar sind. Diese werden aber unter den Suchergebnissen und leiten den Suchenden fälschlicherweise auf die Seite. Manche Suchmaschinen erkennen diese Art von Text und vermerken ihn als Spam.
Egal wie sehr man die eigene Seite optimiert, guter Inhalt ist das Wichtigste. Wenn Nutzer diesen erkennen, werden sie ihn teilen.
Es ist wichtig einen prägnanten und aussagekräftigen Domainnamen zu erwerben. Unter "www.hosen.de" wird niemand einen Skateboardshop vermuten. Leserliche und sprechende Namen sind vom Vorteil. Seitennamen wie "seite1.html" sind weder für Nutzer noch Suchmaschine hilfreich. Neben dem reinen Domainnamen, gibt es auch im Verzeichnis Dinge die man beachten sollte. Eine gut strukturierte und nachvollziehbare Verzeichnisstruktur ist von Vorteil. Einige Nutzer navigieren über die URL, indem sie gewisse Teile löschen und hoffen auf übergeordnete Seiten zu landen.
Zur Veranschaulichung wird das Beispiel "www.skatedeluxe.de" herangezogen, die ein gutes Beispiel darstellen.
http://www.skatedeluxe.de/jacken-maedels
Die Beispielseite zeigt dabei die Domain, die Kategorie "Jacken" und dabei die Unterkategorie "Mädels". Versteht man einmal die Struktur wird klar, dass der Zusatz "-jungs" in die andere Unterseite führen wird.
Weiterhin sollte man darauf achten, dass man mehrere Wörter innerhalb der Bezeichnung mit Bindestrichen -
anstelle von Unterstrichen _
trennt. Der Unterschied für Google liegt darin, dass Bindestrich als Leerzeichen gewertet wird, wohin gegen Unterstriche als zusätzliche Wörter angehangen werden. Das kann bei der Suchanfrage zum Ausschlussfaktor werden.
Zudem sind statische URLs vorziehen. Im Gegensatz zu dynamischen sind diese für Mensch und Suchmaschine lesbarer und lassen sich eindeutiger erfassen. Dynamische URLs erkennt man speziell an Parametern wie &
, ?
oder =
. Einsatz findet diese Art oftmals bei Warenhäuser oder ähnlichen Seiten, wo eine Vielzahl von Produkte aus einer Datenbank ausgelesen werden. Auch Skatedeluxe ist von dieser Linkart nicht "verschont".
http://www.skatedeluxe.de/earthwing-supermodel-8-ply-40-102cm-longboard-deck_p50250?cPath=38_49_150&offset=1
Es ist überaus wichtig, einen <title>
-Tag einzurichten, dieser ähnelt üblicherweise der <h1>
Überschrift. Er erscheint in der ersten Zeile der Suchergebnisse. Der Titel wird im Tab des Browser angezeigt und hilft dem Nutzer schnell zu verstehen von was die Webseite handelt. Deswegen ist es sinnvoll einen kurzen, aussagekräftigen und beschreibenden Titel zu wählen. Um den Suchmaschinen deutlich zu machen, dass sich alle eurer Seiten unterscheiden, sollte jede Seite auch ein einzigartigen Titel bekommen.
Als Begrenzung sollte man darauf achten, dass maximal 65 Zeichen verwendet werden, da sonst nicht der ganze Titel in den Suchergebnissen aufgeführt werden kann. Auch eine Länge darüber hinaus ist möglich, aber nicht unbedingt sinnvoll.
Definiert wird dieser Inhalt im entsprechenden HTML Header:
<html>
<head>
<title>skatedeluxe Skateshop - Skateboards Longboards Schuhe </title>
</head>
<body>
Der Meta-Tag "description" liefert eine Zusammenfassung des Inhalts von der Internetseite. Er sollte nicht länger als ein paar Sätze oder einen kurzen Absatz beinhalten. Die Wichtigkeit des Tags wird deutlich, wenn man sich vor Augen führt, dass die Suchmaschine einen Abschnitt der description benutzt, falls sie keinen sinnvollen Absatz im Inhalt findet. Es ist zu beachten, dass für jede Seite eine eigene description formuliert wird. Dabei sollte man aber nicht den kompletten Inhalt der Seite rein kopieren. Ein geeigneter Inhalt wären die Alleinstellungsmerkmale der Seite. Auch hier sollte man auf eine angemessene Länge von 150 Zeichen nicht überschreiten. Wenn doch, so wird innerhalb der Seitenvorschau über die Suchmaschine ("Snippet") die Beschreibung abgekürzt.
Zusammen ergibt sich damit folgender Header. Dieser baut den Inhalt so auf, wie es die obige Vorschau zum Suchbegriff Skateshop darstellt:
<html>
<head>
<title>skatedeluxe Skateshop - Skateboards Longboards Schuhe </title>
<meta name="description" content"Skateboards, Longboards, Schuhe, Streetware, Snowboards im Onlineshopbestellen. Gratis Lieferung ab 20 Euro innerhalb Deutschland und [...]">
</head>
<body>
Der Meta-Tag "keywords" liefert eine Liste von Schlagwörtern unter der die Internetseite gefunden werden kann, obwohl diese nicht Bestandteil des Inhalts sind. Z.b. kann dies für Synonyme (Trucks statt Achsen) oder Stammwörter (Skaterolle statt Skaterollen) verwendet werden.
Anktertext ist ein hilfreiches HTML Tool um dem Nutzer deutlich zu machen, auf welche Seite er weitergeleitet wird. Sinnvoller Ankertext sollte sowohl für interne als auch externe Links benutzt werden. Dabei ist zu beachten, dass er kurz zusammenhängend und aussagekräftig formuliert wird.
Ein weit verbreitetes negativ Beispiel hierfür ist hier klicken.
Bei der Verwendung von <a href="http://www.9gag.com">hier klicken</a>
kann niemand erkennen, dass man mit diesem Link zu www.9gag.com weitergeleitet wird.
Die Überschriften <h1>
bis <h6>
sollten durchgehend benutzt werden. Sie dienen dazu, die Aufmerksamkeit des Nutzers zu lenken. Es sollte darauf geachtet werden, dass die Überschriften-Tags dazu genutzt werden den Text zu strukturieren und nicht um ihn zu gestalten.
Bei der Gestaltung von Texten werden gewisse Abschnitte oder Worte "Fett gemacht" um dem Leser die Wichtigkeit deutlich zumachen. Wenn man den <b>
-Tag benutzt unterscheidet die Suchmaschine den Abschnitt nicht von dem Rest. Wird hingegen ein <strong>
-Tag eingesetzt, erkennt die Suchmaschine, dass jener Teil des Textes eine höhere Gewichtung hat.
Bei der Verwendung von Bildern gibt es einige wichtige Punkte zu beachten.
Dos:
-
Es müssen inhaltlich passende
title
vergeben werden. -
Da die Suchmaschine die Bilder nicht "anschauen" kann, muss das
alt
-Attribut vergeben werden. Dieses
teilt der Suchmaschine mit, was auf dem Bild zusehen ist. Falls das Bild nicht geladen werden kann, wird
dem Nutzer der alternative Text angezeigt. -
Der Gebrauch von üblichen Formaten (.jpeg, .gif, .png, .bmp) ist überaus ratsam, damit auch jeder Benutzer die Bilder sehen kann.
Don'ts:
- Zu lange
title
undalt
-Attribute können jedoch als Spam aufgefasst werden. - Es sollte auf Standard-Namen, wie z.B.: Bild1 oder Ähnliches verzichtet werden. Dies macht es leichter die Bilder auch in einer Bildersuche zu finden.
Eine gute Einbindung hat demnach folgenden Aufbau:
<img src="Quelle zum Bild" alt="Hier die Beschreibung" title="Hier der Bildtitel">
Ein weiterer Rankingfaktor der in letzter Zeit zunehmend an Bedeutung gewonnen hat ist der PageSpeed. Das Ziel sollte es sein eine schnelle Website entwickeln, denn je schneller der Bot die Seite crawlen
kann, umso mehr Seiten werden indexiert. In der Regel trägt dazu auch eine gute Seitenstruktur bei, sowie
das Vermeiden von doppelten Inhalten. Ein Vorteil der sich direkt daraus ergibt ist die verbesserte User
Expirience. Je mehr die User angeregt werden auf einer Seite zu verweilen, desto mehr Unterseitenaufrufe und
Traffic wird erzeugt, der sich positiv auf die Rankingfaktoren auswirkt. Erreichen kann man dieses Ziel
zudem durch gezielte Wahl schneller Server, optimierten Code und eine reduzierte Datengröße.
Bei der Verwendung von Suchmaschinen durchsucht man in der Regel nicht das gesamte Internet, sondern den Index der Suchmaschine. Daher ist es wichtig, dass eine Webseite bei der Indexierung in das Verzeichnis aufgenommen wird. Dies wird von sogenannten Robots übernommen. Beispiele dafür wären der Crawler oder Spider.
Crawlability bezeichnet in dem Zusammenhang die Eigenschaft einer Seite, vom Crawler möglichst effektiv bearbeitet zu werden. Ziel ist es die Seite für den Bot schneller zu machen. Dabei sollte man doppelte Inhalte, unsauberen Code oder schlechte/ keine Verlinkungen vermeiden. Eine klare Seitenstruktur bei der auch die Unterseiten sinnvoll miteinander verlinkt sind. Bei der Abarbeitung von Seiten, steht dem Crawler nur eine bestimmte Zeit zur Verfügung. Läuft diese ab, wird mit der nächsten Seite weitergemacht, unabhängig davon ob die Seite komplett abgearbeitet wurde oder nicht. Struktur optimiert daher die Geschwindigkeit und es können mehr Seiten einer Webpräsenz indexiert werden.
Suchmaschinen-Crawler arbeiten die semantische Struktur einer Webseite ab und verfolgen dabei grundsätzlich jeden Link. Da dies nicht in allen Fällen gewünscht ist, kann dies über spezielle Annotationen an den Links verhindert werden. Hierfür gibt es unterschiedliche Gründe.
-
U.a. wenn sich der Inhalt hinter einer URL schneller aktualisiert als die regelmäßige Aktualisierung durch die Suchmaschinen-Anbieter durchgeführt wird. Während eine Seitenzahl (-URL-Parameter) bei einem Artikel (Seite 1, 2 und 3) noch funktioniert, ist dies ein häufiges Problem bei Blogsystemen, da hier die Artikel von Seite 3 nach einiger Zeit nicht mehr auf dieser Seite zu finden wären. Besser wäre hier eine Archivierung nach Monaten, da diese Übersichten dauerhaft gültig sind.
-
Bei dynamisch erstellten Links mit einer Vielzahl an möglichen URLs kann eine Suchmaschine den Unterschied zwischen
/artikel?tag=keyword1&tag=keyword2&page=2
und/artikel?tag=keyword2&tag=keyword1&page=2
nicht unterscheiden. Wenn es hier eine „scheinbar unendliche“ Anzahl an Kombinationen gibt empfiehlt es sich alle oder einen Teil dieser Links als nicht relevant für eine Suchmaschine zu markieren.Bei einer Artikelliste bei der nach mehreren Tags gefiltert werden kann macht es beispielsweise Sinn nur Listen mit einem Tag zu indizieren und den Zugriff auf Kreuzprodukte mit zwei oder mehr Tags zu unterbinden.
-
Grundsätzlich wenn der Inhalt nicht über eine Suchmaschine gefunden werden soll. Dies kann unterschiedliche Gründe haben, beispielsweise wenn Mitarbeiter nicht über die Mitarbeiterliste des Unternehmens gefunden werden möchten oder ein Unternehmen z.B. zu einer Richtigstellung verpflichtet wird.
-
Zur Steigerung des Ratings einer fremden Webseite verwenden Spammer gerne Foren und Kommentar-Funktionen von Blogs um auf eine bestimmte Seite ohne inhaltlichen Zusammenhang zu linken. Um dies zu verhindern bzw. den Nutzen für solches Vorgehen zu verhinden können Links im User generated Content für eine Suchmaschine als irrelevant gekenntzeichnet werden.
Wenn eine Indizierung von Unterseiten nicht gewünscht ist, kann
dies im Markup angegeben werden. Zum einen kann dem Crawler bei
Links angegeben werden, dass dieser nicht in den Crawler-Link-Pool
aufgenommen werden soll. Hierfür muss das rel
-Attribute auf
nofollow
gesetzt werden.
Wenn beispielsweise die Liste der Mitarbeiter einer Webseite nicht indiziert werden soll könnte der Link wie folgt angegeben werden:
<a href="/mitarbeiter.html" rel="nofollow">Mitarbeiter</a>
Um sicherzustellen, dass diese Seite nicht indiziert wird, muss dieses
Attribut bei allen Links gesetzt werden. Da dies nicht in jedem Fall
sichergestellt werden kann, gibt es als alternativ auch die Möglichkeit
auf der Zielseite einen entsprechenden Hinweis für die Suchmaschine
zu hinterlegen. Hierfür muss im Header ein meta
-Tag mit dem Namen
robots
auf noindex
gesetzt werden:
<meta name="robots" content="noindex" />
Über die Robots-Einstellungen können auch weitere Optionen für die aktuell indexierte Seite gesetzt werden. Teilweise sind diese Zusatzoptionen Hersteller-Abhängig und werden nicht von allen Suchmaschinenanbietern zwingend gleich interpretiert.
Beispielsweise kann die nofollow
Option auch für die gesamte
aktuelle Seite gesetzt werden. Einzelne Links können davon einzeln
ausgenommen werden:
<meta name="robots" content="noindex, nofollow" />
<a href="/angebote.html" rel="follow">Angebote</a>
Darüber hinaus existieren auch vollständig Anbieter-Spezifische
Optionen. Der Google-Crawler kann z.B. über die Option googlebot
eingestellt werden. So können die oben genannten Optionen nur für
Google gesetzt oder überschrieben werden. Google bietet zusätzlich
z.B. auch Optionen an um die Darstellung der Suchergebnisse zu
beeinflussen. So kann mit der Parameterwert nosnippet
verhindert
werden das bestandteile der Seite als Beschreibung zu einem
Suchergebnis angezeigt werden.
<meta name="googlebot" content="noindex" />
<meta name="googlebot-news" content="noindex, nosnippet" />
Neben diesen beiden Möglichkeit die Indixierung von Seiten zu steuern
gibt es noch das The Robots Exclusion Protocol. Hier beschreibt
man in einer Textdatei Regeln für erlaubte und insbesondere nicht
erlaubte Zugriffe auf den Server. Der Suchmaschinen-Crawler lädt diese
Datei herunter bevor er das eigentliche Markup der Seite herrunterlädt.
Für den Download dieser Datei wird per Konvention der Pfad /robots.txt
an den Domainnamen angehangen.
Bei der Datei robots.txt
handelt es sich um eine reine Textdatei welche
in Blöcke unterteilt wird. Blöcke beginnen mit einem User-agent
und enden mit einem oder mehreren Disallow
Zeilen. Der User-agent
definiert dabei für welchen Suchmaschinen Crawler der entsprechende Block
gilt. Es sind also unterschiedliche Regeln für unterschiedliche
Suchmaschinen definierbar. Jede Disallow
Regel verhindert, dass die
Crawler eine Anfrage an den Server schicken.
User-agent: *
Disallow: /mitarbeiter.html
Disallow: /images/
In diesem Fall wird also verhindert das die Mitarbeiter-Seite oder in die Webseite eingebundene Bilder runtergeladen wird.
Im Gegensatz zu den beiden erstgemeinten Varianten bewirkt nur die
robots.txt
das überhaupt keine Anfragen an den Server gestellt werden.
Dies kann z.B. relevant sein, wenn viel dynamischer Content angeboten
wird.
Datenschutz
Auf die Einhaltung dieser „Spielregeln” kann man sich als Betreiber einer Webseite jedoch nicht verlassen. So können „Spezial-Suchmaschinen” diese Attribute z.B. ignorieren. Diese Optionen bieten also keinen ausreichenden Schutz vor Datenmissbrauch und Spam.
TODO an geeigneter Stelle kurze grafische Themenübersicht einbinden, eventuell weitere Abbildungen.
Ein zweiter wesentlicher Aspekt ist die Off-Page Optimierung. Im Gegensatz zur On-Page Optimierung, versteht man darunter Verbesserungsmöglichkeiten, die nicht direkt auf der eigenen Webseite durchgeführt werden können, sondern auf externen Faktoren und der Präsenz im Internet beruhen. Auch wenn man bei der Entwicklung keinen direkten Einfluss auf die Off-Page Kriterien ausüben kann, sollte dieser Ansatz nicht vernachlässigt werden. Denn nur im Zusammenspiel zwischen On- und Off-Page Kriterien, kann eine Internetseite nachhaltig etabliert werden.
Fasst man das Thema Off-Page Optimierung auf einen Punkt zusammen, so geht es dabei um den Aufbau eines qualitativ hochwertigen und umfangreichen Backlinkprofils. Ein Backlink ("Rücklink") ist eine Verlinkung von externen Seiten auf die eigene und kann daher als Empfehlung anderer User für die eigene Website verstanden werden. Dabei reicht es jedoch nicht aus, möglichst viele Verlinkungen von beliebigen Anbietern zu erhalten. Auch hierbei spielen diverse Faktoren eine tragende Rolle.
Um ein Verständnis über die Off-Page zu erhalten und mögliche Ansätze zur Optimierung zu verstehen, werden im folgenden zentrale Bewertungskriterien vorgestellt.
Das Grundprinzip nachdem die meisten heutzutage relevanten Suchmaschinen arbeiten ist: Je mehr Links auf eine Seite zeigen, umso höher ist ihre Relevanz. Dabei sollte jedoch grundsätzlich darauf geachtet werden, dass mehr nicht immer gleich besser bedeutet. Es sollte hierbei auch vor allem auf Themenrelevanz geachtet werden.
Die Anzahl von Links die auf eine Seite zeigen nennt sich Linkpopularität. Um zu verhindern, dass die Seite durch Links die alle von einer Seite (oder ihren Unterseiten) stammen im Ranking nach oben geschoben wird, kommt die Domainpopularität ins Spiel. Die Domainpopularität spiegelt wieder, wie viele Rücklinks von unterschiedlichen Domains stammen. Als Rankingfaktor hat diese Methode die normale Linkpopularität abgelöst, damit der Einfluss einer einzigen Quelle reduziert wird. Ein weiterer Schritt in diese Richtung wäre die IP-Popularität, die nur die Verlinkungen betrachtet, die von unterschiedlichen IP-Adressen stammen.
Am Anfang stellt sich hierbei die Frage, wie eine Seite eigentlich bewertet wird. Woran kann man erkennen, dass eine Seite die einen Link verbreitet "angesehen" ist und selbst eine gute Stellung im Internet besitzt.
Ausschlaggebend dafür ist die Klassifizierung durch den sogenannten PageRank Der PageRank ist ein Verfahren um die Relevanz einer Webseite zu identifizieren und zu bewerten. Diese Methode stellt einen der wichtigsten Punkte bei der Bewertung einer Webseite da. Jede Seite auf die der Crawler der Suchmaschine stößt wird mit einer Zahl zwischen 0 und 10 behaftet. Ein niedriger PageRank bedeutet, dass die Seite eine niedrige Relevanz hat und ein hoher Wert kennzeichnet eine hohe Relevanz. Der PageRank beeinflusst darüber hinaus die Stärke der gesetzten Links. Umso höher der PageRank der Seite ist der auf eine andere Webseite verlinkt umso höher ist auch die Stärke des Links, solche Links sind wichtig und für den Betreiber Wertvoller als eine Menge von Links mit niedrigem PageRank.
Die ursprüngliche Bezeichnung stammt vom Entwickler Larry Page und hat in dem Sinne nichts mit der Bezeichnung "Seitenrang" zu tun.
Auch das Surfverhalten spielt eine immer wichtigere Rolle. So kann davon ausgegangen werden, dass Seiten die über Links aufgerufen wurden und nach sehr kurzer Zeit wieder geschlossen werden eine niedrige Relevanz besitzt. Durch das Auswerten von Logfiles ist es möglich verschiedene Informationen festzuhalten z.B.:
- Die Adresse die der Benutzer vorher besucht hatte
- Die Adresse die nach dem Aufenthalt besucht wird
- Wie lange der Benutzer die Seite besucht hat
Es existiert spezielle Software wie die Alexa Rank Toolbar die das Surfverhalten der Benutzer aufzeichnet, auswertet und daraus ein Ranking für eine Suchmaschine erstellt.
Wie kann man ein Linkportfolio aufbauen?
Gerade in der Anfangsphase einer neuen Internetseite kann man als Entwickler vor dem Problem stehen, dass seine Seite keine große Leserschaft findet und daher nicht weiterverteilt und weiterempfohlen wird. Daher ist es von Vorteil selbst die Initiative zu ergreifen und auf sich aufmerksam zu machen. Gute Verlinkungen bekommt man dabei von Freunden und Bekannten, Kunden oder Arbeitspartnern sowie über Einträge in Firmenverzeichnisse. Weiterhin kann man seine Inhalte auf Social Media Plattformen, in Foren und anderen Communities teilen oder über Gastbeiträge auf anderen Seiten und Blogs auf sein eigenes Projekt verweisen. Weitere Möglichkeiten bieten zudem diverse Promotionsmethoden (die im Kapitel 3.4 genauer dargestellt werden). Diese können ebenfalls zur gewünschten Verbreitung einer Seite betragen, jedoch sollte hierbei speziell darauf geachtet werden schlechte oder unnatürliche Links zu vermeiden.
Die Seite sollte Interessenten durch qualitative und informative Inhalte einen Mehrwert bieten, der die Leser selbst dazu ermutigt die Seite zu verbreiten. Beispielhaft wären solcher exklusiven Inhalte wären z.B. Fotografien oder gut aufbereitete Statistiken, sowie neue Inhalte die sich von bekannten Dingen abheben.
Ein Punkt, den man in diesem Zusammenhang mit der Bewertung einer Seite nicht unterschätzen sollte, ist die Aktualität.
Seiten die öfters aktualisiert und/oder erweitert werden sind in den Suchergebnissen schneller zu finden als Seiten die einmal hochgeladen werden und anschließend statisch bleiben. Ein weiterer Indikator für die Aktualität einer Seite ist der Zeitpunkt des zuletzt gesetzten Backlinks. Suchmaschinen gehen davon aus, dass Seiten die vor kurzer Zeit einen Links erhalten haben auch noch relevante Informationen beinhalten. Es kann auch überprüft werden wie oft eine Seite aufgerufen wurde, dies passiert unter anderem mit der Linkpopularität.
Woran erkannt man einen guten Link?
Moderne Suchmaschinen zählen nicht nur wie viele Backlinks eine Seite besitzt, sondern bewerten auch die Qualität von Links. Findet der Crawler eine Seite mit massig an Links zu verschiedenen Seiten wie beispielsweise bei Linklisten, so wird die Stärke der Links abgewertet.
Die Position in der sich ein Link auf einer Seite befindet, stellt ebenfalls ein Kriterium dar. Ein Link der sich im oberen Contentbereich einer Seite befindet besitzt also eine wesentlich wertvollere Qualität als ein Link umgeben von vielen anderen Links. Mit der Einbindung in einen Artikel wird direkt auf eine weitere Quelle hingewiesen und es zeigt sich dadurch, dass die referenzierte Seite eine inhaltliche Relevanz zum Thema bietet.
Es ergeben sich also folgende Kriterien die einen guten Link auszeichen:
-
Linkquelle: Ist die Seite die meinen Link verteilt vertrauenswürdig, themenrelevant und bietet für die Leser einen Mehrwert?
-
Linknachbarschaft: In welchem Umfeld befindet sich ein Link mit anderen Verlinkungen. Sind diese thematisch
von Bedeutung oder existieren sie nur innerhalb einer Linkliste um die Anzahl zu erhöhen? -
Linktext: Die Bezeichnung unter die auf eine Seite hingewiesen wird. Ist diese aussagekräftig und innerhalb von Artikeln verbaut, so zeigt sich eine thematische Relevanz.
Gerade zum Anfang der Entwicklung kann es vorkommen, dass man schnell dazu verleitet wird, jegliche Option wahrzunehmen um sein Linkprofil zu erweitern. Dabei handelt es sich dann in der Regel um schlechte Links, die nur allein für die Verlinkung existieren und dem Benutzer keinerlei Mehrwert bieten. Solche unnatürlichen Links sorgen in der Regel kaum für nachhaltige Interessenten und werden von Suchmaschinen schnell bestraft. Wird eine Seite mit vielen schlechten Links identifiziert, ist es sehr schwer gegen diese Einstufung der Suchmaschine entgegenzuwirken und sie nachhaltig auszubessern.
Schlechte Links sind beispielsweise
- Forenspam
- komplett wahlloser automatisierter Linkaufbau
- Kommentarspam z.B. in Blogeinträgen
- erworbene Links über Linkpakete
Stellt man sich grundsätzlich die Frage "Bietet mein Link für den Leser einen Mehrwert?" und kann man diese mit ja beantworten, so läuft man in der Regel keine Gefahr schlechte Links zu vermitteln.
Wie erkennt die Suchmaschine schlechte Links?
Damit stellt sich noch die Frage, wie diese schlechten oder unnatürlichen Links erkannt werden können. Ein bekanntes Beispiel dafür, ist die Mitte 2004 eingeführt Google Sandbox.
Dabei handelt es sich um einen Filter für besagte Suchmaschine, die darauf aufmerksam wird, wenn eine neue Webseite innerhalb kurzer Zeit einen starken Zuwachs an Backlinks erhält und versucht ihr Ranking durch inakzeptable Methoden zu erhöhen. Gerät eine Seite unter Verdacht, so wird sie herausgefiltert und beim Suchmaschinenranking hinten angestellt. Sie kommt quasi "zum Spielen in den Sandkasten" und in der Regel wird entsprechende Seite erst nach drei bis sechs Monaten (kann auch darüber hinaus gehen) wieder normal in den Suchergebnissen dargestellt.. Der Grund für dieses Filtersystem ist die mutmaßliche Manipulation des Suchmaschinen Rankings, indem Anbieter selbst mehrere Domains erstellen und somit versuchen ihre eigene Seite durch möglich viele Rücklinks zu pushen.
####Links Kaufen/Tauschen
Zu einem gewissen Mass ist es erlaubt, dass Ranking in den Suchmaschienen zu beeinflussen, doch man sollte vorsichtig vorgehen. Gerade in der Anfangszeit ist es wichtig zu berücksichtigen, dass man nicht zuviele Links in kurzer Zeit aufbaut. Die Suchmaschine identifiziert so ein verhalten und bestraft Seiten mit einem unnatürlichen Linkaufbau.
Es gibt verschiedene Foren im Internet die sich genau mit dieser Problematik kaufen/tauschen/mieten beschäftigen. In solchen Foren findet man nicht nur den geeigneten Linkpartner, sondern auch Anzeigen von Webmastern die auf der Suche nach Linkpartnern sind bzw. Backlinks zu ihrer Seite verkaufen/vermieten.
Beim Kauf/Tausch eines Backlinks gibt es verschiedene Dinge zu beachten. Zuersteinmal ist es wichtig einen passenden Partner zu finden. Der PageRank der Seite sollte unbedingt analysiert werden und sollte ungefähr im selben Bereich wie ihr eigener liegen. Auch das Thema der Partnerseite sollte etwas mit dem Thema ihrer Seite zu tun haben, so wird ein Besucher einer Fußballnewsseite wohl kaum an einem Link zu einer Pferdeinformationsseite interessiert sein.
Auch der Zeitpunkt des Kaufs spielt eine Rolle. Die Crawler der Suchmaschinen brauchen Zeit um die Verlinkung zu erkennen. Es muss mit einer Zeit von 3-6 Monaten gerechnet werden bis der Backlink im System berücksichtigt wird, deswegen muss darauf geachtet werden, dass man nicht zuviele Links in kurzer Zeit aufbaut.
####Webkataloge Webkataloge bieten die Möglichkeit eine Webseite in einem Katalog von Links einzutragen, um einen Backlink für die eigene Seite zu erhalten. Die meisten Webkataloge sind in verschiedene Themengebiete aufgeteilt und es kann eine kurze Beschreibung ihrer Webseite hinzugefügt werden. Ein wichtiges Kriterium bei der Auswahl eines Webkatalogs ist die Identifizierung des Page Ranks der Seite auf die ihr Link letztendlich erscheinen soll.
Einige Webkatalog fordern für eine Eintragung, dass der Webmaster der seine Webseite im Katalog eintragen möchte einen Backlink zum Katalog auf seiner seite eintragen muss. Da die Suchmaschinen dies als Linktausch werten ist davon abzuraten solch ein Angebot zu nutzen.
Eine gute Seite um passende Webkataloge zu finden ist die Webkatalogsuche von ranking-check.de: Webkatalog Suchmaschine
####Weblogs Weblogs sind ein komfortables Mittel um Informationen im Internet zu veröffentlichen und über diese zu diskutieren. Durch die Tatsache dass jeder Besucher einer Webseite Kommentare zu allen Themen erstellen kann, schätzen die Suchmaschinen die Aktualität der Informationen als sehr hoch ein. Ein großer Vorteil von Backlinks innerhalb von Blogsystemen ist, dass die Artikel archiviert werden und auch lange Zeit nach der Veröffentlichung einsehbar sind. Man spricht in diesem Zusammenhang von Permalinks.
####Social Bookmarking Social Bookmarking Seiten bieten die Möglichkeit favorisierte Seiten auf einem Server abzulegen, um darauf gemeinsam zugreifen zu können. Auf den meisten Seiten dieser Art registriert sich der Benutzer und erhält ein persönliches Profil. Nach dem registrieren kann er favorisierte Seiten zu seinem Profil hinzufügen und Favoriten der anderen Nutzer bewerten oder kommentieren. Durch die Funktion Favoriten zu bewerten ist es möglich eine Rangliste aller Favoriten zu erstellen, wodurch es Suchmaschinen möglich ist die Beliebtheit von Webseiten sehr genau festzustellen.
####Pressemitteilungen Eine Pressemitteilung an bekannte Presseverteiler kann unter Umständen zu einigen Links auf ihre Seite führen. Es ist von Vorteil die Pressemitteilung an Redakteure zu schicken, die sich mit ähnlichen Themen wie die eigene Webseite auseinander setzen.
####Gästebücher/Linklisten Das Eintragen in unzählige Gästebücher oder Linklisten (Spammen) wird von einer intelligenten Suchmaschine erkannt und wird zu Abzügen innerhalb der Bewertung führen. Von dieser Methode, Linkspamming gennant ist abzuraten.
TODO eventuell kurze Abbildungen?
Unter SEO-Tools werden Programme verstanden, die verschiedene Arbeiten und Prozesse in den Bereichen der Suchmaschinenoptimierung erleichtern bzw. unterstützen. Neben installierbarer Software, bieten viele Anbieter ihre Software als Browserapplikation an. Die verschiedenen Programme sind größtenteils Allrounder und decken alle Funktionsbereiche ab, einige wenige haben sich auf ein Aufgabengebiet spezialisiert.
Wichtige Informationen über eine Webseite findet man auch kostenlos, nur benötigt man meistens mehr als nur ein Tool und es beansprucht auch eine Menge Zeit. Kostenpflichtige Tools bieten diese Daten auf einem Blick. Außerdem bieten viele kostenlose SEO-Tools keinen großen Funktionsumfang oder sie haben eine Begrenzung der Abfragen. Diese Tools dienen den Anbietern eigentlich dazu, Werbung für ihre eigene kostenpflichtige Software zu machen. Dies führt zur Frage, ob man unbedingt mehr Informationen als die, die man kostenlos bekommt benötigt?
Das hängt davon ab, was man mit seiner Seite erreichen will. Betreibt man nur einen normalen Blog und veröffentlicht gelegentlich Inhalte, reichen die kostenlosen Tools vollkommen aus. Beabsichtig man mit seiner Seite in Google besser platziert zu werden, um Geld zu verdienen, sollte man sich die kostenpflichtige SEO-Tools anschauen.
####Backlink Tools
Dieses Tool ermittelt die aktuellen Backlinks auf einer Webseite. Dieses Tool zeigt neben der Domain, auch die Anzahl der Backlinks auf einer Webseite an. Zusätzlich werden noch andere Infos wie PageRank und Alexa Rank angezeigt.
####Keyword Tools:
Mit Hilfe dieses Tools lässt sich die Popularität einzelner Begriffe im Zeitablauf analysieren, was Rückschlüsse auf formierende Trends in der Gesellschaft erlaubt.
Tool für Keyword-Vorschläge. Zeigt neben den Vorschlägen auch den Wettbewerb, sowie die monatlichen Suchanfragen. Dieses Tools bietet einen die Möglichkeit, bestimmte Suchwörter zu überprüfen und zu schauen, wie oft diese in Google gesucht werden. Zusätzlich werden ähnliche Suchbegriffe vorgeschlagen. Mit einem Google AdWords Account werden mehr Informationen angezeigt.
Mit Hilfe dieser Seite können aus Texten und Webseiten Keywords generiert werden. Damit man aus einer Webseite Keywords generieren kann, muss man als URL entweder die Adresse von einem Blog, einem Atom oder eines RSS Feed von der Webseite eintragen. Als nettes Feature werden die Wörter gestalterisch angezeigt und können sowohl optisch, als auch inhaltlich modifiziert werden (landesspezifische Wörter filtern).
Dieses Tool eignet sich um den Quellcode seiner Seite zu analysieren. Hier werden alle vorkommende Wörter untersucht und es wird ihnen eine Gewichtung zugewiesen. Als Ergebnis erhält man eine Prognose, unter welchen Begriffen Ihre Webseite derzeit in den Ergebnislisten der Suchmaschinen auf den vorderen Rängen platziert werden dürfte. Das besondere an der Seite ist, dass man lokale HTML-Dateien hochladen kann.
####Toolsammlungen
Mit den Webmaster Tools von Google bekommt man ausführliche Berichte über die Präsenz seiner Seiten auf Google, wie zum Beispiel eine Analyse des Website-Crawlers und mit welchen Suchbegriffen die Benutzer auf eine Seite gelangen.
Diese Seite bietet eine Vielzahl an kostenlose Tools für Suchmaschinenoptimierung an. Neben den grundlegenden Analyse Tools bietet diese Seite auch einen Spider/Crawler Simulator an. Damit kann man die Website aus der Sicht eines Webcrawlers anzeigen lassen.
On-Page
-
Einführung in die Suchmaschinenoptimierung (pdf) von Google.
Verlinkt bei den Webmaster-Tools, gesichtet am 11.11.2013 - http://www.w3.org/TR/html5/links.html#linkTypes, zuletzt gesichtet am 11.11.2013
- http://www.robotstxt.org/meta.html, zuletzt gesichtet am 10.11.2013
- https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag, zuletzt gesichtet am 19.11.2013
- http://www.robotstxt.org/robotstxt.html, zuletzt gesichtet am 10.11.2013
- https://support.google.com/webmasters/answer/35769?hl=de zuletzt gesichtet am 14.11.2013
Off-Page und SEO-Tools
- http://www.drisol.com/informationen/seo-lexikon/offpage/, zuletzt gesichtet am 02.11.2013
- http://www.seo-united.de, zuletzt gesichtet am 02.11.2013
- http://www.selbstaendig-im-netz.de/2010/03/30/seo/machen-kostenpflichtige-seo-tools-sinn/, zuletzt gesichtet am 01.11.2013
- Inhaltlich viele wesentlichen Informationen vorhanden, angemessene Länge
- deutliche (Stil-) Trennung zwischen SEO 1 und SEO 2 durch unterschiedliche Teams
- SEO 1: Ordentlich formuliert und strukturiert; mehr Beispiele wären von Vorteil
- SEO 2 (ab Off-Page): Zusammenhänge werden nicht deutlich, Aufbau wie Glossar, "Aufzählung von Begriffen", Webttools zu knapp und kein Beispiel genau
- Verbindung zwischen SEO 1 und SEO 2 schaffen, inhaltlich und stilistisch (roter Faden)
- Wiederholungen von Informationen vermeiden, Abschnitte strukturell aufeinander aufbauen
- Informationen mit mehr Beispielen und Abbildungen verdeutlichen
- notwendige fehlende Informationen ergänzen
1. Einführung in die Suchmaschinenoptimierung
-
- Hälfte übernommen
- Zusammenführung mit vorher 1.3 Unterscheidung zwischen On-Page und Off-Page, da sich Inhalt wiederholte + Ergänzung einzelner Informationen
- Kleinere Umformulierungen
- Einführung in Verbindung mit 1.3
- Ergänzung von inhaltlichen Informationen
- Inhalte der Do's 3
- Domain und URL Abschnitt ausgebaut
- Markup - Beispiele verdeutlichen mit Codeeinbindung
- Neu: Bedeutung des Crawlers
- allgemeine Struktur überarbeitet
- teilweise Verwendung vorhandener Informationen, grundsätzlich von neu auf angelegtes Kapitel
- komplette Einführung neu
- Neu: Wie kann man ein Linkportfolio aufbauen?
- Neu: Woran erkennt man einen guten Link?
- komplettes Kapitel neu
- Google Sandbox in Anlehnung an vorhandene Ausarbeitung neu aufgesetzt