SEO-On-Site – Optimierung der gesamten Webseite

SEO-On-Site

Im Leitfaden-Artikel wurde SEO-On-Site bereits in den Gesamtzusammenhang der Suchmaschinenoptimierung gestellt. Trotzdem wird dieses Gesamtverständnis nochmals kurz wiederholt: Dieser Artikel zum Thema SEO-On-Site hat das Ziel aufzulisten, was auf einer Webseite generell gemacht werden sollte, um dadurch die Chance zu erhöhen, von den Suchmaschinen auf deren Ergebnisseiten höher positioniert zu werden.

In Abgrenzung dazu präsentiert der SEO-On-Page-Artikel dem Infopreneur eine Auflistung der wesentlichen Punkte, die er speziell bei der Erstellung jeder neuen Inhaltsseite berücksichtigen sollte.

Beide Bereiche zusammen beschreiben das, was innerhalb einer Webseite getan werden kann, um deren Optimierungsprozess für Suchmaschinen durchzuführen. Eine scharfe Abgrenzung zwischen diesen beiden Inhaltskonzepten findet dabei nicht statt: Dementsprechend werden einige Themen in beiden Bereichen behandelt – im einen mehr, im anderen weniger.

Inhaltsverzeichnis

 Template (top)

Für Suchmaschinen ist es sehr wichtig Ergebnisse liefern zu können, welche beispielsweise auch auf Tablets oder Smartphones betrachtet und benutzt werden können, denn der mobile Anteil des Internets ist seit längerem stetig am Steigen. Dementsprechend sollte der Einfluss auf das Ranking sehr hoch sein.

Aus diesem Grund sollte die eigene Webseite auf einem HTML5-Code basieren, der unterschiedlichsten Geräten (Desktop, Laptop, Tablet, Smartphone) auch über verschiedene Browser den Zugang vollständig bereitstellen kann. In diesem Zusammenhang spricht man oft von einem „Responsive Design“ – ein Webseiten-Template, das auf die Anforderungen des verwendeten Geräts reagieren kann. Am einfachsten lässt sich das prüfen, in dem die eigene Webseite von diesen unterschiedlichen Geräten aufgerufen wird.

Domain (top)

Zum Thema Domain gibt es zwei bedeutende Aspekte, deren man bewusst sein sollte:

Zum einen sollte es lediglich eine einzige Domain geben, die auf eine Webseite verlinkt. Diese Anforderung stellen seit kürzerer Zeit die wichtigsten Suchmaschinen, denn deren Interesse liegt darin, ihren Nutzern eindeutige Ergebnisse liefern zu können. Dies jedoch würde nicht problemlos funktionieren, wenn mehreren URL-Adressen gleichen Inhalten zugewiesen wären. Aus diesem Grund sollte das vom Webseiten-Betreiber verhindert werden. Wie sich das umsetzen lässt, wird im nachher folgenden Bereich „Duplicated Content“ beschrieben.

Zum anderen sollte man in die Domain ein oder mehrere Keywords einbauen. Dies hätte laut den meisten SEO-Berichten zufolge einen starken, positiven Einfluss auf das Ranking der eigenen Website.

Seitenanzahl (top)

Die maximale Anzahl von Seiten, die den Suchmaschinen zur Indexierung bereitgestellt werden dürfen, hängt von der Stärke der Verlinkung der Webseite ab. Laut den SEO-Berichten sollten spärlich verlinkte Webseiten den Suchmaschinen nicht mehr als 50.000 Seiten anbieten, wohingegen extrem verlinkte bis zu 500.000 Seiten offerieren dürfen. Alles darüber Hinausgehende hat einen negativen Einfluss auf das Ranking innerhalb der Suchmaschinenergebnisse. Sollte eine Webseite auf mehr Seiten aufgebaut sein, so könnten Sub-Domains eingesetzt werden, da diese wie eigene URLs von den Suchmaschinen behandelt werden und sich damit negative Effekte verhindern liessen.

„news.ihrbeispiel.de“ – damit lassen sich die Nachrichten auslagern.
„shop.ihrbeispiel.de“ –  damit lässt sich der Verkauf auslagern.
„forum.ihrbeispiel.de“ – damit lässt sich das Forum auslagern.

Indexierung (top)

Prinzipiell sollten alle Inhalte einer Webseite durch Suchmaschinen indexiert werden. Denn nur so können die Inhalte mit Hilfe der Suchmaschinen von den Nutzern gefunden werden, und im Umkehrschluss werden die Nutzer dadurch auch zur Webseite angezogen.

Damit die eigene Webseite von den Suchmaschinen indexiert werden kann, müssen diese zunächst einmal Kenntnis über deren Existenz besitzen. Dies erfolgt entweder durch externe Links, die die Suchmaschinen beim Indexieren anderer Webseiten finden und ihnen dann folgen, oder in dem man die eigene Webseite bei den Suchmaschinen zum Indexieren anmeldet.

Um es den Crawlern beim Indexieren auf der Webseite möglichst einfach zu machen, sollte darauf Wert gelegt werden, dass ein fehlerfreies HTML verwendet wird, und dass die Struktur der Webseite nicht zu sehr in die Tiefe führt. Gemeint ist damit, dass man nicht mehr als 5-6 Klicks benötigen sollte, um von der Startseite aus an alle Inhalte der Webseite zu gelangen. Ein Crawler hätte deshalb ein Problem, wenn die Webseite so aufgebaut wäre, dass man mehr als 30 Klicks ausführen müsste, um schlussendlich auf eine Seite zu gelangen. Simpel ausgedrückt: Je flacher die Hierarchie, desto einfacher ist die Webseite zu indexieren.

Duplicated Content (Doppelter/Duplizierter Inhalt) (top)

Was ist das?

Unter Duplicated Content (Doppelter Inhalt, Duplizierter Content) werden Inhalte verstanden, die über unterschiedliche URLs aufrufbar sind. Dabei kann es sich um denselben Inhalt oder auch sehr ähnliche Inhalte handeln. Als Beispiel für letzteres stellen wir uns eine Auflistung vor, die einmal von klein nach groß und einmal von groß nach klein erstellt wird – der Inhalt ist dadurch nicht 100 Prozent gleich, aber eben sehr ähnlich.

Wie/warum kommt das zustande?

Ein Inhalt kann in der Regel oftmals durch unterschiedliche URLs aufgerufen werden. Im folgenden Beispiel führen die URLs auf denselben Inhalt:

http://www.ihrbeispiel.de
http://ihrbeispiel.de
http://www.ihrbeispiel.de/index.htm

Es kann auch sein, dass man seine Seite als zusätzlich ausdruckbare Seite erstellen lässt, auf der derselbe Inhalt erscheint wie auf der Originalseite. Alles in allem sind viele Möglichkeiten denkbar, um ein und denselben Inhalt zu duplizieren.

Wieso ist das ein Problem?

Denken wir nochmals an das Grundprinzip, welches wir im SEO-Einführungsartikel den Suchmaschinen zugrunde gelegt haben: Suchmaschinen möchten ihren Nutzern dabei helfen, Antworten und Hinweise auf ihre Suchanfragen zu finden. Die Ergebnisse sollen dabei natürlich einzigartig sein, denn man möchte den Nutzern nicht mehrere Ergebnisse präsentieren, die alle zum selben Ziel führen.

Wie lässt sich das Problem lösen, umgehen?

Die Lösung des Problems liegt darin, dass man alle „gleichen“ oder „sehr ähnlichen“ Inhalte auf einen Inhalt bezieht. Mit anderen Worten, wenn der Inhalt einer Seite wie oben beschrieben durch 3 unterschiedliche URLs auf drei unterschiedlichen Seiten erreicht werden kann, dann sollte man all diesen Inhalten einen Tag zuweisen, der Suchmaschinen leicht erkennen lässt, welches der ursprüngliche Inhalt ist.

Wie kann man die Problemlösung technisch umsetzen?

Bevor die technischen Lösungen genauer betrachtet werden, sollte zuvor jedoch darüber nachgedacht werden, dass zunächst das eigentliche Verhalten der eigenen Webseite analysiert werden sollte. Mittlerweile darf man auch bereits darauf bauen, dass einige Anbieter von Content-Management-Systemen das Problem erkannt und mit Nachbesserungen ihrer Software darauf reagiert haben. In  (vielleicht naher) Zukunft werden bestimmt noch weitere Anpassungen der CMS-Systeme stattfinden. Also bevor man sich darauf stürzt, sollte man zunächst einmal herausfinden, was bereits von den Software-Anbietern gelöst wurde.

Die Umsetzung kann innerhalb einer Domain auf unterschiedliche Art und Weise erfolgen:

  • Canonical-Link/Tag

    • Damit lässt sich auf einer Seite ein Link zum ursprünglichen Inhalt platzieren.
<head>
..
<link rel=“canonical“ href=“http://ihrbeispiel.de/seite1.html“/>
..
</head>

 

  • No-Index-Meta-Tag

    • Sollte ein Inhalt auf einer anderen Webseite angeboten werden, kann man durch den Meta-Tag „No-Index“ verhindern, dass er von der Suchmaschine im Rahmen der Indexierung betrachtet wird.
<head>
..
<meta name=“robots“ content=“noindex“/>
..
</head>

 

  • 301-Weiterleitungen

    • Wenn die Webseite neu strukturiert wurde und dadurch Inhalte nicht mehr an der ursprünglichen sondern an einer anderen Stelle anzutreffen sind, kann man sowohl den Crawler als auch den Nutzer damit an die nun passende Stelle weiterleiten. Bei Apache –Servern findet diese Weiterleitung in der „.htaccess“-Datei statt.

 

  • Link-Konsistenz

    • Immer die gleiche Art von Links einsetzen, keine Linkvariationen gleichzeitig verwenden – also nicht ihrbeispiel.de und www.ihrbeispiel.de/index.htm einsetzen.

 

  • Domains auf höchster Ebene

    • Oberste Ebene der Domain verwenden, um landesspezifischen Inhalt anzubieten.

ihrbeispiel.de weist eher auf deutsch hin als www.ihrbeispiel.com/de

    • Search-Console

Die von Google angebotene „Search Console“ bietet die Möglichkeit dieser Suchmaschine gegenüber mitzuteilen, welche Domain man im Rahmen der Indexierung bevorzugt.

 

  • Wiederkehrende Textbausteine

Um zu verhindern, dass man auf unterschiedlichen Seiten immer wieder dieselben Textbausteine (bspw. Copyright-Regeln) verwendet, können Links auf eine einzige Seite benutzt werden, die die entsprechenden Hinweise beinhaltet. Die Umschreibungen der Links sollten dann voneinander abweichen.

 

Nachdem nun die generellen Punkte des SEO-On-Site besprochen wurden, folgen nun detailliertere technische Massnahmen:

Strukturierte URL (top)

Wie oben erwähnt, spielt die Struktur der Webseite eine wesentliche Rolle, gerade im Hinblick auf die Indexierung durch die Crawler der Suchmaschinen. Hier nehmen wir uns also nochmals diesem Punkt an und erörtern Maßnahmen, die dabei helfen können, die Struktur gut zu erschaffen.

  • Jeder Inhalt sollte nur durch eine URL erreichbar sein. Damit lassen sich doppelte Inhalte vermeiden, die eine negative Auswirkung auf die Bewertung der Webseite hätten.
  • Eine URL sollte sich auch aus Titel und Keywords des Inhalts zusammensetzen.
  • Jede URL sollte auf ein bestimmtes Keyword optimiert werden.
  • Alle URLs sollten ohne Trailing-Slash(=der Schrägstrich am Ende der URL) eingesetzt werden. Dadurch lassen sich ebenfalls doppelte Inhalte verhindern, denn der Aufruf einer Seite mit oder ohne Trailing-Slash könnte zu zwei unterschiedlichen Inhaltsseiten führen.

Um die Schrägstriche aus der URL zu entfernen, sollte in der „.htaccess“-Datei im Anfangsbereich folgender Code eingefügt werden:

# mehrere TrailingSlashes am Ende entfernen
RewriteCond %{REQUEST_URI} ^(.*)//(.*)$
RewriteRule . %1/%2 [R=301,L]

# mehrere TrailingSlashes nach der Domain und in der Domain entfernen
RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ //+([^\ ]*)
RewriteRule .* http://www.ihrbeispiel.de/%1 [R=301,L]

  • URLs sollten mit Kleinbuchstaben geschrieben werden.
  • URLs sollten sprechend gestaltet werden (ihrbeispiel.de/seo/einfuehrung), um zu verhindern, dass Nutzer sich abschrecken lassen, wie es oft durch unlesbare URLs (wie www.ihrbeispiel.de/?p=117) vorkommt.
  • Die einzelnen Wörter innerhalb einer URL sollten mittels Trennzeichen (-) voneinander getrennt werden (ihrbeispiel.de/kueche/rezept-spaghetti-arrabiata). Würde man Unterstriche verwenden, könnte der Crawler dies nicht als Worttrennung interpretieren. Folglich würde er das Suchwort „rezeptspaghettiarrabiata“ aus der URL erstellen.
  • Sonderzeichen sollten ersetzt werden.

ä =>ae
ö=>oe

ß=>ss

  • Obwohl die maximale Länge einer URL bis zu 2083 Zeichen enthalten könnte, sollte solch eine Dimension niemals verwendet werden. Vielmehr spricht man davon, dass eine URL bestenfalls zwischen 50-100 Zeichen enthalten sollte. Der Vorteil für den Nutzer dabei ist leicht nachzuvollziehen: Er kann die URL gut erkennen, bei Bedarf schnell aufschreiben oder eintippen.
  • Füllwörter sollten in der URL nicht verwendet werden. Dadurch kann die URL in der Ergebnisliste der Suchmaschine vollständiger angezeigt werden.

(www.ihrbeispiel.de/seo/die_besten_tipps_für_eine_guenstige_Reise_nach_Uruguay)

sollte man eher so abbilden

(www.ihrbeispiel.de/seo/beste-tipps-guenstige-reise-uruguay)

  • Dateiendungen sollten eindeutig sein, d.h. sie sollten alle in der gleichen Weise angezeigt werden. Ansonsten besteht auch hier die Gefahr, dass sich „Dulicated Content“ bilden würde.

www.ihrbeispiel.de/datei

www.ihrbeispiel.de/datei.html

   Um das zu verhindern, können in der „.htaccess“-Datei entsprechende Einstellungen erfolgen.

  • Vorzugsweise statische URLs einsetzen, keine dynamischen. Dies hängt damit zusammen, dass die Suchmaschinen den Nutzern möglichst keine überflüssigen Seiten präsentieren wollen. Deshalb sind die Suchmaschinen bei der Aufnahme der dynamischer URLs sehr zurückhaltend.

Abschließend zu diesem Punkt noch ein Hinweis: Eine bereits eingesetzte URL sollte niemals geändert werden, denn dadurch würde erneut die Gefahr entstehen „Duplicated Content“ zu erzeugen, und dies ist, wie oben bereits beschrieben, von den Suchmaschinen nicht gewollt.

Überschriften (top)

Überschriften sollten hierarchisch mit <H1>, <H2> getagged werden

Interne Verlinkung (top)

Wenn innerhalb der Webseite von einer Inhaltsseite auf eine andere verwiesen wird, dann spricht man von interner Verlinkung. Die Crawler der Suchmaschinen können dadurch sämtliche Inhalte einfach finden, um sie zu indexieren. Wie solch eine interne Verlinkung im Detailumzusetzen ist, wird im SEO-On-Page Beitrag beschrieben.

Fehlt eine solche interne Verlinkung, gehen Inhalte für die Indexierung durch Crawler verloren. Dies hat wiederum einen negativen Einfluss auf das Ranking. Beispielsweise kann man sich das im Nachrichten-Bereich einer Webseite vorstellen. Dort werden neue Beiträge immer dadurch verlinkt, dass sie auf der Übersichtsseite stehen. Sollten sie dort aber entfernt werden, was in der Regel nach einer gewissen Zeit geschieht, dann wird dadurch auch dem Crawler der Zugang zu diesem Inhalt genommen. Die Konsequenz wäre in diesem Fall, dass nach einer gewissen Zeit dieser Inhalt aus dem Suchmaschinen-Index herausfällt. Um dies zu verhindern, sollte der Inhalt danach in ein indexierbaresArchiv überführet werden.

XML Sitemap (top)

Ein Besonderheit der internen Verlinkung bildet dabei die XML-Sitemap. Diese bietet die Möglichkeit, alle Seiten innerhalb einer XML-Datei aufzulisten, die vom Crawler indexiert werden sollen. Auch hier gelten Größenbeschränkungen: Eine Sitemap-Datei darf nicht mehr als 50.000 URLs beinhalten und maximal 50 MB groß sein. Sollten mehr Inhalte gesammelt werden, müssten diese dann in einzelne Sitemaps-Dateien aufgeteilt werden, um sie danach in einer Sitemap-Indexdatei zusammenzufassen. Um solch eine Zusammenstellung einem Crawler bereitstellen zu können, muss sie bei der Suchmaschine eingereicht werden.

Seitennavigation (top)

Ausgehend davon, dass ein Crawler von der Startseite aus innerhalb weniger Klicks auf jeden zu indexierenden Inhalt stoßen sollte, ist auch die Seitennavigation genau zu betrachten.

Beispiel:

Der Inhalt besteht aus 80 Seiten.

Am unteren Rand jeder einzelnen Seite befindet sich die Seitennavigation

1-2-3…80

Wollte man nun zur 40sten Seite kommen, müsste man 20 Mal klicken

20 Klicks = (3, 5, 7, 9, 11, 13, 15, 17, 19, 21, 23, 25, 27, 29, 31, 33, 35, 37, 39, 40)

Unter diesen Bedingungen wäre es einem Crawler nicht möglich, den Inhalt der 40sten Seite zu indexieren, da er nicht in solch tiefe Ebenen (=Klicks) eintaucht. Zwar kann man diese Art der Navigation für den Nutzer anbieten, für den Crawler sollte in solch einem Fall jedoch eine zusätzlicheMöglichkeit zur Indexierung bereitgestellt werden: Die 80 Seiten könnten auf einer Seite aufgelistet werden. Von aus könnte der Crawler dann durch nur einen Klick zu jeder dieser Seiten springen.

Bilder (top)

Alle Bilder sollten in einem Ordner gespeichert werden. Dadurch können sie leichter von der Suchmaschine gefunden werden.

„nofollow“ (top)

Um Nachteilen aus dem Weg zu gehen bei der Bewertung der eigenen Webseite, sollte man verhindern, dass Suchmaschinen-Crawler gewissen Links folgen: Dazu gehören unter anderem nicht vertrauenswürdige Webseiten sowie bezahlte Links. Technisch lässt sich das umsetzen, in dem das Attribut rel=“nofollow“ in den HTML-Link eingefügt wird. Viele CMS-Systeme bieten dazu PlugIns ans, damit dies nicht händisch im Quelltext gesetzt werden muss.

<a href=“www.anderebeispielseite.de“ rel=“no-follow>…

Fazit

Mit speziellem Blick auf das große Ganze, die gesamte Webseite, listet SEO-On-Site die wesentlichen Punkte auf, die zur Optimierung einer Webseite berücksichtigt werden sollten, um auf den Ergebnislisten der Suchmaschinen ein besseres Ranking zu erhalten.

 

Ersten Kommentar schreiben

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.


*