Die OnPage Optimierung ist die Grundlage für Erfolg bei Google & Co.
KARLSRUHE / MÜNCHEN. Eine gute OnPage Optimierung erhöht sehr schnell die Sichtbarkeit einer Website. Doch Webmaster begehen hierbei manchmal essenzielle Fehler, welche die Suchmaschinenoptimierung untergraben. Manche Webmaster, die nach Inhalten für ihre Webseite suchen, finden diese auf anderen Webseiten so passend aufbereitet vor, dass sie einen simplen, höchst prekären Fehler begehen: Sie kopieren einfach fremde Inhalte und fügen sie in die eigene Webseite ein. Das nennt sich Duplicate Content, wird von Google durch ein Tool namens CopyScape erkannt (es genügt die Wiederholung von fünf bis acht Worten) und mit einem Herunterstufen der neuen Webseite bestraft. „Der Algorithmus der Suchmaschine erkennt, welche der beiden Seiten zuerst da war, wer also von wem kopiert hat“, so Thomas Bippes von der Agentur PrimSEO aus Baden-Baden bei Karlsruhe. Daher sei nur die jüngere Webseite von der Penalty (Google-Strafe) betroffen. Diese habe es dann schwer, eine bessere Platzierung zu erreichen, allen Maßnahmen der Suchmaschinenoptimierung zum Trotz. „Daher ist Duplicate Content strikt und grundsätzlich zu vermeiden.“
Unbedachte Fehler bei der OnPage Optimierung können gravierende Folgen haben
Für die Suchmaschinenoptimierung sind Title Tags relativ wichtig, dieser Titel wird in den SERPs (Suchergebnissen) ausgeliefert. Wesentliche Fehler der OnPage Optimierung wären in diesem Zusammenhang:
- keinen Title vergeben
- diesen ohne Keyword(s) vergeben
- allen URLs der Seite den gleichen Title geben (Duplicate Snippets)
- den Title zu lang (über 59 Zeichen) gestalten
- einen unattraktiven Title Tag verwenden
Idealerweise und für die Suchmaschinenoptimierung sehr wertvoll sind einzigartige Title Tags für jede URL eines Online-Projektes.
Mangelnde technische Struktur und Überoptimierung
„Zur OnPage Suchmaschinenoptimierung gehört auch eine ordentliche technische Struktur mit einer Sitemap, passenden Dofollow- oder Nofollow-Links zu den Unterseiten, gutem Content und bestimmten Keywords – aber nicht zu vielen! Natürlichkeit zählt! Eine Überoptimierung könnte Google als Spamming (Keywordstuffing) abstrafen“, meint Thomas Bippes, der vor wenigen Tagen einen solchen Fall bei der Webseite eines Unternehmens aus München vorgefunden hat. Grundsätzlich wird eine Density (Dichte) zwischen einem und drei Prozent empfohlen. Auch mangelnde Vorgaben für Crawler wären ein Fehler der OnPage Optimierung. Manche Online-Projekte wie die Shops haben sehr viele Unterseiten, nämlich für jedes Produkt. Der Suchmaschinen-Bot schafft es dann ohne Vorgabe nicht, die Seiten oft genug zu crawlen. Die Crawler können aber eine Vorgabe erhalten, welche Seiten immer wieder geprüft werden müssen. Das fördert die Suchmaschinenoptimierung des Shops im Ganzen.
Bild: © anoli – Fotolia