Die schönste und informativste Webseite hat nur wenig Nutzen, wenn Google sie nicht indexieren kann
BADEN-BADEN / KARLSRUHE. Ein Grundprinzip von SEO (Suchmaschinenoptimierung) ist es, in den Index von Suchmaschinen (vorrangig Google) aufgenommen und danach gut gefunden zu werden. SEO beginnt also mit der Indexierung. Google und andere Suchmaschinen indexieren jede neu ins Netz gestellte Seite automatisch, doch das dauert mehr oder weniger lange. In günstigen Fällen vergehen Stunden, in ungünstigen Fällen Tage und Wochen bis zur Indexierung. „Es gibt aber SEO Maßnahmen, die den Vorgang beschleunigen“, meint Thomas Bippes, Geschäftsführer der Agentur PrimSEO in Baden-Baden bei Karlsruhe. Hervorragend bewährt hat es sich, die URL zu einer neuen Webseite in einen Blogpost, einen Kommentar, ein Verzeichnis oder ein soziales Netzwerk einzubauen. Der entsprechende Link darf aber nicht für das Crawling der Google-Bots gesperrt sein. Beim nächsten Crawling dieser Seite wird dann die neue Seite indexiert.
In ungünstigen Fällen dauert es Wochen bis zur Indexierung
Diese SEO Maßnahme funktioniert noch besser, wenn die entsprechende URL nicht zu einer Unterseite der neuen Website gehört, die tief in der Struktur verborgen ist. Googlebots gehen oft nur wenige Klicks in die Struktur. Was tiefer liegt, wird zwar auch irgendwann gefunden, doch das kann lange dauern. Es gibt auch die Möglichkeit, sich mit einer Webseite zusätzlich bei den Webmaster Tools anzumelden und die XML-Sitemap einzureichen. Das signalisiert der Suchmaschine den Wunsch nach einer schnellen Indexierung. Der Vorteil für die Bots besteht darin, dass sie durch die eingereichte Sitemap schon vor dem Crawling alle Unterseiten kennen.
Methoden für eine schnelle Indexierung
Eine noch junge SEO Methode für die schnelle Indexierung ist der „Abruf wie durch-Google“. Die Seite sollte damit vor Ablauf von 24 Stunden im Index erscheinen, mit zusätzlichen Maßnahmen wie oben beschrieben könnte es noch schneller gehen. Dieser Abruf ist eigentlich ein Test, ob und wie der Googlebot auf die Haupt-URL und einzelne Unterseiten der Webseite zugreifen kann. Manchmal blockieren nämlich bestimmte Seitenressourcen wie Bilder oder Skripts den Bot. Das Tool, das Google bereitstellt, simuliert das Crawlen. Crawling-Probleme lassen sich damit beheben. Auch das Anmelden bei den Webmaster-Tools führt zu nützlichen Hilfestellungen nicht nur für ein besseres Indexieren, sondern auch für die optimalere SEO. In den Tools gibt es eine gesonderte Seite „Crawling-Fehler“, welche auf Indexierungsprobleme hinweist.
Bild: © CrazyCloud – Fotolia