Manchmal sind die Gründe schnell gefunden, weshalb eine Seite nicht indexiert werden kann
BADEN-BADEN. Suchmaschinenoptimierung (SEO) ist das A und O für die Indexierung der Website bei Google. Doch die Gründe für eine ausbleibende Indexierung und die damit verbundene Nicht-Auffindbarkeit der Website sind vielseitig. Fakt ist: Ohne eine professionelle und umfassende SEO ist das Ranking bei Google und Co. generell ausgeschlossen. Damit indexiert wird, müssen folgende gravierenden SEO Fehler vermieden werden.
SEO Fehler und ihre Auswirkung auf das Ranking
Wird eine Website umgezogen, muss der neue Pfad hinterlegt werden. Bei einer http Status Code 404 Fehlermeldung ist eine Indexierung unmöglich. Ein weiterer Grund kann die Blockierung der .htaccess Steuerdatei sein. Diese tritt vor allem auf, wenn eine URL verändert oder auf eine neue URL umgeleitet und der Quellcode nicht mit verändert wird. „Ein technischer Fehler, beispielsweise die vorübergehend eingeschränkte Erreichbarkeit des Servers muss nicht beunruhigen. Dieses Problem wird von Seiten des Providers behoben und sobald der Server wieder erreichbar ist, gelangt die Website in die Indexierung. Interne Links zu den wichtigsten Keywords sind eine nicht zu unterschätzende Maßnahme in der Suchmaschinenoptimierung. Bleiben diese Verlinkungen aus, wird die Seite von Bots nicht gefunden und kann somit nicht indexiert werden. Eine zu lange Ladezeit wirkt sich kontraproduktiv aus. Zu große und umfangreiche Websites entsprechen nicht den Kriterien von Google und Co., wodurch sie bei der Indexierung ausgeschlossen werden“ so Thomas Bippes von der Agentur PrimSEO (Baden-Baden).
Fehlersuche in Ruhe und ohne voreilige Maßnahmen
Die SEO ist professionell, die Website wurde manuell in Suchmaschinen eingetragen und doch taucht sie in den SERPs nicht auf? „Dann lohnt es, sich auf die Suche nach Fehlerquellen zu begeben und in Erfahrung zu bringen, ob die Indexierung beispielsweise wegen Duplicate Content nicht erfolgt ist. Auch eine fehlende XML-Sitemap ist ein häufiger Grund für das ausbleibende Ranking in Suchmaschinen. Sind einzelne Dateien oder gar die ganze Domain in den robots.txt ausgeschlossen, können Bots die Seite nicht crawlen und damit nicht listen. In der Ruhe liegt die Kraft – und der Fehler wird meist binnen kurzer Zeit gefunden. Oftmals sind es nur kleine Fauxpas, die nach ihrer Optimierung für eine Indexierung sorgen“, meint Thomas Bippes.
Bild: © CrazyCloud – Fotolia