+49 2551 1889905 kontakt@web-malocher.de
Dass eine Website in der Google-Suche nicht vorzufinden ist, kann verschiedene technische aber auch inhaltliche Ursachen haben. Abbildung: qimono/pixabay.com
Wenn eine neue Website online geht, kann es schon mal ein wenig dauern, bis sie von den Suchmaschinen, insbesondere Google, gecrawlt und indexiert wurde. Das heißt, sie ist nicht von Anfang an in den Suchergebnissen zu finden. Wenn sie aber auch nach längerer Zeit dort nicht auftaucht, kann das verschiedene Ursachen haben.

No-Index-Tag

Es gibt in den Meta-Tags einen so genannten No-Index-Tag. Dieser Eintrag führt dazu, dass die Bots von Google entweder die ganze Website oder einzelne URLs der Seite nicht crawlen. Wenn eine Unterseite auf einer Website kaum Inhalt hat oder es sich um Duplicate Content handelt, kann es sinnvoll sein, bestimmte URLs von den Suchmaschinen nicht crawlen zu lassen. Seine gesamte Website für Google nicht auffindbar zu machen, ist aber in den meisten Fällen nicht sinnvoll. Der No-Index-Befehl wird im Quelltext einer Website in den Head eingetragen. Wenn man herausfinden möchte, ob dies bei der eigenen Website der Fall sein könnte, kann man dies über eine Site-Abfrage erfahren. Wenn es bei dieser Abfrage ein negatives Ergebnis gibt, handelt es sich wohl tatsächlich um einen No-Index-Eintrag. Dieser muss dann nur aus dem Quelltext entfernt werden und die Seite müsste bald in den Suchergebnissen von Google auftauchen.

web-malocher Banner 300x250


Robots.txt

Die Robots.txt ist eine Datei, in der die Bots von Google oder anderen Suchmaschinen herauslesen können, welche Abschnitte einer Website sie crawlen, also durchsuchen und auslesen, dürfen. In dieser Textdatei kann aber auch der Befehl stehen, dass die gesamte Seite von den Bots nicht gecrawlt werden darf. Dieser Fall führt dann natürlich dazu, dass die Seite in den Suchergebnissen überhaupt nicht auftaucht und somit auch nicht gefunden werden kann. Um diesem Problem auf die Schliche zu kommen, müssen also die Befehle in der robots.txt überprüft und ggf. geändert werden.

Passwortschutz

Möglicherweise ist eine Website, die bei Google nicht gefunden wird, aber auch Passwortgeschützt. Dieser Passwortschutz kann z.B. durch einen Htaccess ausgeführt werden. Der Htaccess ist eine Datei, in der die Konfigurationen von Webservern aufgestellt werden können. Man hat mit einem Htaccess aber auch die Möglichkeit einzelne Bereiche oder auch eine ganze Website mit einem Passwort zu schützen, so dass diese nur von bestimmten Personen eingesehen werden kann. Diese Einrichtung kann durchaus sehr sinnvoll sein, wenn eine Website z. B. noch nicht ganz fertig gestellt ist und noch nicht von anderen Usern gefunden werden soll. Solange noch daran gearbeitet wird ist die Seite dann per Htaccess passwortgeschützt und kann nur von den Leuten angesehen werden, die das Passwort besitzen. Sobald die Arbeit an der Website dann aber abgeschlossen ist, sollte sie natürlich auch von Google gefunden werden. Daher sollte unbedingt überprüft werden, ob noch ein Htaccess über der Seite liegt und dieser dann ggf. entfernt werden.

Es gibt keine relevanten Inhalte

Ein sehr großer Rankingfaktor von Google ist der, dass eine Seite für ihre Besucher immer relevante Inhalte besitzen sollte. Eine Website sollte einen Mehrwert darstellen, bloße Keywordansammlungen o.ä. werden von Google abgestraft und die Seite verliert im Ranking. Wenn eine Seite also in den Suchmaschinen nicht gefunden wird, sollte vielleicht der Content überarbeitet werden und einmal überprüft werden, ob tatsächlich gute und relevante Inhalte auf der Seite zu finden sind.