Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
SEO - Suchmaschinenoptimierung
Google deindexiert Seiten, wenn sie ein paar Tage down sind

Google deindexiert Seiten, wenn sie ein paar Tage down sind

Niklas Lewanczik | 03.01.22

Wenn deine Website für mehrere Tage down ist, beginnt Google damit, sie für die Suche zu deindexieren. Auch ein 503 Code kann nach einiger Zeit nicht mehr helfen.

Website Downtime kann zu einem echten Problem für den Traffic werden. Und das nicht nur, weil die Besucher:innen in dieser Zeit ausbleiben. Denn auch Google reagiert nach wenigen Tagen darauf, wenn Seiten down sind und beginnt mit einer Deindexierung. Darüber hinaus kann es, sofern die Seiten wieder zugänglich sind und erneut gecrawlt und indexiert werden, auch zu Ranking-Verlusten kommen. Das erklärte Google Webmaster Trends Analyst John Mueller in einem Google Hangout. Allerdings gab er auch Hinweise, wie die Probleme vermieden werden können.

Website Downtime: Google reagiert nach wenigen Tagen mit Deindexierung

Wie problematisch Website Downtime für SEOs und Seitenbetreiber:innen werden kann, thematisierte John Mueller in einem langen Google Hangout im Rahmen einer Nachfrage eines SEOs. Davon berichtet Matt Southern bei Search Engine Journal. SEO Aakash Singh fragte, was man tun könne, wenn eine Website für eine Woche oder mehr nicht erreichbar ist. Daraufhin erklärte Mueller, dass eine so lange Downtime fast unweigerlich zu Ranking-Problemen führen werde. Denn auch ein 503 Service Unavailable Code zum Beispiel – der anzeigt, dass der Server nicht in der Lage ist, die Anfrage zu bearbeiten – wird nach wenigen Tagen von Google als Signal übergangen. Immerhin könnte es sich theoretisch dann um einen dauerhaften 503 Code handeln, die Seite könnte also dauerhaft down sein. So sagte Mueller im Hangout:

I don’t think you’ll be able to do it for that time, regardless of whatever you set up. For an outage of maybe a day or so, using a 503 result code is a great way to tell us that we should check back. But after a couple of days we think this is a permanent result code, and we think your pages are just gone, and we will drop them from the index.

And when the pages come back we will crawl them again and we will try to index them again. But it’s essentially during that time we will probably drop a lot of the pages from the website from our index, and there’s a pretty good chance that it’ll come back in a similar way but it’s not always guaranteed.

Muellers Aussage zufolge könnte eine Reindexierung nach der Downtime also dazu führen, dass das vorherige Ranking nicht mehr erreicht wird. Fluktuationen in den SERPs sind demnach zu erwarten.

So any time you have a longer outage, where I’m thinking more than a couple of days, I would assume that at least temporarily you will have really strong fluctuations and it’s going to take a little bit of time to get back in,

so Mueller weiter.

Was SEOs tun können, um Ranking- und Traffic-Probleme zu vermeiden

Der beste Weg, um sowohl eine Deindexierung als auch die möglichen negativen Folgen für die Traffic-Zahlen und das Ranking zu vermeiden, ist die Reduzierung der Downtime. Laut John Mueller wäre es ideal, wenn diese maximal einen Tag beträgt, sofern es sich um eine geplante Auszeit für die Seite handelt. Wenn es ungeplant zu Problemen mit der Seite kommt, wird es schwieriger, Googles Mechanismen aufzuhalten, sollte die Downtime andauern.

Ein anderer Hinweis, den Mueller im Hangout gibt, bezieht sich auf eine statische Version der Seite. Während die Seite down ist, könnten User auf so eine statische Version der Website weitergeleitet werden. Das ist zwar keine dauerhafte Lösung, kann Usern und Google aber vermitteln, dass am Problem gearbeitet wird und die Seite womöglich bald wieder erreichbar ist. Im besten Fall lässt sich bei kurzer Downtime so auch eine Deindexierung vermeiden. Wichtig ist zudem, dass SEOs Google über etwaige Updates der Seite informieren.

Es gibt keine genaue Angabe, nach welcher Zeit Google mit der Deindexierung von Seiten beginnt. Grundsätzlich kann das aber bereits nach wenigen Tagen geschehen. Kommt es dazu, können Seitenbetreiber:innen bei der Suchmaschine aber auch um ein erneutes Crawlen der URLs bitten, wenn die Seiten wieder zugänglich sind.

Im Video zum Hangout kannst du dir die Ausführungen von John Mueller noch einmal ansehen:

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*
*