SEO News kompakt: Webserver-Überlastung durch Googlebot, Funktionsweise von Ranking-Faktoren, Änderungen am robots.txt…

Die Welt um das Thema SEO dreht sich sehr schnell und es reicht nicht immer die Zeit, sich über alle aktuellen Entwicklungen zu informieren. Wir liefern dir daher die wichtigsten SEO News der vergangenen Tage, kurz und knackig mit Quelle zum nachlesen. In der wöchentlich erscheinenden Sektion “SEO News kompakt” haben wir dir auch in dieser Woche wieder die wichtigsten Neuigkeiten der vergangenen Tage zusammengefasst.


Google: Änderungen am robots.txt sind nicht sofort wirksam

Auf Twitter antwortete Googles Gary Illyes auf die Frage eines Users, welcher nach seiner vor 5 Stunden vorgenommenen Änderung des robots.txt noch keine Veränderung in der Search Console wahrnehmen konnte. Laut Illyes hält Google die robots.txt aber wohl bis zu einen Tag im Cache, der Prozess könne allerdings durch einen manuellen Refresh in der Search Console bechleunigt werden.


Google: Updates werden zunächst an ausgewählten Nutzern getestet

Steht ein Google Algorithmus Update an, wird dieses zunächst nicht an alle User ausgespielt, so Gary Illyes im neuen SEO-Podcast “Search Off the Record” von Google. Google testet die Updates zunächst bei ausgewählten Nutzern, welche bereits vorab eine andere Ansicht erhalten, als die breite Masse. In diesem Prozess werden unter anderem auch die Klicks ausgewertet.

Quelle: Google


Google: Bei ausgelasteten Webservern sollte die Schuld nicht beim Googlebot gesucht werden

Gary Illyes stellte auf Twitter klar, dass wenn der Googlebot die Server -Kapazitäten einer Website beim crawlen auslastet, ein klarer Optimierungsbedarf besteht. Die Verantwortung dafür würde laut Illyes bei den Webseitenbetreibern liegen und nicht bei Google. Google ist darauf angewiesen, dass der Googlebot Seiten regelmäßig crawlen kann, daher sollte man sicherstellen, dass dieser die Server nicht überlastet.


Google: Genaue Bedeutung einzelner Ranking-Faktoren ist im Vorfeld nicht immer klar

Googles John Müller gab in einer “Search Off the Record”-Podcast Episode eine Erklärung zur Funktionsweise der Ranking-Faktoren. Demnach seien diese als eine Art neuronales Netz zu verstehen, in welchem jeder Knotenpunkt ein Ranking-Faktor ist, der theoretisch auf unterschiedlichen Wegen abgefragt werden kann. Es sei daher umso wichtiger, für alle Ranking-Faktoren gut aufgestellt zu sein und sich nicht auf weniger ausgewählte zu versteifen.

Quelle: Google


Google: Links von Bookmarking Websites sollten nicht für SEO verwendet werden

John Müller klärte auf Twitter darüber auf, dass Links von Bookmarking Websites mittlerweile ignoriert werden. Während es früher eine beliebte Strategie war, bringen einem die Links aus SEO-Sicht heute nichts mehr. Viel mehr sollte man in die Erstellung spannender Inhalte stecken, so Müler.


Google: Zugriff auf 404 Seiten sollte nicht verwährt werden

Auf Twitter ging John Müller auf einen Nutzer ein, der seine Strategie zum Handling von 404 Seiten darlegte. Demnach würde jedem Besucher, darunter auch der Googlebot, der Zugriff verwährt werden, sobald dieser 10 Seiten mit dem Fehlercode 404 erhalten hätte. Stattdessen würde eine Weiterleitung auf relevantere Seiten erfolgen. Laut Müller sei dies allerdings eine schlechte Idee, da der Googlebot den Zugriff benötigt.


Kennst du schon unsere SEO Suite? Optimiere deine Website im Handumdrehen auf Basis zahlreicher Analysen und Benchmarks.

Jetzt 14 Tage lang kostenlos und unverbindlich testen!