Back to Question Center
0

Semalt Expert: Ein Leitfaden zum Verhindern, dass Google alte Sitemaps crawlt

1 answers:

Wenn Ihre Website wächst, werden Sie versuchen, Wege zu finden, um ihre Sichtbarkeit und Glaubwürdigkeit im Internet zu verbessern. Manchmal bleiben die Auswirkungen der Arbeitsweise unserer Standorte zurück, und darauf sollten wir achten.

Lesen Sie die folgenden Tipps von Max Bell, dem Customer Success Manager von Semalt , um zu verhindern, dass Google alte Websites crawlt.

Vor einigen Wochen erzählte mir einer meiner Kunden, dass er eine E-Commerce-Website habe. Es wurden verschiedene Änderungen vorgenommen: Von der URL-Struktur bis zur Sitemap wurde alles so modifiziert, dass die Website sichtbarer wurde.

Der Kunde hat einige Änderungen in seiner Google Search Console festgestellt und die Crawling-Fehler dort festgestellt. Was er beobachtete, war eine große Anzahl alter und neuer URLs, die falschen Traffic erzeugten. Einige von ihnen zeigten jedoch die Fehler "Zugriff verweigert 403" und "Nicht gefunden 404".

Mein Kunde erzählte mir, dass das größte Problem, das er hatte, eine alte Sitemap war, die im Stammordner existierte. Seine Website verwendete zuvor eine Vielzahl von Google XML Sitemaps-Plugins, aber jetzt war er für die Sitemap auf WordPress SEO von Yoast angewiesen. Verschiedene alte Sitemap-Plugins sorgten jedoch für ein Durcheinander. Sie waren im Stammordner namens sitemap.xml.gz vorhanden. Seit er die Yoast-Plugins für die Erstellung von Sitemaps für alle Beiträge, Seitenkategorien und Tags verwendet hat, benötigte er diese Plugins nicht mehr. Leider hat die Person die sitemap.xml nicht übermittelt. gz zur Google Search Console. Er hatte nur seine Yoast-Sitemap eingereicht, und Google hat auch seine alten Sitemaps gecrawlt.

Was soll man kriechen?

Die Person löschte die alte Sitemap nicht aus dem Stammordner, so dass auch diese indexiert wurde. Ich kam zu ihm zurück und erklärte, dass eine Sitemap nur ein Vorschlag dafür ist, was in den Ergebnissen der Suchmaschine gecrawlt werden sollte. Sie denken wahrscheinlich, dass das Löschen der alten Sitemaps Google daran hindern wird, die ungültige URL zu crawlen, aber das stimmt nicht. Meine Erfahrung besagt, dass Google versucht, jede alte URL mehrmals am Tag zu indizieren, um sicherzustellen, dass die 404-Fehler echt und kein Unfall sind.

Googlebot kann den Speicher für alte und neue Links speichern, die in der Sitemap Ihrer Website zu finden sind. Sie besucht Ihre Website in regelmäßigen Abständen und stellt sicher, dass jede Seite korrekt indiziert ist. Der Googlebot versucht zu bewerten, ob die Links gültig oder ungültig sind, damit die Besucher keine Probleme haben .

Es ist offensichtlich, dass die Webmaster verwirrt sein werden, wenn die Anzahl ihrer Crawling-Fehler zunimmt. Alle wollen sie in großem Maße verringern. Wie kann Google darüber informiert werden, dass alle alten Sitemaps ignoriert werden? Sie können dies tun, indem Sie alle unerwünschten und ungeraden Crawls der Sitemap löschen. Früher war die einzige Möglichkeit, dies möglich zu machen, die .htaccess-Dateien. Danke an WordPress für die Bereitstellung einiger Plugins.

Die WordPress-Websites haben diese Datei in ihren Stammordnern. Sie müssen also nur auf das FTP zugreifen und die versteckten Dateien in cPanel aktivieren. Wechseln Sie zur Option Dateimanager, um diese Datei gemäß Ihrer Anforderung zu bearbeiten. Sie sollten nicht vergessen, dass eine fehlerhafte Bearbeitung Ihre Website beschädigen kann, daher sollten Sie immer alle Daten sichern.

Sobald Sie das Snippet zur Datei hinzugefügt haben, werden alle abgelaufenen URLs in kürzester Zeit aus Ihren Crawling-Fehlern entfernt. Sie sollten nicht vergessen, dass Google möchte, dass Sie Ihre Website am Laufen halten, wodurch die Wahrscheinlichkeit von 404-Fehlern verringert wird.

November 24, 2017
Semalt Expert: Ein Leitfaden zum Verhindern, dass Google alte Sitemaps crawlt
Reply