Hallo zusammen, seit einigen Tagen kann die Sitemap von GSC nicht mehr abgerufen werden. Sie ist aber da und kann per FTP und URL aufgerufen werden. Interessant ist auch, dass eine der beiden XML-Dateien angeblich 2 Monate alt sein soll, was aber Quatsch ist, da beide Dateien immer parallel aktualisiert werden. Hat jemand einen Rat? Danke und Gruß, Thomas
Mach erst mal die untere weg, es reicht wenn die index drin ist, das ist jetzt doppelt, dann erstelle die mal über die Einstellungen von Hand neu, ab und an kommt es vor das das über den Cronjob sich aufhängt.
Danke, aber das hab ich auch schon versucht. Jede von Hand neu eingestellte sitemap erhält den Fehler "konnte nicht abgerufen werden".
Hast du die denn mal im Browser selbst aufgerufen? Wenn die da einen Fehler hat, einfach mal auf dem Server löschen und im Shop neu generieren.
Du kannst mal ein "paar Tage" warten. Wenn in der Search Console mal eine Sitemap eingereicht wurde, die "nicht korrekt" war, dann stimmt manchmal die Ausgabe nicht, wenn man dann eine neue Sitemap einträgt. Du hast zum Beispiel eine Sitemap am 19.09. eingereicht, aber bei "zuletzt gesehen" steht aktuell noch der 12.09. Warte einmal ab, bis sich das Datum dort aktualisiert.
Ich habe mir die gerade mal aufgerufen, das dauert ganz schön lange, beim zweiten mal ging es gar nicht, scheint nur sporadisch zu funktionieren.
Wenn Du die URL selbst nicht aufrufen kannst, bzw. die Sitemap auch gar nicht erstellt wird. Kannst Du vielleicht den PHP Speicher (PHP Memory Limit) einmal hochstellen? Vielleicht hilft das ja?
Sitemap funktioniert: https://www.medundorg.de/shop/public/sitemap-de_1.xml Ich rate in der GSC immer eher dazu direkt die jeweiligen Sprach-XMLs rein zu laden. Die Index macht gerne mal Probleme. Ist aber gehüpft wie gesprungen. Das Problem gibt es ab und an mal mit Gambio Shops. Konnte die Ursache bisher nie identifizieren, da entweder das mehrfache uploaden hilft oder einfach reinladen und 2-3 Tage warten. In seltenen Fällen hatte ich auch schon mit Wordpress das Problem. Bei Gambio aber sehr viel häufiger. Ich vermute es liegt an der Größe der Sitemap. Ist aber kein Drama. Die Sitemap ist eine Unterstützung für Google um alle URLs zu finden. Sollte man drin haben, aber der Google Bot indexiert die Seite auch ohne Sitemap.