Hallo und guten Abend, habe gerade eine Mail von Google bekommen. "Abdeckung-Probleme auf https://www.shop.beutelbinder.de/ erkannt An den Inhaber von https://www.shop.beutelbinder.de/: In der Search Console wurden für Ihre Website 1 Probleme der Art Abdeckung erkannt: Hauptfehler Fehler können verhindern, dass Ihre Seite oder Funktion in den Suchergebnissen angezeigt wird. Die folgenden Fehler wurden auf Ihrer Website gefunden: Gesendete URL hat Crawling-Problem" Es sind aber schon 8 Urls (Artikelseiten) Die Fehler treten seit dem 17.06. auf. Sitemap ist ok laut Google. Angemahnte Urls ganz normal per Smarti aufrufbar Wenn ich die angemahnten Urls testen will kommt, schaut bitte die Bilder. @Gambio muss ich ein Tiket erstellen?
Normal bedeutet das die Seite war zum Zeitpunkt des Crawlings nicht erreichbar, es gab kein HTTP Status 200 zurück. Also das Hosting hatte keine Lust oder der Crawler hat mehr parallel gecrawled als das Hosting zulässt... Das kann man so nicht diagnostizieren. Normal braucht man da das access log des Webservers für den Crawling Zeitpunkt. Variante 2: Das Crawlingbudget war alle, weil der Crawler schon zuvielen Links nachgelaufen ist. Das kann man so auch nicht wirklich sehen. Da können wir gar nicht wirklich was machen.
hhmm, lässt sich auch alles aufrufen. Und das der Fehler erst seit dem 17.06 da ist. Na werde mal den Hoster fragen. Danke
Die Datei access log hätte ich, kann aber damit nicht viel anfangen. Das ist der letzte Eintrag IP] - - [31/Jul/2019:20:01:28 +0200] "GET /sechs-bahnenrock-jasmin.html HTTP/1.1" 404 107 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" [IP] - - [31/Jul/2019:20:01:29 +0200] "GET /sechs-bahnenrock-jasmin.html HTTP/1.1" 404 107 "-" "Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Steht alles drin: [31/Jul/2019:20:01:28 +0200] - Uhrzeit: 31.07.2019 22:01 Uhr GET - Seitenabruf /sechs-bahnenrock-jasmin.html - URL nach Domain HTTP/1.1 - Protokoll ist HTTP 404 - HTTP Status 404 107 - Die Antwort war 107 Bytes, ein Hauch von nichts - - Kein Referrer "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" - Abruf durch den Google Bot
Ich glaube ich hatte schon erwähnt, "Es gibt in Berlin viele Friseure, denen du deine unqualifizierten Kommentare erzählen kannst."
Das scheint aber nicht nur bei Google so zu sein. [IP] - - [31/Jul/2019:01:22:55 +0200] "GET /Sch%C3%B6ne%20zweifarbige%20Bodys,%20https://www.shop.beutelbinder.de/de/karnevalsbedarf/bodys/zweiteiliger-body-luna.html HTTP/1.1" 404 98 "-" "Mozilla/5.0 (compatible; MJ12bot/v1.4.8; http://mj12bot.com/)"
wird wenn man draufklickt angezeigt. Ich werde mal kurz auf Template umstellen. Mal so zum Test. Nein das war es nicht.
Kann damit nix zu tun haben. Du hast dich auch verlesen, die URL gibt es nicht. Schau mal: heisst der hat aufgerufen: Code: https://www.shop.beutelbinder.de/Schöne zweifarbige Bodys, https://www.shop.beutelbinder.de/de/karnevalsbedarf/bodys/zweiteiliger-body-luna.html ...
okay, habe mich verlesen. Aber hier ist die Url in Ordnung. [IP] - - [30/Jul/2019:21:33:02 +0200] "GET /einfacher-rock-jenny.html HTTP/1.1" 404 107 "-" "Twitterbot/1.0"
Puh, es sind aber auch nicht alle Artikel betroffen, aber ein paar. Kategorie seiten alle nicht betroffen. Alle info Seiten auch nicht betroffen.
Nun habe ich mal einige Urls, die bis jetzt noch nicht betroffen sind mit dem Testtool für strukturierte Daten getestet. Das Ergebnis siehe Bild.