Hallo mal in die Runde, bei google webmaster beobachte ich seit dem update auf 3.6.0.2, das Links vom shop gecrawlt werden die es nicht gibt und gar nicht geben sollte. Es entsteht mal wieder doppelter Content und was weis ich noch. Ich habe mal ein paar Bilder angehängt damit man sieht was ich meine. und 2tens interessant ist das google Seiten bei URL Fehler listet, die es aber gibt, auch soll nach google bei diesen Seiten die 404 Fehlerseite nicht "funktionieren" und hier die Verweise zu der Seite - die Seite gibt es, google ist der Meinung es gibt sie nicht - Versteht das jemand? gibt es noch jemanden der sich daran stört? oder soll das so sein.. Danke Grüße
Das erste sind nur deine Kategorie Unterseiten. Die sind im Template auch mit next und prev betitelt, das gibt keinen DC. Generell ist DC auf der eigenen Domain nicht so tragisch wie über verschiedene Domains. das Seite nicht geunfden kann auch einfach mal vorkommen wenn der Server mal kurz nicht erreichbar war oder wie letzten hier das Forum aus einem Gebiet nicht aufrufbar war aus anderem Gebiet schon.
Da ist was komisch. Die URLs die bei dopelten Meta so schön rot angemalt sind gibt es so nicht. Der vordere Teile ist ok, der Page Parameter hinten auch. Dazwischen hast du aber ja nochmal einen Kategorie=Kategorie Parameter, den gibts so normal nicht. Der wird auch nicht weggefiltert, weil es ihn normal nicht gibt. Die Frage ist dabei zentral: Wie kommt Google auf die Unsinns-URLs? Ich hab mir die Kategorie angeschaut: Die Sitemap zeigt die nicht, Canonical, prev/next Metatags sind sauber, hreflang Tags sind nicht drin. Die Verlinkung in beiden Menüs ist sauber, das Breadcrumb ist sauber, die Filter auf der Seite sind prinzipiell sauber. Ich hab an den URLs hintendran beim filtern und Durchsicht immerhin noch überflüssige, aber korrekte und anders lautende Kategorieparameter gefunden. Immerhin Kategorie und Kategorie, das das ginge in die Richtung von dem Effekt, macht aber auch keinen so richtig akuten Sinn für Problem 1. Nichtsdestotrotz und um sicher zu sein haben wir das erfasst, und gerade einen Fix gebaut: https://tracker.gambio-server.net/issues/53452 Gegen ein Ticket könnten wir den schon in deinen Shop implementieren, bevor der mit dem nächsten Update dann für alle unterwegs ist. Bei Problem 2 glaube ich treffen wir mit dem gerade angesprochenen Fix, das ist auch etwas interessant, aber das würde Sinn machen. Zu 3: Ich hab nicht die leiseste Idee. Ich hab die URL ausprobiert, die Seite mehrfach geladen, die funktioniert. Der HTTP Status ist immer 200 (=OK). Hat Google deine Seite während einer Serverwartung gecrawled??
das sind mehr als ein URL, das nicht auffinden ist auch an verschiedenen Tagen und bei verschiedenen URLs alle URL sind immer aufrufbar nur google "meckert" findet die Seite angeblich nicht und angeblich ist auch keine 404 Seite und zeigt es als Fehler an.
Kann es sein, das am 23. umgestellt hast oder Update gemacht hast oder so, das die Seiten temp. nicht erreichbar waren?
Wir haben das Problem gecrawlter Seiten (Links) die es schon lange (!!!) nicht mehr gibt nicht erst seit 3.6.0.2, das war unter 3.4.x.x. auch schon so. In Gambio-Admin werden jeden Tag zig Seiten von Googlebot und Bingbot aufgelistet, die gar nicht existieren.
gerade eben: FALSCHER CRAWLER: 00:03:17 letzte URL 0 /shop/Organisation/Karteizubehoer/Archivnummern/Archivnummern-rot/Archivnummer-0001---1000-113-114-115-116-117-123-130-131-132-133-135.html Guest 217.182.132.91 15:13:15 15:13:15 RICHTIGE SEITE: https://www.medundorg.de/shop/de/Organisation/Karteizubehoer/Archivnummern/rot/rot-0001-1000.html Dast ist der Eintrag in der Sitemap: https://www.medundorg.de/shop/de/Organisation/Karteizubehoer/Archivnummern/rot/rot-0001-1000.html</loc> <lastmod>2017-06-06</lastmod> <changefreq>weekly</changefreq> <priority>0.5</priority> <image:image> <image:loc>https://www.medundorg.de/shop/images/product_images/popup_images/MO_Nummernetiketten_rot_0.jpg</image:loc> </image:image> </url> <url>
Hast du vielleicht noch eine alte Sitemap im Hauptverzeichnis liegen ? Edit: Kann ja selbst schauen. Haste nicht. Das war schon mal falsch
Ich hab mich gerade mal über die URL beraten. Wir sehen folgende Indizien: Die URL ist ohne Sprachcode, dein Shop ist jetzt aber mit unterwegs. Dier URL wäre in älteren Shops bis GX2.7 so generiert worden, danach nicht mehr. Die ist also vermutlich alt. Die URL ist nicht in deiner Sitemap, und nicht in den SEO Tags deiner Seite, auch nicht im Menü. Im jetzigen Shop finden wir die nirgends. Wenn man die falsche URL aufruft, liefert der Shop korrekterweise einen 404er Status, also nicht existent. Damit folgt: Im Suchmaschinenindex einer Suchmaschine sind noch alte URLs gespeichert, die müssten da irgendwie mal raus. Einen aktuellen fehler im Shop erkennen wir hier aber nicht. Der IP nach, buddelt da folgendes Ding herum: https://ahrefs.com/robot
Als ich damals 2011 versch. Test Shopsysteme installiert habe auf der domain hatte ich jahre später noch teilweise fehlerseiten im GSC (GWT) die von einem der Shopsysteme waren - manchmal scheint er einfach alte einträge zu prüfen woher auch immer er die sich genommen hat. Hab auch jetzt noch teilweise fehlerseiten von uralten URLs die es schon 1-2 Jahre nicht mehr gibt. Mach ich mir kein Kopp drum, solange die nicht im Index sind und Kunde ins leere läuft is es nix wirklich dramatisches.
und grade eben wieder: 00:07:14 letzte URL 0 /shop/Organisation/Karteizubehoer/Archivnummern/Archivnummern-rot/Archivnummer-0001---1000-113-114-115-116-117-123-130-131-132-133-135.html Guest 77.22.198.26 15:54:37 15:55:03 00:19:19 letzte URL 0 /shop/Organisation/Karteizubehoer/Archivnummern/Archivnummern-rot/Archivnummer-0001---1000-113-114-115-116-117-123-130-131-132-133-135.html Guest 77.22.198.26 15:42:32 15:54:22
Die URLs sehen aus wie Kopien. Wenn Du eine Kopie von einem Artikel machst, wird an die URL die Product_ID gehängt, bis die URL geändert wird. Beispiel: Ich kopiere testartikel.html, dann ist die URL testartiekl-2.html mache ich eine Kopie von testartikel-2.html ist die neue URL testartikel-2-3.html Wenn Google nun gerade crawlt, hat der die falschen URLs im index und ruft die immer wieder auf. Da hilft nur bei google löschen lassen.
Das waren uralte URLs . Unsere aktuellen Artikel-URLs sind alle vor über 6 Monaten kplt. überarbeitet worden, es gibt keine Kopien mehr. Die Sitemap ist sauber.
Wie oben schon mal gesagt, wenn google die mal kante kann sowas auch nach 1-2 Jahren noch mal auftauchen. Bereinigt sich mit der zeit von alleine
So hab ich das auch verstanden. Google & Co. sind schon toll ... da müht man sich ab alles zu optimieren und dann ziehen die noch jahrelang irgendwelchen Müll mit sich rum