Hallo, bei uns werden nahezu alle Seiten nun in ca. 30-facher Ausführung als Duplicate Content markiert. Beispiel: (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.) ... ... Das canonical Tag müsste doch jeweils auf die HauptUrl zeigen oder nicht? Also in diesem Falle auf die Produkt URL: /Marken/Scout/Scout-Alpha/Scout-Alpha-Summertime-Set-4tlg.html
Da gibt es / gab es einen Bug, schau mal hier (Link nur für registrierte Nutzer sichtbar.) man kann in der robots.txt das crawlen unterbinden, die Seiten sind aber trotzdem so aufrufbar.
Der Fehler, der zu den Aufrufen geführt hat, ist wohl mit 3.5.3.0 behoben worden. Aber die Links sind weiter weiter aufrufbar, wenn Google die erstmal hat. ich habe einen Eintrag in die robots.txt geschrieben, um das zu blockieren. Jetzt stehen einig unter "Blockiert" in der Search-Console von Google und bei den html-Verbesserungen werden es langsam weniger. (von etwa 14 verschiedenen manufacturers-Anhängen bei einzelnen Artikeln sind es jetzt noch maximal 8)
Ok, das wäre eine Lösung. Aber wäre für solche Fälle nicht das canonical tag geeignet um duplicate content zu vermeiden?
Im canonical Tag wird der Parameter nicht gefiltert. Das ist nicht berücksichtigt, weil normal nichts diese Links erzeugt, und dann ist das schlicht egal. Aufgrund eines Bugs in der Herstellerbox waren diese Links in 3.5.2.0 aber im Shop, das wurde mit 3.5.3.0 gelöst. Es geht damit nach einem Update nur noch darum die fehlerhaften URLs wieder aus dem Google Index zu bekommen.
Wir haben dadurch nun mehr als 6000 Seiten die von Google als duplicate Content angemeckert werden... Wäre es wirklich eine saubere Lösung URLS mit dem PAttern "?manufacturer_id" per Robots zu sperren? Wenn ja, wie sollte der Eintrag dann aussehen? Oder gibt es eine Klasse die ich überladen könnte um die canonical Tags zu modifizieren?
Das Problem ist doch gelöst, wie Wilken geschrieben hat. Es wird nur bei Google im Index sein. Entweder teilt man Google nun über die Searchkonsole mit, daß diese Links aus dem Index entfernt werden sollen oder man leitet diese Aufrufe per htaccess auf eine 404 Fehlerseite. Dann sollten die beim nächsten Indizierungslauf wieder verschwinden.
Eine generelle Frage: Würde ein geändertes canonical tag prinzipiell zur Lösung unseres jetzigen Problems (welches eigentlich ja garnicht auftreten sollte) beitragen?
Nein! Das Problem mit dem Canonical Tag ist ja bereits durch das Update in 3.5.3.0 gelöst. Nur Google hat es noch gespeichert und das musst Du Google mitteilen oder es einfach ignorieren.
Nochmal ganz langsam: Wenn aktuell in der Gambio Version 3.6.0.2 die URL (Link nur für registrierte Nutzer sichtbar.) aufgerufen wird, dann lautet der Eintrag des canonical tags ebenfalls (Link nur für registrierte Nutzer sichtbar.). Würde das canonical tag stattdessen auf "(Link nur für registrierte Nutzer sichtbar.)" zeigen, wäre doch alles fein oder nicht?
Es ist klar as die URLS eigentlich nicht mehr so generiert werden sollen. Wurden sie bei uns aber nunmal. Daher hätte ich gerne eine saubere Lösung für unseren Fall.