Was ist daran denn falsch? Dass jede URL zu einer canonical gemacht wird? Das sehe ich im Quelltext. Und das widerspricht allen Empfehlungen die ich kenne. Es widerspricht sogar der Definition von canonical URLs. Das scheint mir völlig unstrittig zu sein, und ich glaube auch nicht, dass es in der Hinsicht Bedenken, Beschwerden, Einwände oder Diskussionsbedarf von irgendeinem Shopbetreiber gibt. Alle anderen Einzelthemen und Fragestellungen zur Paginierung, Sprachauszeichnungen etc. sind diskutabel, das sehe ich auch so. Bin auch der Meinung, dass das ganze Thema sehr komplex ist und dass es Sinn macht, die Punkte einzeln zu behandeln. Ich denke aber auch, dass ein Forum der falsche Kommunikationsweg dafür ist.
Hehe, was ist denn das hier?! (Link nur für registrierte Nutzer sichtbar.) Werdet ihr auf eure alten Tage doch noch einsichtig? :-D
Eine Parameter-Ausschluss-Whitelist wäre aber trotzdem noch der bessere Weg als jetzt mit einer Blacklist anzufangen.
Keineswegs. Wir fangen nicht jetzt mit einer Blacklist an, wir haben schon die ganze Zeit eine. Und diese bestehende Liste haben wir graduell um einen Parameter erweitert. Wir wollen auch nicht zu einem Whitelist-Modell übergehen, wir wollen schon bei einem Blacklist-Modell bleiben.
Die sind alle über die robots Datei gesperrt. Die werden nicht indiziert. Wenn ein irregulärer Crawler, der sich an keine Regel hält, trotzdem Seiten mit den Parametern aufruft, sollte er auch Tags mit den enthaltenen Parametern bekommen, sonst wird der Kontext völlig verloren gehen.
Ok, das hatten wir ja schon, nachweislich und nach offizieller Aussage von Google können von der robots.txt gesperrte Dateien trotzdem indexiert werden, nur dann ohne Meta-Daten. Auf diesem Auge bleibt Gambio weiterhin blind und ignoriert die Fakten. Ich frage mich nur, warum ihr für products_qty jetzt plötzlich eine Sonderlösung schaffen wollt? Ist doch auch in der robots.txt gesperrt.
Was für ein Kontext geht denn verloren, wenn ein regulärer oder irregulärere Crawler eine Seite im Grid-Modus statt in der Listenansicht aufruft?
Wilken, es tut mir WIRKLICH leid und es ist nicht böse gemeint, aber ihr seid tatsächlich mit eurer Canonical-Lösung allein auf der Welt und auf dem Holzweg. Du wirst keine Autorität und keine Quelle nennen können, die euren Weg empfiehlt oder für gut befindet, glaube ich. Bisher habt ihr euch noch nicht einmal getraut zu sagen, wer euch diese Umsetzung angeraten hat. Möglicherweise weil das niemand getan hat? Ich habe mit verschiedenen ausgewiesenen SEO-Experten gesprochen und gemailt die von eurer Umsetzung abraten, und ich habe auch eure Aussagen zur Verteidigung eurer Lösung mit Fakten aus unmittelbaren Quellen mehrfach widerlegt. Ich habe auch mehrere unwiderlegbare Probleme eurer Umsetzung mehrfach angesprochen, die ihr nur als theoretisch und konstruiert abgetan habt. Ihr habt auch noch nicht geschrieben, was der Vorteil eurer Lösung ist, der das Risiko wert ist, hier abseits des allgemein anerkannten Verfahrens zu handeln. Da hilft alles Diskutieren und Aussitzen nichts. Ich finde, ihr könntet auch mal sagen: "Jo, das ist nicht so optimal geworden, werden wir nochmal in Zukunft überarbeiten", statt den Kopf in den Sand zu stecken und aus Prinzip an schlechten Lösungen festzuhalten.
ganz meiner Meinung. aussperren, wie über robot.txt funktioniert überhaupt nicht wirklich, gecrawlt wird eh alles mögliche... gibt man eine neue URL ein wird alt und neu munter gecrawlt, oder kurz und lang wenn kurze URL bei Produkten vorgegeben ist ich dachte immer canonical gegen duplikat content, ich sehe nicht das dies im shop system mal wirklich funktioniert hat
die products_qty wird regelmäßig bei mir in der search konsole als blockierte ressource mit aufgenommen tendenz steigend!! seit dem 08.05.2018 von 50 auf 157 Seiten auch sind die seiten die eigendlich über den Eintrag Disallow: /*XTCsid* in der robots.txt gesperrt sind bei mir indexiert und werden als blockierte Seiten in search konsole raus gegeben. Zuwachs innerhalb einer WOCHE ca. 1000 Seiten!!!! Mal die Frage an GAMBIO soll das so weiter gehen??
Gut so! Genau so muss das! Eine SEO-Notwendigkeit, dass diese Ressourcen nicht indexiert werden. Das soll Gambio mit noch mehr Parametern machen, die keine Auswirkung auf den Inhalt der aufgerufenen Seite haben.