unklare Links bei google nach update 3.6.0.2

Thema wurde von Anonymous, 26. September 2017 erstellt.

  1. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Was ist daran denn falsch? Dass jede URL zu einer canonical gemacht wird? Das sehe ich im Quelltext. Und das widerspricht allen Empfehlungen die ich kenne. Es widerspricht sogar der Definition von canonical URLs. Das scheint mir völlig unstrittig zu sein, und ich glaube auch nicht, dass es in der Hinsicht Bedenken, Beschwerden, Einwände oder Diskussionsbedarf von irgendeinem Shopbetreiber gibt.

    Alle anderen Einzelthemen und Fragestellungen zur Paginierung, Sprachauszeichnungen etc. sind diskutabel, das sehe ich auch so. Bin auch der Meinung, dass das ganze Thema sehr komplex ist und dass es Sinn macht, die Punkte einzeln zu behandeln. Ich denke aber auch, dass ein Forum der falsche Kommunikationsweg dafür ist.
     
  2. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Hehe, was ist denn das hier?!

    (Link nur für registrierte Nutzer sichtbar.)

    Werdet ihr auf eure alten Tage doch noch einsichtig? :-D
     
  3. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Eine Parameter-Ausschluss-Whitelist wäre aber trotzdem noch der bessere Weg als jetzt mit einer Blacklist anzufangen.
     
  4. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Keineswegs.

    Wir fangen nicht jetzt mit einer Blacklist an, wir haben schon die ganze Zeit eine. Und diese bestehende Liste haben wir graduell um einen Parameter erweitert. Wir wollen auch nicht zu einem Whitelist-Modell übergehen, wir wollen schon bei einem Blacklist-Modell bleiben.
     
  5. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Dann wären meine weiteren Vorschläge für die Blacklist:

    view_mode
    listing_count
    listing_sort
     
  6. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Die sind alle über die robots Datei gesperrt. Die werden nicht indiziert.

    Wenn ein irregulärer Crawler, der sich an keine Regel hält, trotzdem Seiten mit den Parametern aufruft, sollte er auch Tags mit den enthaltenen Parametern bekommen, sonst wird der Kontext völlig verloren gehen.
     
  7. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    #87 Anonymous, 19. Juni 2018
    Zuletzt bearbeitet: 19. Juni 2018
    Ok, das hatten wir ja schon, nachweislich und nach offizieller Aussage von Google können von der robots.txt gesperrte Dateien trotzdem indexiert werden, nur dann ohne Meta-Daten. Auf diesem Auge bleibt Gambio weiterhin blind und ignoriert die Fakten.

    Ich frage mich nur, warum ihr für products_qty jetzt plötzlich eine Sonderlösung schaffen wollt? Ist doch auch in der robots.txt gesperrt.
     
  8. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Was für ein Kontext geht denn verloren, wenn ein regulärer oder irregulärere Crawler eine Seite im Grid-Modus statt in der Listenansicht aufruft?
     
  9. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Wilken, es tut mir WIRKLICH leid und es ist nicht böse gemeint, aber ihr seid tatsächlich mit eurer Canonical-Lösung allein auf der Welt und auf dem Holzweg. Du wirst keine Autorität und keine Quelle nennen können, die euren Weg empfiehlt oder für gut befindet, glaube ich. Bisher habt ihr euch noch nicht einmal getraut zu sagen, wer euch diese Umsetzung angeraten hat. Möglicherweise weil das niemand getan hat?

    Ich habe mit verschiedenen ausgewiesenen SEO-Experten gesprochen und gemailt die von eurer Umsetzung abraten, und ich habe auch eure Aussagen zur Verteidigung eurer Lösung mit Fakten aus unmittelbaren Quellen mehrfach widerlegt. Ich habe auch mehrere unwiderlegbare Probleme eurer Umsetzung mehrfach angesprochen, die ihr nur als theoretisch und konstruiert abgetan habt. Ihr habt auch noch nicht geschrieben, was der Vorteil eurer Lösung ist, der das Risiko wert ist, hier abseits des allgemein anerkannten Verfahrens zu handeln.

    Da hilft alles Diskutieren und Aussitzen nichts. Ich finde, ihr könntet auch mal sagen: "Jo, das ist nicht so optimal geworden, werden wir nochmal in Zukunft überarbeiten", statt den Kopf in den Sand zu stecken und aus Prinzip an schlechten Lösungen festzuhalten.
     
  10. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    31. Mai 2011
    Beiträge:
    339
    Danke erhalten:
    36
    Danke vergeben:
    79
    ganz meiner Meinung.
    aussperren, wie über robot.txt funktioniert überhaupt nicht wirklich, gecrawlt wird eh alles mögliche...
    gibt man eine neue URL ein wird alt und neu munter gecrawlt, oder kurz und lang wenn kurze URL bei Produkten vorgegeben ist
    ich dachte immer canonical gegen duplikat content, ich sehe nicht das dies im shop system mal wirklich funktioniert hat
     
  11. mmatecki

    mmatecki Erfahrener Benutzer

    Registriert seit:
    24. Juni 2018
    Beiträge:
    646
    Danke erhalten:
    110
    Danke vergeben:
    69
    #91 mmatecki, 11. Juli 2018
    Zuletzt bearbeitet: 11. Juli 2018
    die products_qty wird regelmäßig bei mir in der search konsole als blockierte ressource mit aufgenommen tendenz steigend!! seit dem 08.05.2018 von 50 auf 157 Seiten

    auch sind die seiten die eigendlich über den Eintrag Disallow: /*XTCsid* in der robots.txt gesperrt sind bei mir indexiert und werden als blockierte Seiten in search konsole raus gegeben. Zuwachs innerhalb einer WOCHE ca. 1000 Seiten!!!!

    Mal die Frage an GAMBIO soll das so weiter gehen??
     

    Anhänge:

  12. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    #92 Anonymous, 11. Juli 2018
    Zuletzt bearbeitet: 11. Juli 2018
    Gut so! Genau so muss das! Eine SEO-Notwendigkeit, dass diese Ressourcen nicht indexiert werden. Das soll Gambio mit noch mehr Parametern machen, die keine Auswirkung auf den Inhalt der aufgerufenen Seite haben.