Fragen wegen einer Url

Thema wurde von hartwigbusse, 27. März 2017 erstellt.

  1. hartwigbusse

    hartwigbusse Erfahrener Benutzer

    Registriert seit:
    10. Dezember 2014
    Beiträge:
    1.167
    Danke erhalten:
    255
    Danke vergeben:
    420
    @L & B , vielen Dank für deine Antwort. Leider muss ich noch fragen , welche der beiden Optionen( Siehe bild)
    Will halt nix verkehrt machen.
     

    Anhänge:

    • Pra.jpg
      Pra.jpg
      Dateigröße:
      33,3 KB
      Aufrufe:
      31
  2. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Keinen Einfluss auf Seiteninhalt
     
  3. hartwigbusse

    hartwigbusse Erfahrener Benutzer

    Registriert seit:
    10. Dezember 2014
    Beiträge:
    1.167
    Danke erhalten:
    255
    Danke vergeben:
    420
    Na dann habe ich es mal gemacht, schaun wir mal ob die Urls wieder verschwinden.
     
  4. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Müssten sie eigentlich.
     
  5. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    31. Mai 2011
    Beiträge:
    339
    Danke erhalten:
    36
    Danke vergeben:
    79
    Hallo, Guten Abend,

    diese URLs sind mir auch schon aufgefallen. Ich bin noch bei 3.2.2.0. Jetzt habe mal nach längerer Zeit im webmaster nachgeschaut. Da sind eigentlich alle meine URLs doppelt aufgelistet.
    webmaster doppelte meta.PNG
    Im Google index habe ich 61 mal eine URL damit gefunden.
    Ich bin mir nicht sicher ob das so gewollt. Das ist aus meiner Sicht doppelter Content was von google abgestraft wird.
    Das Problem gibt es doch auch schon länger. Eine Info in der Robot.txt ist aus meiner Sicht keine vernünftige Lösung.
    Oder muss irgendwo was im Shop anders eingestellt werden?

    Danke Grüße
     
  6. hartwigbusse

    hartwigbusse Erfahrener Benutzer

    Registriert seit:
    10. Dezember 2014
    Beiträge:
    1.167
    Danke erhalten:
    255
    Danke vergeben:
    420
    @kiam harmony, doch das mit der Robots Datei, wie es L & B beschrieben hat funktioniert. Und noch die Parameter einstellen und dann dürften die Urls weggehen. Ich habe noch zusätzlich in Google index-Url entfernen, alle Urls eingetragen. Das das mit der Robotsdatei funktioniert kannst du testen.
     
  7. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    31. Mai 2011
    Beiträge:
    339
    Danke erhalten:
    36
    Danke vergeben:
    79
    Hallo Hartwig,

    das das mit der robot sperrung irgendwann mal klappt ist mir schon klar. Die Frage ist aber für mich wie kommen diese URLs zustande und wie kann man das crawlen vermeiden. Es entstehen nämlich die kuriosesten Seiten mit meta Angaben die gar nicht so eingestellt wurden. Das ist ganz schlechter doppelmoppel.

    Kurios ist auch das diese Links den selben Title haben ist gar nicht möglich laut meta Angaben, wird aber so von google ausgelesen
    (Link nur für registrierte Nutzer sichtbar.)
    (Link nur für registrierte Nutzer sichtbar.)
    Unbenannt.PNG
     
  8. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Ja, blöd ist vor allem auch: Meta Title etc. vom Produkt, aber man kommt ja nicht einmal auf die Produktseite sondern auf die Kategorieseite.

    "Normale" Besucher bekommen diese seltsamen Links ja nirgendwo angezeigt, daher gehe ich davon aus, dass das irgendeine URL ist die den Suchmaschinen-Bots versehentlich angezeigt / generiert wird. Der Struktur nach würde ich darauf tippen, dass das auf den Produktseiten von dem "In den Warenkorb" Button kommt bzw. von der Mengenauswahl auf der Produktseite. Im Quelltext finde ich:

    Code:
            <div class="input-group">
                <a class="btn btn-default btn-lg btn-minus"><span class="fa fa-minus"></span></a>
                <input type="text" class="form-control input-lg pull-right js-calculate-qty" value="1" id="attributes-calc-quantity" name="products_qty" />
                <a class="input-group-btn btn btn-default btn-lg btn-plus"><span class="fa fa-plus"></span></a>
            </div>
    Wenn sich die Generierung dieses Links technisch nicht unterbinden lässt, wäre die robots.txt Lösung sicherlich gut. Oder eine Mod_Rewrite-Lösung. Oder vielleicht hilft auch schon ein rel="nofollow" für diesen Link?

    Vielleicht ist das noch ein Thema für die Version 3.4.1.0 ?
     
  9. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Immernoch nicht tiefenuntersucht, aber ich behaupte das ist ein Robots-Thema. Das ist kein Rewrite Thema, weil der shop solche Links gar nicht generiert. Der Crawler bastelt sich irgendeinen Käse aus realen Elementen und hidden fields im HTML zusammen, die du in keinem Browser zusammenklicken kannst. Weil es diese Links nicht gibt, kann es auch kein nofollow Thema sein.

    Wir schauen uns das recht bald genauer an, dann verstehen wir was da passiert. Dann machen wir etwas. Wie immer :)
     
  10. hartwigbusse

    hartwigbusse Erfahrener Benutzer

    Registriert seit:
    10. Dezember 2014
    Beiträge:
    1.167
    Danke erhalten:
    255
    Danke vergeben:
    420
    Es gibt eine neue Url, die plötzlich auftaucht und auch ans Ziel führt. "de/product-57.html" Habe die auch per Robots mit Disallow: /*product* gesperrt, hoffe es ist okay so.
     
  11. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Nicht ok schätze ich. Meine Vermutung: Da fehlen die Url keywords bei dem Produkt (und noch bei 56 anderendavor?)
     
  12. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Wenn das so ist sperrst du alle deine Produkte ohne url keywords für den google bot.
     
  13. hartwigbusse

    hartwigbusse Erfahrener Benutzer

    Registriert seit:
    10. Dezember 2014
    Beiträge:
    1.167
    Danke erhalten:
    255
    Danke vergeben:
    420
    Okay verstehe ich, ich habe mal statt der 57 eine 56 draus gemacht und da kam error. Meine Produkte sind alle mit url keywords ausgestattet.
     
  14. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Zumindest dieses hier nicht: (Link nur für registrierte Nutzer sichtbar.)
    Da dürfte product-57 drin stehen (automatisch vergeben)
     
  15. hartwigbusse

    hartwigbusse Erfahrener Benutzer

    Registriert seit:
    10. Dezember 2014
    Beiträge:
    1.167
    Danke erhalten:
    255
    Danke vergeben:
    420
    Mann, stimmt... wat ein schei...., danke. Ich dacht ich hätte....:mad:
     
  16. cideria

    cideria Mitglied

    Registriert seit:
    4. Januar 2018
    Beiträge:
    9
    Danke erhalten:
    0
    Danke vergeben:
    2
    Hallo Zusammen,

    gibt es zu dem Thema schon eine Lösung, auch wir haben jetzt in der Searchconsole diese Links mit products_qty= bzw. products_id=

    Danke schon mal!!
    Philipp
     
  17. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Was meinst du genau? Als Ressourcen die durch die robots.txt gesperrt sind?