robots.txt für Google anpassen

Thema wurde von Taisan, 27. Januar 2023 erstellt.

  1. Taisan

    Taisan Erfahrener Benutzer

    Registriert seit:
    4. Februar 2016
    Beiträge:
    143
    Danke erhalten:
    15
    Danke vergeben:
    44
  2. stefan_elbert

    stefan_elbert Erfahrener Benutzer

    Registriert seit:
    8. August 2017
    Beiträge:
    128
    Danke erhalten:
    5
    Danke vergeben:
    20
    Das würde mich aus interresien :D
     
  3. Anonymous

    Anonymous Administrator
    Mitarbeiter

    Registriert seit:
    26. April 2011
    Beiträge:
    1.660
    Danke erhalten:
    1.262
    Danke vergeben:
    300
    Ja, und unnötig. Muss nicht angepasst werden.
     
  4. stefan_elbert

    stefan_elbert Erfahrener Benutzer

    Registriert seit:
    8. August 2017
    Beiträge:
    128
    Danke erhalten:
    5
    Danke vergeben:
    20
    ok, hat also nicht mit den Fehlermeldungen:


    "Die mobile Seite kann aufgrund der Datei robots.txt nicht gecrawlt werden"
    "Die Desktop-Seite kann aufgrund der Datei robots.txt nicht gecrawlt werden"

    zu tun?

    Diese erhalte ich sei einiger Zeit bei google nd die Produkte werden deaktiviert nach und nach
     
  5. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Juli 2021
    Beiträge:
    354
    Danke erhalten:
    148
    Danke vergeben:
    124
    Das scheint nur ein Fehler bei Google zu sein.
    Ich habe diese Fehler auch seit ca. 3-4 Wochen bei nur sehr wenigen Produkten.
    Dann klicke ich einfach auf "Problem behoben" und ohne wirklich etwas zu ändern, ist wieder alles gut.
     
  6. Dennis (MotivMonster.de)

    Dennis (MotivMonster.de) G-WARD 2013/14/15/16

    Registriert seit:
    22. September 2011
    Beiträge:
    30.984
    Danke erhalten:
    6.096
    Danke vergeben:
    1.079
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    Nutzt du die Gambio Robots.txt ?
    oder gibts evtl. noch eine andere in einem Übergeordnetem Ordner?
     
  7. Anonymous

    Anonymous Administrator
    Mitarbeiter

    Registriert seit:
    26. April 2011
    Beiträge:
    1.660
    Danke erhalten:
    1.262
    Danke vergeben:
    300

    Das was Google da als Lösung vorschlägt ist keine Lösung, sondern nur was wir sowieso schon in der robots.txt machen, nur anders.

    Wir haben im Master Update 4.8 eine andere Anpassung in der robots.txt vorgenommen, sodass du nach dem Update auf 4.8 die robots.txt neu generieren musst.
     
  8. erle

    erle Erfahrener Benutzer

    Registriert seit:
    10. Juni 2011
    Beiträge:
    132
    Danke erhalten:
    8
    Danke vergeben:
    24
    Wäre schön, wenn das auch so in der Installationsanleitung des Updates stünde. Da ist seit Jahren der Hinweis, man solle die robots.txt neu generieren, wenn der Shop in einem Unterverzeichnis liegt. Da dies bei mir nicht der Fall ist, fühle ich mich da nie angesprochen.
     
  9. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    15. Mai 2017
    Beiträge:
    691
    Danke erhalten:
    129
    Danke vergeben:
    176
    Hatte ich gemacht. Aber im Google Merchant Center erscheint (mit aktuellen Crawldatum) die beiden Meldungen
    "Die mobile Seite kann aufgrund der Datei robots.txt nicht gecrawlt werden"
    "Die Desktop-Seite kann aufgrund der Datei robots.txt nicht gecrawlt werden"
    und immer mehr Artikel werden abgelehnt.

    Habe ich die Lösung für die Problematik hier irgendwie überlesen?
     
  10. Anonymous

    Anonymous Administrator
    Mitarbeiter

    Registriert seit:
    26. April 2011
    Beiträge:
    1.660
    Danke erhalten:
    1.262
    Danke vergeben:
    300
    @DOGS in the CITY Dann mach bitte ein Ticket auf, damit wir uns die robots.txt Datei ansehen können und nenne uns ein paar Beispiel URLs die von Google nicht aufgerufen werden können.
     
  11. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    15. Mai 2017
    Beiträge:
    691
    Danke erhalten:
    129
    Danke vergeben:
    176
  12. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    15. Mai 2017
    Beiträge:
    691
    Danke erhalten:
    129
    Danke vergeben:
    176
    #12 Anonymous, 13. März 2023
    Zuletzt bearbeitet: 13. März 2023
    Könnte sein, dass ich weiß woran das liegt:

    Mit dem Google "robots-testing-tool" konnte ich sehen, dass die von Google "gesehene" robots.txt nicht die aktuelle von der Webeseite aus der 4.8.0.0 Installation ist. Dort gibt es auch die Möglichkeit einzelne Urls zu testen. Mit den ans Merchant-Center übergebenen Produkt-Urls mit den ?currency= Parameter und der alten robots.txt Version, die ein "Disallow: /*currency=*" Eintrag, kann die Url dann tatsächlich auch nicht gelesen werden.

    In dem Tool kann man Google auch eine aktualisiert robots.txt bekanntgeben.
    Gemacht, dann kann die Produkt-URL mit dem ?currency= Parameter auch gelesen werden.

    Vielleicht war es das ja, dann sollten die abgelehnten (aktuell 30%) wieder runtergehen.
    Wir werden sehen.
     
  13. Anonymous

    Anonymous Administrator
    Mitarbeiter

    Registriert seit:
    26. April 2011
    Beiträge:
    1.660
    Danke erhalten:
    1.262
    Danke vergeben:
    300
    @DOGS in the CITY Ja, das könnte das Problem gewesen sein, die robots.txt muss übrigens nicht ins Shopverzeichnis, sondern is ROOT der Domain, wenn dein Shop also in einem Unterverzeichnis ist und über meineDomain.de/shop/ aufrufbar ist, muss die robots.txt eine Ebene höher damit Google diese robots.txt benutzt.
     
  14. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    15. Mai 2017
    Beiträge:
    691
    Danke erhalten:
    129
    Danke vergeben:
    176
    @Till (Gambio)
    Die Zahl der abgelehnten Artikel geht schon zurück. :)

    Ich kann mir aber irgendwie nicht vorstellen, dass Google beim crawlen nicht die vohandene, aktuelle robots.txt liest, sondern irgendwas, was die irgendwann mal von der Webseite gelesen haben. :eek:
    Nun ja, wenn es jetzt wieder läuft, auch egal.
     
  15. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    4. September 2018
    Beiträge:
    105
    Danke erhalten:
    12
    Danke vergeben:
    9
    Hallo,
    das Problem wurde hier behandelt und gelöst:
    (Link nur für registrierte Nutzer sichtbar.)