URL in Sitemap und gleichzeitig Disallow in robots.txt

Thema wurde von sirtet, 22. November 2016 erstellt.

  1. sirtet
    sirtet Erfahrener Benutzer
    Registriert seit:
    4. Juli 2012
    Beiträge:
    1.131
    Danke erhalten:
    89
    Danke vergeben:
    90
    Die Google Search Console meldet mir unter Sitemaps:

    upload_2016-11-22_16-23-34.png
    Das sehe ich dann auch in der robots.txt, zb:

    Disallow: /catalog/info/impressum.html
    Disallow: /catalog/shop_content.php?coID=9

    Aber das gehört doch dort nicht rein? Wie ist denn das entstanden?

    Betroffen sollen 102 Seiten sein (Spaltentitel ist Problemanzahl), sehe aber nicht, wie man die alle auflisten könnte.
     
  2. barbara
    barbara G-WARD 2014-2020
    Registriert seit:
    14. August 2011
    Beiträge:
    35.657
    Danke erhalten:
    11.371
    Danke vergeben:
    1.616
    Die Rechtstexte wurden in der robots.txt gesperrt, damit Abmahner die Seiten nicht so einfach bei Google finden.
    Dann sind Seiten-Teile, wie z.B. index-mitte gesperrt, das möchte man ja auch nicht einzeln bei Google sehen, sondern eher mit der gesamten Startseite.
     
  3. Dennis (MotivMonster.de)
    Dennis (MotivMonster.de) G-WARD 2013/14/15/16
    Registriert seit:
    22. September 2011
    Beiträge:
    31.303
    Danke erhalten:
    6.268
    Danke vergeben:
    1.118
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    Die musst auch nciht in die sitemap packen. kannst ja hacken abwählen.
     
  4. sirtet
    sirtet Erfahrener Benutzer
    Registriert seit:
    4. Juli 2012
    Beiträge:
    1.131
    Danke erhalten:
    89
    Danke vergeben:
    90
    Hmm, also, bei den Contents sehe ich, dass ich wählen kann, ob sie in die Sitemap kommen, klar.

    Aber die robots.txt, ist die einfach von Anfang her so befüllt, dass das draussen ist, was Gambio für sinnvoll hält? Eben etwa das Impressum? Oder kann man das sonstwo steuern?

    Da ich da nie etwas selbst geändert habe, ist das ev. ein Bug, dass Gambio das Impressum in die Sitemap nimmt UND in die robots?
     
  5. Dennis (MotivMonster.de)
    Dennis (MotivMonster.de) G-WARD 2013/14/15/16
    Registriert seit:
    22. September 2011
    Beiträge:
    31.303
    Danke erhalten:
    6.268
    Danke vergeben:
    1.118
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    Jein, es war damals der VOrschlag (forum) das man wegen den ganzen AGB Abmahnern diese Seiten blockiert damit die die fehlerhaften / veralteten Texte nicht einfach über die google suche schnell finden können.
    Einfachster weg war das diese Seiten in die Robots mit aufgenommen werden.
    Damit war die Sache dann ja erledigt.

    Die robots kannst nicht online bearbeiten musst dann manuell machen. Ist auch nur ein Vorschlag von gambio. kannst anpassen wie du willst.