Die Google Search Console meldet mir unter Sitemaps: Das sehe ich dann auch in der robots.txt, zb: Disallow: /catalog/info/impressum.html Disallow: /catalog/shop_content.php?coID=9 Aber das gehört doch dort nicht rein? Wie ist denn das entstanden? Betroffen sollen 102 Seiten sein (Spaltentitel ist Problemanzahl), sehe aber nicht, wie man die alle auflisten könnte.
Die Rechtstexte wurden in der robots.txt gesperrt, damit Abmahner die Seiten nicht so einfach bei Google finden. Dann sind Seiten-Teile, wie z.B. index-mitte gesperrt, das möchte man ja auch nicht einzeln bei Google sehen, sondern eher mit der gesamten Startseite.
Hmm, also, bei den Contents sehe ich, dass ich wählen kann, ob sie in die Sitemap kommen, klar. Aber die robots.txt, ist die einfach von Anfang her so befüllt, dass das draussen ist, was Gambio für sinnvoll hält? Eben etwa das Impressum? Oder kann man das sonstwo steuern? Da ich da nie etwas selbst geändert habe, ist das ev. ein Bug, dass Gambio das Impressum in die Sitemap nimmt UND in die robots?
Jein, es war damals der VOrschlag (forum) das man wegen den ganzen AGB Abmahnern diese Seiten blockiert damit die die fehlerhaften / veralteten Texte nicht einfach über die google suche schnell finden können. Einfachster weg war das diese Seiten in die Robots mit aufgenommen werden. Damit war die Sache dann ja erledigt. Die robots kannst nicht online bearbeiten musst dann manuell machen. Ist auch nur ein Vorschlag von gambio. kannst anpassen wie du willst.