gelöst robots.txt / Disallow - Einstellungen im Admin

Thema wurde von Anonymous, 26. November 2022 erstellt.

  1. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    18. August 2021
    Beiträge:
    662
    Danke erhalten:
    92
    Danke vergeben:
    273
    #1 Anonymous, 26. November 2022
    Zuletzt bearbeitet: 26. November 2022
    Hallo,

    ich hatte seinerzeit die robots.txt dahingehend geändert, dass zum Beispiel die Seite "Versand- & Zahlungsbedingungen" und auch noch andere Seiten nicht ausgeschlossen werden.

    Das möchte ich wieder rückgängig machen, also wieder ausschließen, soll dann etwas so aussehen:

    Disallow: /info/Versand-und-Zahlungsbedingungen.html

    Ich weiß nicht mehr, wo ich das im Admin einstellen kann, dass das beim Generieren der robots.txt automatisch gemacht wird.

    Ich hab's echt vergessen wie das geht, schrecklich!

    Kann mir da jemand helfen?


    Up's - hab' gefunden:

    Im Content-Manager

    SEO Indexierung sperren (noindex Header):