Hallo, ich hatte seinerzeit die robots.txt dahingehend geändert, dass zum Beispiel die Seite "Versand- & Zahlungsbedingungen" und auch noch andere Seiten nicht ausgeschlossen werden. Das möchte ich wieder rückgängig machen, also wieder ausschließen, soll dann etwas so aussehen: Disallow: /info/Versand-und-Zahlungsbedingungen.html Ich weiß nicht mehr, wo ich das im Admin einstellen kann, dass das beim Generieren der robots.txt automatisch gemacht wird. Ich hab's echt vergessen wie das geht, schrecklich! Kann mir da jemand helfen? Up's - hab' gefunden: Im Content-Manager SEO Indexierung sperren (noindex Header):