Hallo Forum, ich habe eine Website die in ein Unterordner liegt ich weiß dass der Robots.txt im Hauptverzeichnis liegen muss alles soweit wunderbar. Jetzt habe ich einen zweiten Shop in einem Unterordner angelegt jedoch bekomme ich die Meldung dass der Robots.txt veraltet ist. Ist es möglich in Robots.txt die im Hauptverzeichnis liegt beide Websites anzusprechen wie z.B. user-agent: * Disallow: /privat/*page=SN_* Disallow: /gewerbe/*page=SN_* Wenn ja dann funktioniert es nicht die Meldung geht nicht weg. Vielen Dank im Voraus und ein frohes und sicheres neues Jahr. Randolf
Du hast jetzt deineDomain/shop1/ und deineDomain/shop2/ als URL? Warum machst Du keine Subdomains und legst diese auf das Shopverzeichnis?
Vielen Dank. Meinst Du meinedomain/shop1 und meinedomain/shop1/shop2 oder beim Provider eine bzw. zwei Subdomaine einrichten?
Was für ein Vorteil hätte das gegenüber ein Ordner namens Shop1 oder Shop2 weil wenn ich Subdomains richtig verstehe werden die auf ein Ordner umgeleitet oder?
Die Ordner bleiben genau da, wo sie sind. rufst Du den Shop über deineDomain/shop auf, muss die robots.txt in das Verzeichnis auf dem "deineDomain" liegt. legst Du eine Subdomain "shop.deineDomain" auf den Ordner "shop" ist das für den Shop das Hauptverzeichnis und die robots.txt bleibt im Ordner "shop". Nachteil kann sein, dass das SSL-Zertifikat für deineDomain/shop genutzt werden kann, aber nciht für shop.deineDomain. Wenn der Shop schon eine Weile läuft, muss man wegen Google auch aufpassen, da der Shop ja über eine neue Domain aufgerufen wird. Das sollte man deshalb nur für neue Seiten / Shops machen. Aber wenn das die URL des neuen Shops ist, ist das für Kunden nicht so toll, oder? QUOTE="rundring_de, post: 242880, member: 31425"]meinedomain/shop1/shop2[/QUOTE]