Hallo, ich habe erst gestern meinen Shop aktualisieren lassen auf 3.5.2.0 Vorher mit der Shopversion 3.3.3 hatte ich eine Sitemap bei Google hochgeladen „sitemap1.xml“ Jetzt in der neuen Shopversion heißt die „public/sitemap-de.xml“ Die neue Sitemap habe ich auch schon hochgeladen. Wie geht man jetzt mit zwei Sitemaps um? Da hat man doch doppelten Kontent - oder? Muß die alte jetzt manuell gelöscht werden, bei Google und per FTP? Gruß
die sitemap1.xml kannst Du löschen. Du musst aber in der robots.txt angeben wo die richtige sitemap ist. Sitemap: (Link nur für registrierte Nutzer sichtbar.)
Man muss da nichts manuell in die robots.txt eintragen, sondern diese nur neu erstellen. Der Shop fügt dann den Pfad automatisch unten ein.
das geht doch alles über den Adminbereich. Schau mal unter Shop Eisntellungen -> SEO -> Statische Seiten Da kannst du alles ein oder austragen.
Was ich aber gerade nicht verstehe: warum ist auf der Seite "Statische Seiten" bei den Meta Angaben der en-Tab an erster stelle, wenn überall sonst "de" zuerst kommt? @Achim mit Ordnern habe ich es noch nicht probiert
Hallo zusammen Die Idee der Zusammenarbeit mit Sitemap und robots.txt im SEO-Bereich gefällt mir. Leider habe ich unter oben stehendem Titel das Problem, dass Einträge in der Sitemap durch robots.txt gesperrt werden: info/Impressum.html. Ich möchte also das Disallow im robots.txt löschen... Aber: Was ich auch versuche (Template unter Export anschauen, einzufügen, entfernen, erlauben, nicht erlauben, alter robots.txt löschen..: der Disallow bleibt drin. Weiss jemand Rat? Hinweis: Eine statische Seite wurde ev. einmal unabsichtlich zu Robots.txt hinzugefügt als Disallow (mit dem neuen Tool), aber ich habe diese dann wieder entfernt.
Bist du sicher, dass du einen Rechtstext crawlbar machen willst? Unser Standardwert ist extra nein. Die Idee ist: Wenn es dort einmal ein Abmahnpotenzial geben sollte, möchten wir, dass unsere dann betroffenen Shopbetreiber nicht per Crawling von Google zu identifizieren sind, und damit in einem Serienbrief von garstigen Entitäten landen. Wenn du das dennoch erlauben willst, kannst du das ab Shop 3.5 im entsprechenden Content umschalten.
Grüezi Wilken Unser Shop ist in der Schweiz: Abmahnungen sind nicht Teil unserer Rechtskultur. Danke für den völlig korrekten Hinweise. Tatsächlich wollte ich mich melden, dass ich den Robots.txt disallow im Content Manager gaaaanz unten aktivieren/deaktivieren konnte (wie Wilken sagt ab Version 3.5).
Kann mir bitte mal einer sagen was die blauen Hacken bedeuten, bevor ich hier ein Fehler mache. Sitemap blauer Hacken wird in Sitemap aufgenommen oder Kreuz wird nicht aufgenommen oder anders rum. Disallow blauer Hacken wir von Crawler ausgeschlossen oder Kreuz wird nicht ausgeschlossen oder anders rum. Ich blick das nicht sorry, welches was ist und Handbuch gibt da auch keine Auskunft. Danke im Voraus.
Ich habe das mal so gemacht, denke das das richtig ist? oder seht ihr das anders? Angebote und neu Produkte sollen in Sitemap alles andere nicht, und bei disfollow sollen Angebote und neue Produkte gecrawlt werden und alles andere nicht,
Blau bedeutet hier "wird in dieser Seite eingetragen" Du hast jetzt die Sonderangebote und die neuen Artikel in die Sitemap aufgenommen und alle anderen Seiten durch die robots.txt gesperrt.
Danke Barbara, das ist genau das was ich wollte, den Rest durch die robots.txt sperren. Habe dann anschließend neue Sitemap generiert und auch neue robots.txt. Huch, aber SEO ist immer so ein Ding und wir wollen ja alles richtig machen