2x Sitemap?

Thema wurde von Anonymous, 22. Juni 2017 erstellt.

  1. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    1. November 2016
    Beiträge:
    517
    Danke erhalten:
    46
    Danke vergeben:
    45
    Hallo,

    ich habe erst gestern meinen Shop aktualisieren lassen auf 3.5.2.0

    Vorher mit der Shopversion 3.3.3 hatte ich eine Sitemap bei Google hochgeladen „sitemap1.xml“

    Jetzt in der neuen Shopversion heißt die „public/sitemap-de.xml“

    Die neue Sitemap habe ich auch schon hochgeladen.

    Wie geht man jetzt mit zwei Sitemaps um?

    Da hat man doch doppelten Kontent - oder?

    Muß die alte jetzt manuell gelöscht werden, bei Google und per FTP?


    Gruß
     
  2. Anonymous

    Anonymous G-WARD 2015/2016

    Registriert seit:
    20. Februar 2012
    Beiträge:
    8.755
    Danke erhalten:
    1.516
    Danke vergeben:
    1.051
    die sitemap1.xml kannst Du löschen. Du musst aber in der robots.txt angeben wo die richtige sitemap ist.

    Sitemap: (Link nur für registrierte Nutzer sichtbar.)
     
  3. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    Man muss da nichts manuell in die robots.txt eintragen, sondern diese nur neu erstellen.
    Der Shop fügt dann den Pfad automatisch unten ein.
     
  4. Anonymous

    Anonymous G-WARD 2015/2016

    Registriert seit:
    20. Februar 2012
    Beiträge:
    8.755
    Danke erhalten:
    1.516
    Danke vergeben:
    1.051
    naja, also ich habe da meine eigenen Einträge, da lasse ich nichts automatisch machen :)
     
  5. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    das geht doch alles über den Adminbereich.
    Schau mal unter Shop Eisntellungen -> SEO -> Statische Seiten
    Da kannst du alles ein oder austragen.
     
  6. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Es gibt auch noch ein Template im export Ordner, da kann man auch noch was machen.
     
  7. Anonymous

    Anonymous G-WARD 2015/2016

    Registriert seit:
    20. Februar 2012
    Beiträge:
    8.755
    Danke erhalten:
    1.516
    Danke vergeben:
    1.051
    da stehen aber meine "disallowes" nicht drin :)
     
  8. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    Die kannst Du da aber eintragen.
     
  9. Anonymous

    Anonymous G-WARD 2015/2016

    Registriert seit:
    20. Februar 2012
    Beiträge:
    8.755
    Danke erhalten:
    1.516
    Danke vergeben:
    1.051
    bei mir geht es um ganze Ordner
     
  10. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    Was ich aber gerade nicht verstehe:
    warum ist auf der Seite "Statische Seiten" bei den Meta Angaben der en-Tab an erster stelle, wenn überall sonst "de" zuerst kommt?

    @Achim
    mit Ordnern habe ich es noch nicht probiert
     
  11. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Weil da keiner drauf geachtet hat :)
     
  12. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    Na dann ist bei mir wenigstens nichts kaputt :)
     
  13. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    4. Mai 2015
    Beiträge:
    89
    Danke erhalten:
    14
    Danke vergeben:
    22
    Hallo zusammen

    Die Idee der Zusammenarbeit mit Sitemap und robots.txt im SEO-Bereich gefällt mir.

    Leider habe ich unter oben stehendem Titel das Problem, dass Einträge in der Sitemap durch robots.txt gesperrt werden: info/Impressum.html. Ich möchte also das Disallow im robots.txt löschen... Aber: Was ich auch versuche (Template unter Export anschauen, einzufügen, entfernen, erlauben, nicht erlauben, alter robots.txt löschen..: der Disallow bleibt drin. Weiss jemand Rat?

    Hinweis: Eine statische Seite wurde ev. einmal unabsichtlich zu Robots.txt hinzugefügt als Disallow (mit dem neuen Tool), aber ich habe diese dann wieder entfernt.
     
  14. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Bist du sicher, dass du einen Rechtstext crawlbar machen willst? Unser Standardwert ist extra nein. Die Idee ist: Wenn es dort einmal ein Abmahnpotenzial geben sollte, möchten wir, dass unsere dann betroffenen Shopbetreiber nicht per Crawling von Google zu identifizieren sind, und damit in einem Serienbrief von garstigen Entitäten landen.

    Wenn du das dennoch erlauben willst, kannst du das ab Shop 3.5 im entsprechenden Content umschalten.
     
  15. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    4. Mai 2015
    Beiträge:
    89
    Danke erhalten:
    14
    Danke vergeben:
    22
    Grüezi Wilken

    Unser Shop ist in der Schweiz: Abmahnungen sind nicht Teil unserer Rechtskultur.

    Danke für den völlig korrekten Hinweise. Tatsächlich wollte ich mich melden, dass ich den Robots.txt disallow im Content Manager gaaaanz unten aktivieren/deaktivieren konnte (wie Wilken sagt ab Version 3.5).
     
  16. tierurnen-profi.de

    tierurnen-profi.de Erfahrener Benutzer

    Registriert seit:
    5. Januar 2017
    Beiträge:
    178
    Danke erhalten:
    34
    Danke vergeben:
    38
    Kann mir bitte mal einer sagen was die blauen Hacken bedeuten, bevor ich hier ein Fehler mache.
    Sitemap blauer Hacken wird in Sitemap aufgenommen oder Kreuz wird nicht aufgenommen oder anders rum.
    Disallow blauer Hacken wir von Crawler ausgeschlossen oder Kreuz wird nicht ausgeschlossen oder anders rum.
    Ich blick das nicht sorry, welches was ist und Handbuch gibt da auch keine Auskunft.
    Screenshot_2.jpg
    Danke im Voraus.
     
  17. tierurnen-profi.de

    tierurnen-profi.de Erfahrener Benutzer

    Registriert seit:
    5. Januar 2017
    Beiträge:
    178
    Danke erhalten:
    34
    Danke vergeben:
    38
    Ach ja und welche sind sinnvoll und nicht :cool:
     
  18. tierurnen-profi.de

    tierurnen-profi.de Erfahrener Benutzer

    Registriert seit:
    5. Januar 2017
    Beiträge:
    178
    Danke erhalten:
    34
    Danke vergeben:
    38
    Ich habe das mal so gemacht, denke das das richtig ist? oder seht ihr das anders? 21751357_1736260399718783_4857251934387988676_n.jpg Angebote und neu Produkte sollen in Sitemap alles andere nicht, und bei disfollow sollen Angebote und neue Produkte gecrawlt werden und alles andere nicht,
     
  19. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    Blau bedeutet hier "wird in dieser Seite eingetragen"
    Du hast jetzt die Sonderangebote und die neuen Artikel in die Sitemap aufgenommen und alle anderen Seiten durch die robots.txt gesperrt.
     
  20. tierurnen-profi.de

    tierurnen-profi.de Erfahrener Benutzer

    Registriert seit:
    5. Januar 2017
    Beiträge:
    178
    Danke erhalten:
    34
    Danke vergeben:
    38
    Danke Barbara, das ist genau das was ich wollte, den Rest durch die robots.txt sperren. Habe dann anschließend neue Sitemap generiert und auch neue robots.txt. Huch, aber SEO ist immer so ein Ding und wir wollen ja alles richtig machen ;)