hallo, habe mich jetzt mal mit dem seo-boost beschäftigt und stelle fest das dies absolut nicht das gelbe vom ei ist. Die angehängten ids z.b.#758 ist schöner doppelter content. warum wird die #785 bei dem horizontalen menü mit angehängt und in der krümel nicht!!! warum wird so ein rattenschwanz von url erzeugt bei klick auf seite 2 in der product_listing!!! /Aussenleuchten/Boden/Standleuchten-IP44/?Aussenleuchten=Boden&Standleuchten-IP44=&cat=c378&cPath=365_1076_378&page=3 würde mich freuen wenn ein mod dies mal erklären könnte.
Hey, dazu: ich habe mitlerweile schon eine ganze Menge doppelter Title im Google-Index die ich im GX1 noch nicht hatte. Leider fehlt mir im Moment ein wenig die Zeit das genauer zu analysieren, aber irgend-etwas ist bei mir falsch eingestellt oder wird nicht per robot.txt gesperrt?
Das Problem hab ich auch...Die Urls sind nicht sauber... solange der Shop noch voller fehler ist, bleibt er bei mir noch als Testshop bis Gambio diese Fehler behoben hat. z.zt ist eine Liveschaltung unmöglich..
es geht ja um die zahl wie z.b http://www.laviata.de/Testshop/Sexshop-Restposten/#111 oder in GX1 sieht das so aus: http://www.laviata.de/Sexshop-Restposten/
habs jetzt versucht.... Die zahl und die Raute bleibt http://www.laviata.de/Testshop/Sexshop-Restposten-keine-sauberen-URL/#111 wahrscheinlich hab ich eine Neuere Version von GX2 als Du, mit Neuen Fehlern...wie immer
oder noch schlimmer http://www.laviata.de/Testshop/Reiz...uer-Sie=Accessoires&cat=c12&cPath=7_12&page=6
Das ist richtig. Ich habe alle Keyword Urls angepasst und so sieht es bei mir aus: http://www.gartenkamine24.com/Gartenkamine/Hermapro-Gartenkamine/
Hallo Ingo, so wie es für mich ausschaut, hast Du die suchmaschinenfreundlichen Links unter Konfiguration aktiviert. Da kannst Du die SEO-Boost-URLs nicht mit uzu aktivieren! Entweder das eine oder das andere oder keines von beiden. Ich habe bei mir die SEO-Boost URLs aktiviert und da macht er solche URLs von: http://www.merlyn-design.de/K...../s.......t/GOLFFIGURENTEE/Testartikel-2-5.html (Ist wohl klar, das die gepunkteten Verzeichnis auskommentiert sind )
Hallo das seh ich nicht so. bei dir steht: gartenkamine24/Glasfeuer-Glaskamine/?XTCsid=35ff7a21f2272632df95b5200e3bf5e1#4 gartenkamine24/Gartenfeuer/#6 bei mir sind alle urls angepaßt. die zahlen kommen auch nur in der obersten ebene der kat vor.
Michael@Die session ID kannst Du abschalten oder per Robot.txt aussperren Suchmaschinen - Spider Sessions vermeiden? - ja
Erwin@ Suchmaschinenfreundliche URLs benutzen? ist bei mir ausgeschaltet. ich nehme an es ist ein Fehler der aktuellen Version von Gambio GX2
hmmmmmmmmmm, da ich nicht der einzige bin...würde ich mich doch mal freuen wenn ein mitarbeiter der firma gambio ein wort darüber verliert. nur lesen und schweigen ist auch keine gute lösung. bei anderen fragen wird doch auch schnell geantwortet.
Hallo zusammen, wir werden ein Update erstellen, das die Urls im horizontalen Menü von den IDs als Anker befreit. Die IDs werden aktuell für das JavaScript des Megadropdowns benötigt. Wir waren bei der Entwicklung davon ausgegangen, dass Anker von Suchmaschinen ignoriert werden (was doppelten Content angeht), dass also http://www.meinshop.de/Hosen/Jeans/#14 als http://www.meinshop.de/Hosen/Jeans/ behandelt wird und daher kein doppelter Content entsteht. Wer zu diesem Thema fundiertes Wissen hat (bitte keine Vermutungen oder Halbwissen!), darf hier gerne für Aufklärung sorgen. Ich selber werde in den kommenden Tagen versuchen mich schlau zu machen. Im gleichen Zuge werden wir uns ebenfalls den "Seiten-Urls" widmen, um diese zu optimieren. Beim ersten Aufruf des Shops enthalten die Urls stets die Session-ID. Dies betrifft aber nicht die Suchmaschinen! Außerdem werden Urls mit Session-ID von der robots.txt standardmäßig geblockt. Wer seinen Shop in einem Unterverzeichnis hat (z. B. http://www.meinedomain.de/shop), sollte überprüfen, ob die robots.txt im Hauptverzeichnis vorhanden ist (http://www.meinedomain.de/robots.txt, NICHT http://www.meinedomain.de/shop/robots.txt). Falls die robots.txt fehlt, kann diese über den Adminbereich erstellt werden (Gambio SEO -> Robots Datei (nur sichtbar für Shops im Unterordner)).
hallo moritz und vielen dank für die erklärung. will die ganze sache mal ein wenig entschärfen. obwohl die seitenlinks wirklich nicht das gelbe vom ei ist. vielleicht ließt sich das ja mal jemand durch und sagt was er davon hält: http://googlewebmastercentral-de.blogspot.com/2008/09/die-duplicate-content-penalty.html
ganz so einfach ist es doch nich (bei mir) Ich habe in den Webmastertools genügend Hinweise auf doppelte Title-Tags, im folgenden Fall sogar 21 mal, das ist doch nicht normal oder was? Ich bin zwar trotzdem auf Platz 1 bei Tante Google mit diesem Suchbegriff, aber man weis ja nie.