Hallo, hat man mehrere Artikel in einer Kategorie, so werden je nach Einstellung und Artikelbestand mehrere anklickbare Seiten angezeigt, 1 2 3 usw. Ab Seite 2 werden die Erweiterungen /?page=2 .. n an die URL angehängt. Beim Test der Seiten via SEOBILITY ist bei der ersten Seite die "Crawlbarkeit" problemlos. Ab der zweiten Seite (> /?page=1), also ab /?page=2 ist die "Crawlbarkeit" nicht mehr gegeben. Es kommt die Meldung: "Die Seite ist von der Indizierung ausgeschlossen." Mir ist nicht klar, warum die Seite 1 crawlbar ist, und die Folgeseiten nicht mehr. Ich verstehe den Sinn nicht, warum das beim Gambio-Shop vonseiten Gambio wohl so sein soll. Gibt es hierfür eine logische Erklärung? Gruß
Ich gehe hier nicht auf die Gründe ein, warum es so ist... aber so könnte es gelöst werden: a. Ändere die Anzahl Artikel je Seite. Das ist - zumindest in der Version 4.4.0.2 - unter Einstellungen: Artikelanzahl in Kategorie / auf Suchergebnisseite. Bei mir sind es beispielsweise: 36. Ich habe die Kacheleinstellung und 4 Artikel nebeneindaner (Desktop). Damit sieht es auch optisch gut aus. Du müsstest also bei Dir die Zahl höher schrauben, als sie jetzt ist. b. Wenn Du selbst hostest, könnte Infinite Scroll von Dominik Späte etwas für Dich sein. Soweit ich mich entsinne, entsteht dadurch das von Dir genannte Problem dann überhaupt nicht, weil sozusagen keine Pagination nicht mehr existiert und die Artikel unten fortlaufend nachgeladen werden, diese also alle auf Seite 1 der Kategorie sind ... (Link nur für registrierte Nutzer sichtbar.) Grüsse
Peter, danke für Deine Antwort. Das Modul von Werbe-Markt ist eine Option. Ich glaube aber, dass ich das auch mit dem Modul Ladezeitoptimierung realisieren könnte, über die Option "Natives Lazy Loading", entsprechend dann die "Artikel pro Seite" hochsetzen. Allerdings möchte ich das nicht machen, da es für den Seitenbesucher bei sehr vielen Artikeln auf nur einer Seite umständlich wird an den Footer zu gelangen. Ich bin der Meinung, dass es ein Gambio-Problem ist, also hausgemacht, dass Gambio hier etwas tun könnte. Vielleicht ist es aber, aus welchen Gründen auch immer, so gewollt, und eben diese Gründe interessieren mich.
Daher auch explizit das Infinite Scroll Modul von Herrn Späte. Damit kannst du einstellen das nicht durch scrollen sondern erst durch einen Button "Mehr laden" weiter geladen wird. Dadurch kommt man immer noch leicht zum Footer und kann auf Bedarf auf der selben Seite weitere Artikel reinladen. Win - Win! ;-)
@DrGuu, danke. Das werde ich mir überlegen. Ich bin dennoch der Meinung, dass das eine Gambio-Angelegenheit sein könnte, warum auch immer. Wenn Gambio sagt, das geht nicht anders, oder, es muss so sein, dann werde ich das Modul ins Auge fassen.
ja das stimmt. Wenn ich selber mal im Netz auf so einer Webseite lande, wo die Artikel ständig nachgeladen werden auf der Seite und du nie unten ankommst, nervt mich das. da bin ich ganz schnell weg
... einer der Gründe, warum es für mich nicht infrage kommt. Aber bei einer überschaubaren Anzahl Artikel sollte es so schlimm nicht sein. Es kommt halt darauf an.
Ich bin mir zwar nicht sicher, aber ich glaube mal gelesen zu haben, dass Google das abwerten könnte. Das liegt daran, dass die Seiten zu gleich sind, die gleichen Überschriften und Texte haben. Das da andere Artikel erscheinen ist da nicht so relevant.
Das wäre nicht die Erklärung, das ist die Erklärung... Wenn du bei Google eine Sitemap eingereicht hast, hat Google alle Informationen, welche sie benötigt um die Produkte zu indexieren. Tools wie SEOBILITY bewerten den Punkt immer schlecht. Generell würde ich die gekachelte Ansicht wählen und deutlich mehr wie 20 Artikel anzeigen...
Moin, du hast in deiner robots.txt folgenden Eintrag: Disallow: /*page=SN_ dadurch wird nur die erste Seite einer Kategorie indexiert und die nachfolgenden Seiten nicht mehr. Beispiel. diese Seite sollte indexiert https://www.uhren-und-schmuck-kunst.de/goldschmuck/goldketten/ Dies sollte nicht indexiert sein https://www.uhren-und-schmuck-kunst.de/goldschmuck/goldketten/?page=2
@FRAGO, @mmatecki, danke für Eure Antworten. Ich denke mir, da die robots.txt vom Shop generiert wird, hat sich Gambio bei diesem Eintrag (/*page=SN_*) in die robots.txt wohl etwas gedacht. Man könnte natürlich diesen Eintrag auskommentieren, habe aber immer noch die Antwort von Barbara im Hinterkopf. Das Auskommentieren ist kein Problem, möchte mir aber damit auch kein anders Problem ins Haus holen. Letztlich bleibt die Frage, kann man diesen robots-Eintrag entfernen, ohne nachteilige Konsequenzen, oder die Datei in diesem Fall so belassen? Danke und Gruß
Manche Einträge in der robots.txt sind sinnlos.. Habe da einige Einträge in der robots.txt gelöscht weil in älteren Gambio-Versionen einfach Seiten Indexiert wurden die nicht indexiert werden sollten. Bisher keine Probleme damit.