Ich habe da mal wieder ne Frage und hoffe es kann jemand weiterhelfen. In der Google Search-Console werden über 890 links blockiert bei einer Indexierung von ca.3000 Seiten. Nach genauer Analyse (so wie Schwein schaut ins Uhrwerk ;-) ) wird diese Einstellung : Disallow: /gm_javascript.js.php im Robotstext verantwortlich gemacht. Wozu ist die ?
Das Seiten blockiert werden ist normal und so gewollt. Nicht alle Snippets und dynamischen Teile des Shops sollten in den Index kommen. Daher werden bestimmte URLs nach Mustern blockiert und bestimmte URLs auch gezielt. Das soll alles so sein.
Lieber Dennis, danke für die Antwort, es handelt sich aber auch um Artikelseiten, deshalb will ich verstehen können was dieser Ausschluss bedeutet. Also ich hab schon verstanden und erlesen das bestimmte Seiten nicht indexiert werden sollten. Im Anhang mal ein Beispiel. Was ich auch nicht verstehe, warum es mal nicht und dann wieder doch auftaucht.
Das ist eine dynamische URL, die hat keinen 100% festen Inhalt wenn da so Parameter stehen. Daher lässt man sowas nicht in den Index, sondern nur die echte Artikelseite und die hört bei abc.html auf - alles was nach dem .html kommt will man nach möglichkeit NICHT im Index haben, da das dynamische Inhalte sind. Das Fragezeichen hinter dem .php sagt - Ab hier kommen Parameter die den Inhalt variabel bestimmen.
Jap sowieso. Da macht der Shop schon alles so wie es sein soll. Er blockiert dir z.b. auch die AGB und WRB Seite damit Abmahner die nicht einfach in Google nach bekannten Fehlern durchsuchen und finden können.