Suchergebnis-Seiten für Google index (wieder )freigeben (ohne noindex,follow)

Thema wurde von LED-Fashion, 18. November 2019 erstellt.

  1. LED-Fashion

    LED-Fashion Erfahrener Benutzer

    Registriert seit:
    15. Februar 2017
    Beiträge:
    78
    Danke erhalten:
    11
    Danke vergeben:
    17
    Seit dem Update von 3.06 zu 3.12 (von 3.06) werden die Suchergebnisseiten für Google durch den noindex Tag ausgeschossen. (<meta name="robots" content="noindex,follow" />)

    Dies war vorher nicht so - wir würden gerne diese Seiten wieder für Google freigeben. Derzeit werden daduch 2000 Seiten von google nicht indexiert. Durch die Einstellungen bei den statischen Seiten kann das leider nicht beeinflussten.

    Was muss ich anpassen, damit bei den Suchergenis-Seiten wieder <meta name="robots" content="index,follow" /> steht?
     
  2. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Das funktioniert so nicht. Niemand weiss über welche Seiten du redest, du hast nämlich keine Beispiel URLs angegeben.

    Dazu gilt:
    Wir blockieren einige Seiten sehr absichtlich für die Indizierung. Es ist definitiv absolut kontraproduktiv alle Sperren zu entfernen. Es geht nicht immer um Masse, sondern auch um Klasse. Es geht um Fokus, Crawlingbudget und Deduplikation.

    Es macht zum Beispiel absolut keinen Sinn, wenn der Crawler in Kategorien jede mögliche Filterauswahl indiziert.Er wird dann die gleichen Inhalte immer und immer wieder sehen, und alle Seiten werden sich gegenseitig um die Keywords und Inhalte kannibalisieren.

    Wenn du ein Beispiel für eine URL angibst würde ich dir aus Gambio Sicht erklären ob die spezifische URL gesperrt sein sollte oder nicht, und das kurz belegen.
     
  3. LED-Fashion

    LED-Fashion Erfahrener Benutzer

    Registriert seit:
    15. Februar 2017
    Beiträge:
    78
    Danke erhalten:
    11
    Danke vergeben:
    17
  4. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Suchergebnisseiten haben normal nichts im Index verloren. Man stelle sich vor der Crawler rennt jeder denkbaren Sucheingabe nach, das ergäbe Fantastlliarden an Kombinationen. Eine vollständige Entsperrung würde ich deswegen niemals erwägen.

    Angenommen man würde sagen: Bestimmte Suchergebnisseiten sollten entsperrt werden, dann gibts erstmal ein Aussteuerungsproblem. Wie will man gute von schlechten unterscheiden? Wie soll der Shop wissen welche gut und welche böse sind. Über 99,99% der Seiten werden auch bei deiner Konstellation böse Seiten sein.

    Nächstes Problem: Die guten Seiten enthalten keine SEO-Aufbereitung, keine wirksamen SEO-Merkmale. Die müsste man für ein anständiges Ergebnis auch noch aufbereiten. Da mangelts dann an allem.

    Ich würde sagen das ist eine harte Sackgasse, oder nur mit viel Überlegung und Einsatz von Stunden zu lösen, keinesfalls mit einer einzigen schnellen Überlegung.
     
  5. LED-Fashion

    LED-Fashion Erfahrener Benutzer

    Registriert seit:
    15. Februar 2017
    Beiträge:
    78
    Danke erhalten:
    11
    Danke vergeben:
    17
    #5 LED-Fashion, 18. November 2019
    Zuletzt bearbeitet: 18. November 2019
    Amazon arbeitet sehr erfolgreich und viel mit Suchergebnisseiten - das funktioniert auch sehr gut bei denen, da relevante Suchergnisseiten zur Suchanfrage generiert werden, das mag Google.

    Welche Seiten nun in den Google Index kommen kann man über externe und interne links gut steuern (so hab wir es gemacht). Ohne Links werden diese Suchergenisseiten sonst auch gar nicht von google gecrawlt.

    Bei gekachelten Ergebnisseiten sind die Auswirkungen nicht besonders Effektiv, da wir aber Kurzbeschreibungen nutzen, die mit anderen Keyword bestückt sind hat es bei uns auch gut funktioniert.

    Bei 3.06 wurde index,follow ja noch angezeigt. Sicher ist es nicht für alle eine guter Weg, bei uns hat es jedoch guten Traffic gebracht.

    Kannst du uns einen Tip geben in welchen Bereich wir das anpassen könnten ? SeoTagsHeaderExtender.inc?
     
  6. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    So funktioniert der Shop aber nicht, wir haben auch keine Ambitionen den dahin zu bewegen. Das ist so denn:
    Da sind auch viele Stolperstricke drin, die uns den Aufwand nicht wert scheinen lassen.

    Was unterscheidet zum Beispiel eine Suchergebnisseite von einer guten Kategorieseite? In jedem Fall will man nicht sein ganzes Crawlingbudget da verballern, also muss man moderieren. Dann will man da bestimmte Produkte gesammelt anzeigen, das macht eine Kategorie. Die Kategorie hat Felder nötige Daten sinnvoll zu hinterlegen, und die hat vor allem auch den Vorteil der Endlichkeit für Crawler. In jedem Fall braucht es Aufwand um gute Inhalte für Crawler bereitzustellen, bewusste Pflege, sonst ist das tot. Wenn man es aber ohnehin aussteuern muss, wo ist dann noch der Unterschied zu einer Kategorie?

    Das letzte sicherzustellen wird da schnell zum Problem. Wir sehen den Crawler öfter mal in Pfade rennen, wo den kein Mensch haben will, weil der offensichtlich aus vorhandenem Wissen über eine Seite weitere vielleicht existente Pfade rät. Danach haben die Seitenbetreiber jede Menge Seiten im Index, die sich kannibalisieren, und andere wirklich erwünschte nicht. Das wollen wir im Interesse der wirklich allermeisten blocken, und sinnvoll routen.

    Ich würde aus oben genannten Gründen deutlich vorschlagen die Taktik zu ändern.

    Wenn es denn unbedingt sein soll, dann ja, da.