neueste E-Mail von google Search-Console

Thema wurde von barbara, 18. Januar 2020 erstellt.

  1. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    33.735
    Danke erhalten:
    10.495
    Danke vergeben:
    1.500
    Hallo zusammen.
    google hat schon wieder irgend etwas geschraubt....
    vor ein paar Tagen gab es schon eine E-Mail, wo google Warnungen (die vielleicht zu Fehlern wachsen könnten) gesendet, jetzt kam die nächste.

    In der ersten Mail ging es um
    Feld "sku" fehlt
    Feld "offers" fehlt
    Feld "image" fehlt

    in dieser URL:
    https://www.nbs-shop.de/Papier-Folien/?page=2

    (eigentlich sollte Google doch den Parameter "page" gar nicht crawlen, oder?)

    jetzt meckert gg über
    Feld "priceValidUntil" fehlt
    Feld "url" fehlt

    bei dem Artikel:
    https://www.nbs-shop.de/Herzen-aus-Stoff.html

    Der Artikel hat keine Varianten, keine Sonderpreise oder ähnliches.

    Interessanter Weise ist das Datum des letzten Crawlings
    für den Artikel der 31.08.19
    für die Kategorie 09.12.19
    also fast gestern :)

    Was ich jetzt nicht verstehe:
    Bei einem Artikel mit Eigenscahften haben die Varianten keine URL, klar. Aber ein Artikel ohne Varianten müsste doch eine haben, oder?
    und was ist "priceValidUntil"?

    Kann ich das ganze ignorieren, weil das Crawling-Datum ja doch schon etwas zurück liegt?

    in dem Testing - Tool steht davon nix, da sind nur die üblichen Warnungen von brand, aggregateRating und so.
     
  2. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    15. Juni 2018
    Beiträge:
    106
    Danke erhalten:
    1
    Danke vergeben:
    32
    #2 Anonymous, 18. Januar 2020
    Zuletzt bearbeitet: 18. Januar 2020
    Hallo,

    "(eigentlich sollte Google doch den Parameter "page" gar nicht crawlen, oder?)"


    ...sollte es nicht crawlen, aber robots.txt blockiert es überhaupt nicht?!!! ... und ich verstehe nicht warum? :(

    Vielleicht statt:
    Disallow: /*page=SN_*
    soll es:
    Disallow: /*page=* ...sein???!!!!

    In jede Seite mit dem Parameter "page" befindet sich in der Quelle der Seite
    <meta name="robots" content="noindex,follow" />
    ...wird aber dennoch von Google indiziert.

    Aber vielleicht jemand von Gambio kann uns es aufklaeren...?

    lg
    slavek