Erfolgreich abgehakt. Zumindest zum Teil . Ich bekomme die Warnung, dass meine Robots-Datei die URL für Impressum und Versandkosten blockiert.
Rechtstexte würde ich auch immer sperren. Das erspart dir Leute im Shop, die per Google nach wackligen Formulierungen in den Rechtstexten suchen. Der Knopf um einen disallow zu setzen ist im Eintrag im Contentmanager. Bei den Versandkosten würde ich überlegen die zu erlauben. Nach Änderungen immer die robots Datei neu erzeugen.
Ich hatte extra aus den Gründen AGB, WRB, Datenschutz aus der Robot genommen, aber Impressum bewußt drin gelassen. und das soll nun angeblich von der robot blockiert werden.
Ich habe jetzt die neue Sitemap schon seit dem 15.09.2017 bei Google Search Console eingereicht und immer ist die Indexierung noch nicht gestiegen. Wer kennt sich damit aus und wo liegt das Problem? Von 3504 sind nur 1463 indexiert.
Zuviele gleiche Inhalte, Blockaden durch Fehler in der robots.txt, vermurkste HTML Syntax, es gibt 3000 mögliche Gründe.
Ich wollte sagen das sieht keiner, der deine Google Konsole nicht durchwühlt und deine Seite passend dazu zerlegt. Mit dem Bild kann man nur sagen: Ja, ist so. Viele Ursachen sind möglich.
Schau mal in der Google Search Konsole unter Google Index >> Blockierte Ressourcen ob da Einträge hast, bei mir sind es aktuell 228 Einträge überwiegend Artikel die in 3ter oder 4ter Kategorieebene liegen.
Seit den neuen Sitemaps sind meine indexierten Seiten auch weniger als vorher. Denke aber liegt nur an der Aufteilung / Art wie die Seiten nun in der Sitemap stehen oder verteilt wurden. Mal 1-2 Wochen beobachten.
Bei mir sind 2507 blockiert... liegt es vielleicht daran das die Indexierung so gefallen ist? Die Blockierung ist nach dem Update auf 3.6 gestiegen um ca. 1000 Stück. Hat es vielleicht damit etwas zu tun?
oder stimmt etwas mit der Robots.Txt nicht? Ich habe diese letzte Woche neu hochgeladen und jetzt sind eine Menge an Seiten gesperrt..... 12949
Nur zu sagen "da sind Seiten gesperrt", nützt nichts. Da muss man auch nachsehen was das für Seiten sind.
Ja, vermutlich. Angenommen Du hast ein Bild im Footer eingefügt, das im Ordner "admin" liegt. Der Ordner "admin" ist für die robots aus Sicherheitsgründen gesperrt (wie einige andere Ordner auch). Google sagt jetzt: "Ich kann die Seite nicht komplett laden, weil da ein Teil gesperrt ist, also sperre ich die ganze Seite." Das kann man aber nur herausfinden, wenn man weiß welche Seite warum gesperrt wird. Um die Seiten zu sehen, und die blockierenden Ressourcen, klicke bei Google links auf "Google-Index" und dann darunter auf "Blockierende Ressourcen". Dann siehst Du erstmal eine Zeile mit Deiner Domain, der Anzahl der Seiten und einem ">>" -Icon Ein Klick auf das ">>" zeigt Dir, was da genau wie viele Seiten blockiert. Klickst Du dann wieder auf das Zeichen, hast Du die Liste mit den betroffenen URLs
Es sind meine meisten URL gesperrt. Ich werde einmal die Robots.Txt wieder austauschen gegen das alte Modell. Wahrscheinlich liegt dort der Fehler.
Ja und nein! bei mir sind nur 11 Seiten!! von der robots.txt ausgeschlossen und trotzdem wurden 228 nicht indexiert! hat also nicht unbedingt etwas damit zutun. Der erste Eintrag ist "admin/html/assets/images/legacy/icons/green.png" 217 Seiten wegen d es kleinen grünen punkt??
Blockiert wird durch robots.txt der Admin Ordner Aber warum wird dieser grüne Pnkt bzw. auch der orange Punkt für den Lieferstatus dort abgelegt wenn google das mit abfragt?
Das stammt noch aus uralten Zeiten und wurde nie geändert. Ich habe leider auch noch nicht gefunden, wo der Pfad zu den Images steht.