Hallo miteinander, wir haben in der Search Console unzählige uralte Links, teilweise noch vor unserer Zeit mit Gambio. Nun gibt es ja ein Tool zum Entfernen von alten URLs, aber wenn man die Links dann eintragen will, lautet es immer "vorübergehend entfernen". Welche Möglichkeiten gibt es Google zu sagen: "Hör damit auf diesen alten Link zu crawlen und anzuzeigen, dass er mehr nicht existiert. Er wird auch nie wieder existieren!" ? Evtl. über .htaccess? Oder robots.txt (disallow:.....)? Wie macht ihr das?
Trage die alle in die htaccess ein, kann man ja wunderbar aus der Console exportieren. Und trage dann ein Redirect 301 ein zur hauptseite. Nach nem halben Jahr hat Google das geschnackelt und man kann die einträge raus nehmen. Außer Sie sind in Foren oder anderen Seiten verlinkt, dann muste die beibehalten.
Das ist nämlich genau die Sache. Viele der Links sind noch irgendwo öffentlich abgelegt (Forum, Gästebücher usw). Gambio leitet auch standardmäßig auf die Startseite um, jedoch reicht das Google scheinbar nicht. Und immer und immer wieder tauchen diese Links auf und vermutlich beeinflussen Sie auch unser Ranking bzw. die Zuverlässigkeit der backlinks Teilweise sind das /produkt.php aber auch shop/product_info.php?xxxxxx.html Links, die genau noch 1x irgendwo im Internet existieren
Laut mehrer nachzulesenden Ausgagen zum Thema 301 und Ranking soll das ein einfluss haben. Aber so kriegste das zumindest unter kontrolle...
Wenn Du noch weißt um was es bei den Links ging, kannst Du das auch anders machen, in dem Du die Seiten nicht auf die Startseite, sondern z.B. auf die passende Kategorie lenkst. Dann fängst Du die Leute besser ein, die den alten Link irgendwo angeklickt haben.
Hab ich auch so gemacht mit [L,R=301] und dann in die entsprechende Kategorie verlinkt, aber sobald ich die aus der .htaccess nehme meckert Google das wieder an. Da wird nichts gelöscht bei Google selbst nach einem Jahr nicht
Dann sind diese Links in Foren oder Gästebüche oder sonst wo verlinkt. (Backlinks) Die muste dann leider immer drin lassen... Backlinks sind zwar gut, aber dann auch darauf achten das immer nur auf die eigentliche Domain verlinkt wird. Gerade wenn man selbst Backlinks verteilt...bzw. setzt... Es kann immer passieren das ein Artikel irgendwann rausfällt wenn es ihn nicht mehr gibt.
Die sind nicht irgendwo verlinkt. Es sind umbenannte Kategorien und Artikel, die ich mal großgeschrieben hatte und jetzt in Kleinschrift drin sind. Google unterscheidet da anscheinend und so ist Google immer ins Leere gelaufen. Daher hatte ich das in der .htaccess angegeben. Und als eine neue Shopversion die .htaccess neu gemacht hat, habe ich das mal draußen gelassen und schwupp hatte ich über 300 Crawlingfehler
Die letzten Tage habe ich die gesamte Umwandlung von Groß- in Kleinschreibung vorgenommen. Das passt soweit, aber diese alten Links nerven schon gewaltig. Wir hatten mal gaaaaaaanz früher ein Gästebuch im Ordner /cgi-bin. Diesen Ordner gibt es lange nicht mehr und ich kann ihn zwar umleiten, aber Google kommt immer wieder mit den ganzen Parametern an (z.B. cgi-bin/guestbook.php.cgi?gbook=0&action=addentry) Soweit es irgendwie möglich ist und vom Inhalt passt, mache ich das auch genauso Edit: Spannend ist auch, dass sie Search Console mir 352 Einträge zeigt. Exportiert werden aber über 520...
Diese alten URLs kann man bei Google durchaus einmal löschen. Dann einmal prüfen, das die wirklich aus der Sitemap raus sind und das Google nur eine aktuelle sitemab hat. Sollte Google dann nach etwa 6 Monaten wieder anfangen diese alten Dinger aufzurufen, weißt Du das es irgendwo im Netz einen Link geben muss.
Danke barbara. Die Sitemap aktualisieren wir regelmäßig sogar per Hand, wenn größere Kategorie-/Artikeländerungen anstanden (Veröffentlichen und Generieren im Gambio-Backend). Wir haben zudem bei Umstellung von unserem alten GX 2.7 auf jetzt 3.9 die alte Property in der SC entfernt und alles neu eingerichtet. Die meisten dargestellten Links stammen tatsächlich noch von anderen Foren/Communities, mit denen wir früher kooperiert haben. Die Bezeichnungen der Links passen thematisch und ich habe mal stichprobenartig nach einigen Links gesucht.
Ist schon irgendwie alles spuky, habe heute genau EINEN Artikel zum test bei Google neu indexiert und seitdem laufen sich die Bots von Bingbot und Google die digitalen Füßchen wund. Es wird ALLES eingelesen, Zufall?
Ich habe auch das Gefühl, dass das Crawling seit ein paar Monaten extrem schnell ist. Früher musste man Wochen warten, jetzt finden die die kleinsten Fehler innerhalb von Stunden oder Tagen.
Naja, aber ich finde das merkwürdig, wenn ich nur einen Artikel indexiere bei Google, warum dann von Google und auch von BING alles gecrawlt wird.. grübel... wenn ich die Fenster streichen lassen möchte und die das ganze Haus streichen und auch noch die Konkurrenz gleich das Dach mit macht, stimmt doch was nicht, oder?
So funktioniert das nicht, dein Bild ist falsch. Wenn du jemand einlädst durch ein Fenster in dein Haus zu kucken und sonst nichts sagst, dann triffst du eben exakt keine Aussage über die anderen Fenster des Hauses. Ein Crawler hat das Interesse in jedes Fenster jedes Hauses zu kucken, und wenn der eh schon mal da ist, dann kuckt der normal auch. Es sei denn du verbietest ihm das, das wär wieder eine aktive Handlung.
Na bestens, dann hab ich wenigstens jetzt eine Erklärung Danke... Aber damit ist noch nicht geklärt, warum die Konkurrenz das auch gleich als Einladung sieht Hab ich jetzt alle Crawler dieser Erde eingeladen? Und es sieht ganz danach aus, auch wenn wir nur drüber reden wird das als Einladung gezählt. Google fängt schon wieder von vorn an... lautlach...
Ich hab anscheinend Connection, falls einer Interesse hat, einfach eine Nachricht an mich, ich lass dann meine Beziehungen spielen...