Google Search Console GSC

Thema wurde von atxx_user, 4. Februar 2022 erstellt.

  1. atxx_user

    atxx_user Mitglied

    Registriert seit:
    17. November 2020
    Beiträge:
    13
    Danke erhalten:
    0
    Danke vergeben:
    3
    Hallo liebe Gambio Gemeinde.

    bin die Wochen fleißig am lernen gewesen bezüglich SEO Optimierung. Jetzt hab ich einige Links mit der Zeit immer wieder umgeändert und neue URL's eingesetzt, entsprechend werden die Seiten als Fehlermeldung bei mir angezeigt, bzw.:
    Gesendete URL nicht gefunden (404)

    Also hab ich mir die GSC downloadet, um diese Fehler auszubessern. Jetzt bin ich verwirrt auf welche Art und Weise ich diese korrigiere...

    - Zum einen gibt es die Möglichkeit über die Sitemap, was aber nur benötigt wird, wenn man größere Mengen an Daten hat, so wie ich es verstanden hab. ( Zahl der Fehler: 30)

    - Alternativ gibt es ja die Möglichkeit diese zu Löschen. Hilft das ? bzw werden die neuen URL's dann mit der Zeit automatisch neu aufgenommen?? Oder muss ich diese nach dem Löschen dann mit der neuen URL irgendwo eintragen und registrieren?


    - Und zum Schluss der Bereich Abdeckung selbst, wenn ich dort auf die Fehler klicke, dann popt rechts ein Fenster auf, wo ich die 2 Punkte:
    - URL Prüfen und Blockierung durch Robot.TXT Prüfen habe?

    und zum Schluss ganz oben rechts ein blau umrandeten Buttom mit wo 'Teilen' draufsteht.

    Kann mir jemand sagen welche Variante für mich die richtige wäre ? Und was die einzelnen Schritte wären? Also wichtig wäre zu wissen ob ich die neuen URLs mit den alten irgendwo austauschen kann oder die alten eben Löschen und ob die neuen, dann dadurch automatisch mit dem crawlen entsprechend registriert werden.

    Wenn mir jemand dabei helfen könnte wäre ich sehr dankbar und entschuldigt Rechtschreibfehler, bei 24/7 Arbeitsstunden sehe ich alles doppelt....
    Und wenn jemand sogar nett genug wäre für ein kurzes Telefonat, würde ich Ihn dafür entsprechend entschädigen, ich glaube das kann man per Telefon innerhalb von 10 min klären....
     
  2. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    20. Januar 2021
    Beiträge:
    403
    Danke erhalten:
    138
    Danke vergeben:
    54
    Ich weiss nicht, ob ich Dir gut genug folgen kann, aber....

    1. Befülle unter Inhalte > eigene Fehlerseiten das Textfeld mit etwas passendem Inhalt und füge ein Redirect auf die Startseite ein, unter HTML: <meta http-equiv="refresh" content="1; URL=(Link nur für registrierte Nutzer sichtbar.)"> ==> 1 = 1 Sekunde und dann Weiterleitung; meineseite.de = Deine Seite.
    Damit stellst Du für Besucher sicher, dass sie in einem solchen Fall automatisch umgeleitet werden.
    2. Der Googlebot kommt regelmässig vorbei und liest Deine Seite aus. Im Prinzip muss man nichts speziell & gesondert machen.
    3. Wenn die Search Console Fehler meldet, warte ein paar Tage, logge Dich ein und lasse nochmal prüfen. Bei mir haben sich so alle Fehler in Luft aufgelöst (Google ist auch nicht perfekt, macht also Fehler).

    Wie gesagt, ich hoffe, dass ich Deinen Beitrag halbwegs korrekt verstanden habe und, dass Dir die drei Punkte weiterhelfen.
     
  3. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.122
    Danke vergeben:
    947
    Das ist der Weg von dem John Muller von Google abrät:
    (Link nur für registrierte Nutzer sichtbar.)

    Ich glaube für Meta Refresh gibt es auch keine Permanent Anweisung.
     
  4. Orange Raven

    Orange Raven Erfahrener Benutzer

    Registriert seit:
    3. April 2013
    Beiträge:
    359
    Danke erhalten:
    139
    Danke vergeben:
    50
    Das passiert, wenn man einfach wild die URL ändert und keine Weiterleitungen anlegt. Ab Version 4.4. ganz easy über den Weiterleitungsmanager zu machen. Davor via .htaccess

    URLs einer Seite einfach zu ändern, ist der sicherste Weg, das Ranking dieser Seite abzuschießen. Wenn die Seite noch nicht gerankt hat, ist es kein Drama.

    Ich hoffe sehr, dass du die GSC nicht runtergeladen hast, sondern einfach nur meinst, dass du dir die Property eingerichtet hast. Falls du doch was runtergeladen hast, frage ich mich, was es war. ;)

    Über die Sitemap selbst korrigierst du gar nichts. Die Sitemap ist nur eine Hilfe für Google deine Seite zu crawlen und alle Links zu haben. Sie sollte immer aktuell sein, weil Google sich daraus einiges nehmen kann, aber direkt zu einer korrektur taugt sie nicht.

    Der Crawler von Google schaut regelmäßig vorbei. Über die Sitemap gehts schneller. Bei einzelnen, neuen Seiten, kann man auch die Indexierung manuell beantragen (via GSC). Ob Google dem folgt ist aber allein die Entscheidung von Google. In der Regel muss man einfach warten.

    Einige URLs sind erwünscht via robots.txt blockiert zu werden. Der Gambio Standard ist da in 99,99 % der Fälle in Ordnung und muss so.

    Welche Button wo?

    Siehe oben. 301 Weiterleitungen.

    Ich glaube hier sind noch so einige Missverständnisse zu dem Thema vorhanden. Das sind vermutlich eher 60-90 min, zumindest aus meiner Erfahrung. Da ich bei dem Thema käuflich bin :D können wir da einen Termin in ca. 2 Wochen machen. Da hätte ich was frei.

    Ansonsten empfehle ich als absolute Grundlagen- und Urschleimliteratur das SEO Praxisbuch von Thorsten Schneider (Partnerlink zu Amazon)
     
  5. atxx_user

    atxx_user Mitglied

    Registriert seit:
    17. November 2020
    Beiträge:
    13
    Danke erhalten:
    0
    Danke vergeben:
    3
    Danke für die ausführliche Erklärung, ich hatte gehofft ich hätte irgend etwas übersehen.... um geänderte URLs entsprechend aus zu bessern.

    Die Weiterleitung via .htaccess ist schon mal eine große Hilfe.
    Ich hab die URLs wo geändert wurden jetzt erstmal im GSC entfernt bzw. eine Löschung beantragt und so wie ich es jetzt verstanden hab, werden die überschriebenen URLs die ich neu eingefügt habe, entsprechend automatisch mit der Zeit gescrawlt. Zumindest hab ich es jetzt so verstanden. Korrigiert mich, wenn ich ein Denkfehler hab.
     
  6. semmelweis

    semmelweis Erfahrener Benutzer

    Registriert seit:
    17. Juli 2020
    Beiträge:
    187
    Danke erhalten:
    13
    Danke vergeben:
    51
    #6 semmelweis, 29. März 2023
    Zuletzt bearbeitet: 29. März 2023
    @Admin ich hoffe es passt hier zu diesem Beitrag. Sonst bitte verschieben.

    Hallo zusammen,

    wir den Eindruck das unsere Besucherzahlen und auch Verkäufe bei einer Domain extrem stagnieren. Die Seite ist schon 2-3 Jahre online. Früher hatte wir auch jede Menge Besuche und viel mehr Verkäufe.

    gsc.PNG

    Shopversion 4.8.0.0

    Wenn wir uns bei der Google Search Console anmelden und dann auf URL-Prüfung klicken und die Domain eingeben erscheint immer: URL ist nicht auf Google

    Wenn wir dann auf INDEXIERUNG BEANTRAGEN klicken wird getestet ob die Live URL indexiert werden kann erscheint:
    URL wurde einer bevorzugten Crawling-Warteschlange hinzugefügt. Das mehrmalige Versenden einer Seite ändert weder ihre Reihung noch ihre Priorität. Weitere Informationen.

    Unsere Sitemap funktioniert und wird mittels Cronjob alle minuten aktualisiert

    Wenn wir einen LIVE URL test starten erscheint:

    gsc1.PNG

    Könnte es eventuell auch robots.txt oder so liegen?
     
  7. Orange Raven

    Orange Raven Erfahrener Benutzer

    Registriert seit:
    3. April 2013
    Beiträge:
    359
    Danke erhalten:
    139
    Danke vergeben:
    50
    Eure robots.txt ist in Ordnung und sieht aus, wie sie im Gambio Standard aussehen soll.

    Wenn man bei Google via site:tappzeit.de die Ergebnisse eurer Seite anzeigen lässt, sind auch Seiten indexiert. Jedoch irrittiert mich ein wenig, dass eure Startseite da nicht direkt auftaucht. Wie sind denn die statischen Seiten unter Einstellungen eingestellt?

    Sind die Live URL tests direkt von der Domain-Startseite?
     
  8. semmelweis

    semmelweis Erfahrener Benutzer

    Registriert seit:
    17. Juli 2020
    Beiträge:
    187
    Danke erhalten:
    13
    Danke vergeben:
    51
    Nachdem ich bei Gambio die Sprachcode in URLs integrieren rausgenommen habe ist nun auch die richtige Seite indexiert.