Geplante SEO Anpassungen in GX3.11 und Diskussion

Thema wurde von Wilken (Gambio), 8. August 2018 erstellt.

  1. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Liebe Shopbetreiber,

    in letzter Zeit sind mal wieder einige SEO Themen durchs Forum gegangen. SEO ist auch bei uns hausintern immer ein Thema, wir optimieren da ständig im Kleinen und im Grossen den Shop. Wir lesen dazu viel, wir sprechen mit Experten, wir sehen uns an was bei uns selbst funktioniert und bekommen dankenswerterweise auch Daten von Shopbetreibern, die uns in ihre Analytics, etc. Ergebnisse Einblick gewähren. Was wir nur eher nicht machen, ist darüber zu reden wenn wir SEO-Tuning machen. Das liegt im wesentlichen daran, dass es zu allen SEO-Fragen oft religiöse Auseinandersetzungen gibt, das ist oft ein heisses Eisen. Ich probiere jetzt einfach mal euch ein bisschen was zu unseren aktuellen Baustellen zu sagen, mal sehen wie das dann läuft. Wenn wir zusammen eine sachliche Auseinandersetzung hinbekommen, dann können wir das öfter mal machen.

    Nach unseren Analysen sind wir aktuell echt zufrieden mit den Ranking-Ergebnissen der Gambio-Shops, die liegen oft sehr gut. Wir können uns wenn wir nach möglichen Verbesserungen suchen nicht nur die besten ansehen, sondern müssen uns auch die anschauen bei denen es nicht so klappt, und prüfen ob wir Ursachen ermitteln können.

    Veränderungen für Kategorieseiten

    Was uns bei manchen Shops auffällt, sind auftretende Rankingsprünge. Kategorieseiten und Artikelseiten wandern im Index für manche Shopbetreiber auf und ab. Das scheint lange nicht für alle zu gelten, aber für manche dafür aber ausgeprägt. Wir vermuten den Grund darin, wie wir Artikel- und Kategorie-Seiten für Crawler aufsetzen. Beide enthalten starke Signale auf die Inhalte, darum scheinen die verschiedenen Seiten dann zu stark um einzelne Keywords an Artikeln zu buhlen, es entsteht dann offensichtlich eine Art "Keywordkannibalismus". Das scheint weder bei sehr starken Seiten ein Thema zu sein, noch bei sehr schwachen, aber dazwischen dann schon mal. Wir haben uns darum entschieden, etwas Fokus von den Kategorieseiten zu nehmen, um die Artikelseiten stärker ranken zu lassen.

    Wie soll das funktionieren?

    Kategorien sind üblicherweise sequenzierte Seiten, das meint da gibts pro Kategorie oft mehrere Seiten von 1 bis x. Wir zeigen die Zusammengehörigkeit der Seiten einer jeder Kategorie für Crawler schon lange über "rel prev" und "rel next" Metatags an, das wird auch so bleiben. Wir entfernen aber ab GX3.11 in allen mehr-als-einseitigen Kategorien die "Canonical" Metatags in den Seiten. Bisher schieben wir auf jeder Unterseite ein Canonical-Tag ein, bei dem die Unterseite je auf sich selbst zeigt. In starken Shops schafft man es so für ein Keyword oft mehrere Treffer in den Suchergebnissen zu platzieren. Einmal taucht die Kategorie eines Artikels auf, einmal der Artikel selbst. Mit der neuen Logik ist das Ziel ein anderes: Präferiert soll nur noch die Artikelseite auftauchen, dafür aber weit oben, mit ihrer vollen Power. Durch das explizite pushen der Artikelseite wollen wir für weniger springende Rankings sorgen, und die Treffer konstanter halten. Für die Kategorieseiten und darin verwendete Keywords bedeutet das dabei keinen Abbruch, deren jeweilige erste Seite wird stark bleiben, und auch weiterhin ranken. Die Optimierung wirkt also auf die Auffindbarkeit von Artikeln, aber nicht auf die von Kategorien ansich.

    Veränderungen für blockierte Seiten

    Bisher blockieren wir Seiten, die nicht per Google durchsuchbar sein sollen oder nicht indiziert werden sollen per robots.txt. Das ist seit vielen Jahren so, und funktioniert auch noch. Viele Shopbetreiber werten blockierte Seiten in der Search Console zwar immer als Fehler, das ist aber nicht pauschal richtig. Es ist vielfach so, dass das so gehört. Was man aber als Nachteil werten kann, ist dass diese Seiten Crawling Budget verbrauchen, das dann für andere im Index gewollte Seiten nicht mehr zur Verfügung steht. Es haben also alle davon, wenn wir die Crawler noch expliziter von dort verbannen, wo die niemand haben will. Um das zu erreichen, sind mehrere Änderungen auf dem Weg.

    Veränderungen für die im Shop vorhandenen "robots (disallow)" Schalter

    Der Schalter, zum Beispiel bei Content-Seiten, wird seiner alten Funktion treu bleiben und auch weiterhin einen robots Eintrag setzen. Zusätzlich wird in Zukunft bei aktivierter Option auch ein "noindex" Metatag gesetzt. Gutartige Crawler wie Google lesen dieses Tag, und indizieren den Seiteninhalt dann nicht. Ohne eine Option verstellen zu müssen, wird ab GX3.11 also dieses Metatag in den aktivierten Seiten zusätzlich gesetzt, das räumt auf. Der Name des Buttons müsste sich damit eigentlich noch etwas ändern um das neue Verhalten zu reflektieren, mal sehen wie wir das aufbereiten.

    Noindex Metatag in Filterergebnissen

    Der Shop bringt mehrere Formen von Filtern mit. Zum einen gibt es die Artikelfilter, dann aber auch den Hersteller Filter sowie den Ansichts Filter (Kachel/Listenansicht, Elemente pro Seite, Sortierung). All diesen Filtern ist generell gemein, dass diese durch Einschränkungen zusätzliche Wege zu Artikeln bilden, die es ohne Anwendung eines Filters auch gegeben hätte. Wenn ein Crawler durch diese Seiten eiert, bekommt er also normal keine Informationen, die es ohne Filter nicht gegeben hätte. Wir tun also gut daran, den Crawler dazu zu bringen, Filtern keinesfalls zu folgen, und bekommen im Gegenzug Crawling Budget für andere Seiten. Die benannten Filterergebnis Seiten sind durch Robots Einträge alle auch schon seit Jahr und Tag gesperrt, aber auch hier werden wir in Zukunft automatisch "noindex" Metatags automatisch einsetzen. Zusätzlich werden hier auch noch teilweise "nofollow" Metatags ausgespielt, damit der Crawler auch weiteren internen Links der Seite nicht folgt. Wir wollen den Crawler so davon abhalten, sich Folgeseiten einer Sequenz zu widmen und seine begrenzte Zeit dort zu verballern.

    Netter Nebeneffekt der beiden Aktionen:

    Es ist immernoch nicht gut mit einer veralteten Robots Datei zu fahren, eine unterlassene Aktualisierung wirkt sich aber tendenziell weniger schlecht aus, da ein guter Teiljob so immer noch sicher passiert.

    Filter für bekannte GET-Parameter in SEO-Metatags

    GET-Parameter sind vereinfacht die Anhängsel einer Seiten URL nach dem Fragezeichen, voneinander getrennt durch das Zeichen Kaufmanns-Und Ein Beispiel zur Erklärung:

    https://www.shop.de/kategorie1/kategorie2/?filter=gruen&preis_ab=100&elemente_pro_seite=50

    Die gezeigte URL hat nach dem Protokollanteil (https://) und dem Domain/Host-Anteil (www.shop.de) und dem Pfad (kategorie1/kategorie2/) die 3 GET-Parameter filter, preis_ab und elemente_pro_seite. Über diese GET-Parameter rede ich nun.

    Mit GET-Parametern lassen sich Funktionen auf Seiten steuern, man kann auf die Ausgabe Einfluss nehmen, damit sind die prinzipiell eine sinnvolle Sache. Allerdings gibt es Stolperstricke.

    Entfernung von GET-Parametern

    Der Shop selbst verwendet eine Reihe von Parametern, die für verschiedene Seiten Anwendung finden. Von aktiven Filtern zu Ansichtsoptionen, von Sprachauswahlen für Seiten als auch Ansteuerung von anderen Unterfunktionen einer Seite. Auch Crawler lesen diese Parameter, und versuchen sich teilweise human zu verhalten und eine Seite "normal zu benutzen". Das bedeutet die Crawler versuchen eine Seite zu interpretieren, finden Parameter, und hängen die einfach mal URLs an. Das passiert nicht immer perfekt logisch, und es passiert auch nicht immer, manchmal aber ja. Man muss nun versuchen das so gut es geht zu verhindern, das kann wenns losgeht dann nur ins Auge gehen. Wir bauen einige Elemente und Routinen des Shops um, um nicht benötigte Parameter zu entfernen. Das betrifft zum Beispiel die Parameter für Währung (currency=...) und Wohnland (country=....). Der Nutzer kann genau wie vorher wählen, die Übertragung funktioniert aber auf anderem Weg (per POST-Request), das bedeutet die werden in der URL nicht mehr sichtbar. Wir können so stärker ausschließen, dass ein Amoklaufender Crawler die Dinger greift und falsch benutzt.

    Semantik-Filter in Metatags für bekannte GET-Parameter

    Der Shop verwendet die angewandten GET-Parameter auch, um Metatags in den Seiten zu bilden. Dabei gilt schon lange: Was nicht verboten ist, ist erlaubt. Wir arbeiten also bislang mit einer globalen Blacklist. Wir werden auch weiter beim Prinzip des Blacklistings bleiben, allerdings erweitern wir die Kette um seitenspezifische Elemente. Es macht zum Beispiel keinen Sinn, wenn eine Artikelseite mit angehängtem Seitennummer Parameter aufgerufen wird. Die interne Verlinkung tut das nicht, aber in manchen Shops scheinen Crawler das zu tun. Bislang konnte der Shop den Crawler dann nicht fangen, und hat den Parameter auch in in der Seite erzeugten Tags inkludiert. Ab GX3.11 wird es so sein, dass zum Beispiel der Seitennummer-Parameter (page=) in der schwarzen Liste für Artikelseiten steht, damit dieser herausgefiltert wird. Der Crawler wird gefangen und in die richtige Richtung gestoßen. Ähnliche Beispiele lassen sich auch für andere Seitentypen, wie Kategorieseiten oder Contentseiten abbilden, eine Contentseite wird zum Beispiel nie einen Hersteller Parameter haben. Mit ein klein wenig weiterer Beobachtung werden wir so eine recht gute Schutzfunktion vor (und auch Reparaturfunktion nach…) ungewollten Crawling-Ergebnissen bekommen, die einige Problemshops selbsttätig wieder in die korrekte Bahn lenken können wird.

    Denkbar, aber keine beschlossene Sache, wäre auch dann per 301 Redirect nochmal direkte Navigationsanweisungen auf eine konsistente URL zu fahren. In diversen Fällen würde auch das klappen. Das Für- und Wider diskutieren wir noch.

    Was gibt es noch? Welche möglichen Probleme kennt Gambio aktuell noch?

    Bei GET-Parametern gibt es noch eine garstige Art, den unbekannten Parameter. Ein Beispiel wäre "www.shop.de/artikel.html?Dienstag=Gummiente". Der Parameter Dienstag ist dabei etwas, womit der Shop natürlich nichts anfangen kann, das ist dann Unsinn. Was der Shop aber nicht weiss ist, ob eine im Shop verbaute Erweiterung den vielleicht benutzt. Der Parameter erzeugt also keinen Gewinn, aber mit viel Pech Duplicate Content. Vielleicht ist er aber auch nützlich.

    Wir haben selten Shopbetreiber, bei denen Seiten mit völlig unsinnigen Parametern im Suchindex landen. Ich würde schätzen, das passiert einem aus 5000, wir haben dazu ganz ganz grob 2 Tickets im Jahr. Das ist also sehr selten, aber es passiert. Der Shop bietet keine Funktion, um das automatisch zu regeln. Wir müssten dazu von einem Blacklist auf einen Whitelist Mechanismus umstellen, was durchaus machbar wäre. Wir wissen nur auch, dass einige Module am Markt dann unbrauchbar wären, bis die Entwickler reagieren und sich in ein dann neues Schema einfügen und ihre Module updaten. Dazu wäre der Aufwand recht notabel, also stellt sich die Sinnfrage einer Änderung. Bisher stossen wir die wenigen betroffenen dann in Handarbeit ihre URLs bei Google zu bereinigen und passende Robots Ausschlüsse zu setzen, damit das verschwindet und ersparen allen anderen mit externen Modulen den Fallout einer Änderung. Das ist alles diskutabel, aber nie ohne Preis den irgendwer zahlt.

    Abschliessende Worte

    Wie man sieht nehmen wir das Thema ernst und versuchen und euch damit immer weiter zu verbessern. Nach all dem geschriebenen vergesst nur bitte trotzdem eines nicht:

    Man darf den Einfluss der Shoplösung auf das Ranking nicht überbewerten. Wer glaubt, dass er wegen der Software schlecht rankt, ist normal immer auf dem Holzweg. Das gilt für unsere Lösung genauso wie für die aus anderen Häusern.

    Google geht es immer zuerst und absolut massiv um Content, und der ist in vielen Shops durchaus optimierbar. Wir versuchen quasi die letzten 10-20% herauszuholen und den Content für Google so optimal wie möglich zu präsentieren. Wenn aber kein Content im Shop vorhanden ist oder der Content qualitativ nichts hergibt (nicht unique und tausendfach im Netz verwendet, keine Keywords, keine Eigenleistung,...) kann man nichts gewinnen.

    Es ist ein Buzzsatz der Webindustrie, aber er stimmt: Content is King.

    Und genauso wichtig: Es muss mehr gemessen und weniger "geglaubt" werden.

    Wenn sich 100 Leute sich im Forum beschweren, dass ihr Ranking schlechter geworden ist, heißt das erstmal noch echt wenig. Wenn 100 Shops schlechter geworden sind, haben sich ziemlich sicher auch gleichzeitig 100 andere verbessert. Die hört man aber tendenziell eher selten. Die Leute die sich verschlechtert haben suchen dann ihre Gemeinsamkeiten, und stellen fest dass sie alle Gambio nutzen. Ergo muss das die Ursache sein. Da sich im Gambio Forum aber nur Gambio User befinden, ist das ein gefährlicher Trugschluss...

    Das bedeutet: Es muss einfach viel, viel, viel mehr gemessen und belegt werden. In Tracking und Analyse muss von den Leuten, die was erreichen wollen, viel mehr Energie gesteckt werden, ansonsten fischen wir immer im Trüben. Wir können ohne diese Daten kaum jemandem helfen oder herauskriegen was denn da wohl im Shop los ist, das wäre Alchemie. Da machen ganz viele Leute viel, viel zu wenig.

    Auch pauschale Aussagen wie "In letzter Zeit sind meine Rankings schlechter geworden" helfen nicht. Welcher Zeitraum exakt? Alle Rankings oder nur bestimmte? Um welche Keywords geht es? Mobile oder Desktop? Wirkt sich das auf den Traffic aus? Wirkt sich das auf Conversions aus? Von welchem Niveau fand die Verschlechterung statt (von Seite 5 auf Seite 10 oder von Seite 1 auf Seite 2 ist ein großer Unterschied) usw. Auf diesem Niveau müssen wir diskutieren, um dann sehr kleinteilig an Verbesserungen arbeiten zu können. Es gibt ganz sicher nicht die eine große Verbesserung, die dafür sorgt, dass alle Gambio Shops doppelt so gut ranken. So gross ist der Spielraum nicht.

    Soweit zu den Dingen die mir in jüngster Zeit über den Tisch gewandert sind, und die wir zum Thema zu verteilen haben. Diskutiert gern eure Meinungen zu den Maßnahmen und Aussagen mit uns, wir sind gespannt was da von euch kommt.
     
  2. Claudia Puehringer

    Claudia Puehringer Erfahrener Benutzer

    Registriert seit:
    15. Januar 2012
    Beiträge:
    180
    Danke erhalten:
    4
    Danke vergeben:
    15
    Macht alles Sinn für mich!
    Für Shops mit Mehrfachkategorisierung wäre es sehr notwendig eine „Hauptkategorie“ festlegen zu können, die dann Long url relevant ist.
    Damit man nicht unabsichtlich eine url Ranking für ein Produkt durch Kategorieänderungen rausschießt.

    GlG
     
  3. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    5. April 2017
    Beiträge:
    1.424
    Danke erhalten:
    339
    Danke vergeben:
    163
    @Wilken (Gambio)

    Danke für so viel Text ... ;)
    ... von dem ich nur das wenigste verstehe und im festen Glauben bin: "Ihr macht das schon!".

    Allerdings habe ich in den letzten Wochen irgendwas davon gelesen, dass Google wohl Änderungen an seinen Algorithmen vornimmt die durchaus signifikante Änderungen im Ranking bedeuten können.

    Habt Ihr diese Veränderungen auf dem Schirm und berücksichtigt dieses ?
     
  4. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.352
    Danke erhalten:
    11.198
    Danke vergeben:
    1.601
    Google ändert alle Augenblicke etwas an den Algorithmen.
    Mehr als das es Änderungen geben wird, verrät google aber selten.
     
  5. Christian Mueller

    Christian Mueller Beta-Held

    Registriert seit:
    4. Juli 2011
    Beiträge:
    3.675
    Danke erhalten:
    878
    Danke vergeben:
    288
    Google ändert seine Algorithmen regelmässig, teilt aber maximal mit DASS geändert wurde, aber niemals WAS geändert wurde. Also kann niemand diese Änderungen auf dem Schirm haben. Das Ganze ist immer ein Spielchen mit Versuch und Irrtum. Irgendwann bekommt jemand raus, was funktioniert und was nicht gut ist und erzählt evtl. anderen davon.
     
  6. Orange Raven

    Orange Raven Erfahrener Benutzer

    Registriert seit:
    3. April 2013
    Beiträge:
    359
    Danke erhalten:
    139
    Danke vergeben:
    50
    Sehr interessante Änderungen. Den Fokus auf die Artikelseiten befürworte ich, obwohl ich schon einige Fälle (inkl. meines eigenen ehem. Onlineshops) hatte, wo die Kategorienseiten durchaus wichtiger waren als die einzelnen Produktseiten. In der Mehrheit der Fälle greift sich google sowieso eher einzelne Produkte, als eine Kategorie. So jedenfalls meine Erfahrung.

    Das Problem der GET-Parameter war mir tatsächlich noch nicht untergekommen, ist aber vernünftig und logisch.

    Eine Bitte hätte ich noch, über die ihr vielleicht nachdenken könnt. Viele Shopnutzer tun sich mit 301-Einträgen in die .htaccess schwer. Zum Teil muss man verschiedene Varianten der Befehlskette probieren, bis man eine gefunden hat die funktioniert.

    So hat bei mir prinzipiell nur diese Variante funktioniert (Bsp.)
    RewriteCond %{QUERY_STRING} ^info=p743\_digitaldruck\-\-\-\-hoonigan\-\-blendstreifen\-scheibenkeil\.html$
    RewriteCond %{REQUEST_URI} ^\/$
    RewriteRule .* https://www.rsm-online.net/Tuning-Aufkleber/Digitaldruck-hoonigan-blendstreifen-scheibenkeil.html? [R=301,L]

    Während bei einem Shopnutzer, der mich vor einiger Zeit um Hilfe gebeten hatte nur diese Variante funktionierte:
    ewriteCond %{REQUEST_URI} zubehoer/kat-1/prod-1.html
    RewriteRule ^(.*)$ https://domain.de/zubehoer/kat-b/prod-1.html [L,R=301]

    Wäre es nicht möglich ein ReWrite Modul in den Shop einzubauen, wo man Redirects bequem als Liste einbauen kann.
    Linke Seite der alte Link, rechte Seite der neue Link. Ich nutze etwas vergleichbares bei Wordpressseiten (Simple 301-Redirect). Das würde vielen Shopbetreibern das Leben vermutlich einfacher machen. Auch das Korrigieren von URLs wäre dann für Laien deutlich komfortabler und würde verhindern, dass bestimmte Rankings abstürzen.

    Ja, ich weiß dass es die Möglichkeit des ReWrites direkt innerhalb der Detailseiten gibt, aber die erzeugen durchaus (so mein Erleben) bei einigen eher Verwirrung und sind spätestens mit größeren Umstrukturierungen überfordert.

    Das nur mal von meiner Seite. Ansonsten muss ich an der Stelle Williken in seinen Worten bestätigen: Gambio ist, bei allen kleinen Baustellen (die es bei jeder Software gibt!) derzeit eines der Top Shopsysteme am Markt. Und einige andere Systeme bemühen sich nicht in Ansätzen so sehr um gute Lösungen im SEO-Bereich wie Gambio. Hatte vor einigen Tagen erst wieder einen WooCommerce Shop am Wickel...ins Angebot habe ich direkt einen Link zu Gambio gesetzt. Damit würde der gute Mann viel Geld und Zeit sparen. ;)
     
  7. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    25. Oktober 2017
    Beiträge:
    406
    Danke erhalten:
    136
    Danke vergeben:
    81
    Tutorial-Wunsch:
    Ich würde mir ein Tutorial OnPage-SEO wünschen.

    Mit dem Wichtigsten für Neulinge wie mich:
    - Wie ungefähr sollten die URL-Keywords aussehen?
    - Welche Meta-Daten und wie groß ungefähr?
    - Wie die Dateinamen der Bilder und die Beschreibungen?
    Usw...

    Oder gibt´s hier irgendwo eine Anleitung? Habe keine aktuelle gefunden.
     
  8. Orange Raven

    Orange Raven Erfahrener Benutzer

    Registriert seit:
    3. April 2013
    Beiträge:
    359
    Danke erhalten:
    139
    Danke vergeben:
    50
    #8 Orange Raven, 10. August 2018
    Zuletzt bearbeitet: 10. August 2018
    Da ein Standardtutorial zu schreiben ist eher schwierig. Zum einen gibt es die Infos quer im Netz verstreut und zu anderen ändert sich dann und wann ja auch mal was.

    Kannst aber gerne mal in meinem Blog stöbern: https://www.orange-raven.de/blog/

    Zumindest zur Description habe ich schon was drin stehen. (Wie wichtig ist die Meta Description für SEO: https://www.orange-raven.de/wie-wichtig-ist-die-meta-description-fuer-seo/ )Nehme deine Anfrage aber auf jeden Fall mal mit und schreibe in den nächsten Wochen mal ein paar Artikel speziell zum grundlegenden SEO in Gambio ;)
     
  9. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Februar 2015
    Beiträge:
    1.291
    Danke erhalten:
    398
    Danke vergeben:
    237
    #9 Anonymous, 10. August 2018
    Zuletzt bearbeitet: 10. August 2018
    Wenn es erlaubt ist, dann würde ich gerne mal eine ganz neue Sicht auf das Thema in die Runde werfen (bitte steinigt mich nicht).

    Die Vorschläge die Wilken da gemacht hat klingen für mich schon mal sehr gut. Im Detail ist da sicherlich noch das Eine oder Andere diskussionswürdig, aber grundsätzlich ist erkennbar: Das geht in eine gute Richtung.

    Übersetzung:
    Ich habe keinen blassen Schimmer was das alles ist, soll oder tut. Und -noch schlimmer- ich will das auch gar nicht wissen! Nicht weil ich vielleicht zu doof bin um das Thema SEO zu durchblicken oder weil ich die Notwendigkeit nicht sähe, die für einen Shopbetreiber gegeben ist SEO zu betreiben. Das hat einen anderen Grund.

    Wie ich das nun sehe hat man als Shopbetreiber im Grunde zwei Möglichkeiten. Entweder opfert man das wenige was an Zeit neben Artikelpflege, Wartung und Aktualisierung der Software, kümmern um juristischen Firlefanz, Ärgerei mit Lieferanten, Banken, Kammern und Mitbewerbern, Familie, Produktion und "Leben" noch übrig ist und versucht "nebenher" noch SEO zu studieren (denn es helfen die tollsten Möglichkeiten Daten einzugeben nichts, wenn man nicht weiß was man da eingeben sollte und warum),

    oder man verlässt sich auf den Entwickler der Shopsoftware dass der schon dafür sorgen wird dass auch das SEO grundsätzlich funktioniert wenn die relevanten Daten hierfür an passender Stelle eingegeben werden und sucht sich dann noch jemand der SEO "kann" und bezahlt ihn dafür dass er das macht.

    Ich weiß aus eigener Erfahrung dass der größte Teil derer die einen Onlineshop betreiben ähnliche SEO-Kenntnisse haben wie ich, nämlich rudimentäre. Und wie bei mir selber auch sind sie mit den Ergebnissen unzufrieden, haben - warum auch immer - keine Zeit oder Lust sich näher mit der Materie zu beschäftigen und müssen (ebenso wie ich) mit dem wenigen Leben was Google ihnen für das wenige was sie SEOmässig machen zugesteht.

    Einen Fachmann zu bezahlen ist für die meisten Shopbetreiber nicht drin, 100 Euro Stundenlohn sind in der Branche keine Seltenheit, womit ich nicht unterstellen will dass eine gute Agentur das nicht auch wert ist. Aber kaum jemand wird das bezahlen können oder wollen, noch dazu wo es ja meistens mit einer einmaligen Aktion nicht getan ist, SEO will regelmässig gepflegt werden.

    Mein persönliches Rundum-Sorglospaket besteht aus fortlaufender Erweiterung der SEO-relevanten Fähigkeiten der Shopsoftware und einem (auch für kleine Shopbetreiber!) bezahlbaren Angebot einer oder mehrer Agenturen, die in der Lage sind personalisiertes SEO für den jeweiligen Shop anzubieten und zwar für "kleines" Geld (ja, ich weiß, kleines Geld bringt kleine Leistung), vielleicht über einen Rahmenvertrag mit Gambio und Sonderkonditionen für Leute mit aktiver Supportlizenz.
     
  10. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Soweit gut.

    Das hatten wir ja erfasst, das wird überlegt.

    Kucken wir uns ständig an, aber da gilt das was Christian und Barbara sagen.
    Kategorieseiten werden ja auch nicht abgeschafft oder als solche entwertet, die Verbindung zu den Artikelinhalten wird nur verändert.

    Ja, auf jedem Server funktioniert was anderes, und nirgends das gleiche. Das ist ne Beulenpest für Universalratschläge.

    Prinzipiell ja. Da müsste man aber vorher klugerweise einiges andere am SEO Boost umbauen, damit das schön funktioniert. Ich sehe da auch gewisse Chancen.

    Wir machen selbst keine. So wichtig SEO ist, so wenig können wir neben Shopsoftwarehersteller gleichzeitig eine SEO Agentur sein. Das sind alles Parameter, die sich im Detail immer mal wieder ändern, und wo man ein Stück weit individuell pro Shop anders ran muss. Das würde dauerhaft viel Manpower binden, das sehen wir aktuell nicht als unseren Job. Orang Raven schiesst in dieselbe Richtung, würde ich so zu nicken.

    Ich hab das gelesen. Wenn ich das richtig verstehe, willst du dass wir für das SEO Thema eine gute Grundlage in der software abbilden, das wollen wir auch, soweit gut.

    Dann hättest du gerne ein Special mit einer Agentur, die günstige Lösungen für kleine verkauft. Wir haben immer Probleme Leute an SEO Agenturen zu vermitteln, weil wir dann immer Propheten eines bestimmten Glaubens sein müssen, das wäre unser Ende als "SEO-Schweiz". Die haben ja alle zueinander unterschiedliche Vorstellungen. Und wir müssten laufend überwachen, was die da gerade tun und ob das funktioniert, um zu schauen ob man das alles so aufrecht erhalten kann. Und das ist höchst zeitintensiv und schwierig...
     
  11. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Februar 2015
    Beiträge:
    1.291
    Danke erhalten:
    398
    Danke vergeben:
    237
    Klar. Verstehe ich.
    Aber wenn ihr da schon Probleme habt, wie soll ein kleiner Shopbetreiber das entscheiden können der nicht den Bruchteil Eurer fachlichen Kompetenz hat?
     
  12. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    14. Juli 2011
    Beiträge:
    988
    Danke erhalten:
    69
    Danke vergeben:
    128
    "Die benannten Filterergebnis Seiten sind durch Robots Einträge alle auch schon seit Jahr und Tag gesperrt, aber auch hier werden wir in Zukunft automatisch "noindex" Metatags automatisch einsetzen."

    Davon bin ich nicht komplett überzeugt. Wir hatten extrem viele Probleme bezüglich doppelter Inhalte bis wir die Standard robots.txt um den folgenden Wert erweitert hatten:

    Disallow: /*filter_categories_id*
     
  13. A24

    A24

    Ein "noindex, nofollow" manuell setzen zu können wäre bezüglich der internen Linkstruktur sehr hilfreich.
    Ich will interne Verlinkungen nur auf wichtige Seiten meines Contents. Das hilft auch Google zu erkennen, was wichtige Seiten innerhalb dieser Domain sind. Es nützt nichts, interne Seiten wie AGB oder Impressum (nur 2 Beispiele auf die Schnelle) mit "index, follow" zu versehen. Da geht viel interner Linkjuice verloren.

    Gruß Frank
     
  14. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.309
    Danke vergeben:
    2.208
    Mir fehlt ein ausgewachseneres Beispiel deiner Denkweise. Was sind denn wichtige und unwichtige Seiten? Für Contentseite und andere Seiten unter fester URL ist das quasi da. Bei Kategorien und Artikeln finde ich persönlich kann per se keine(r) unwichtig oder unwillkommen sein, darum ist da nichts vorgesehen.
     
  15. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Juli 2018
    Beiträge:
    196
    Danke erhalten:
    24
    Danke vergeben:
    24
    Auf Metatexte achten, unique contents erstellen, Bilder-SEO und saubere Überschriften...ja ist Arbeit, aber kein Hexenwerk. Allein mit sauberer Darstellung - ohne Keywort-Dumping - erreicht man relativ schnell gute Platzierungen. Gambio bietet hier bereits sehr gute Möglichkeiten Ich würde mir lediglich wünschen, dass die Relevanz der Metatexte gegenüber dem nicht so wichtigen Content für Google noch schneller erkennbar wird. Sonst passt eigentlich alles.
     
  16. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    25. Oktober 2017
    Beiträge:
    406
    Danke erhalten:
    136
    Danke vergeben:
    81
    Vielen Dank für die gut geschriebenen und informativen Texte!:)
    Einen Newsletter hätte ich mir noch dazu gewünscht...
     
  17. Orange Raven

    Orange Raven Erfahrener Benutzer

    Registriert seit:
    3. April 2013
    Beiträge:
    359
    Danke erhalten:
    139
    Danke vergeben:
    50
    Entgegen besseren Wissens aus dem Marketing und dem Wissen, dass Newsletter ein wichtiger Baustein sind habe ich mich vorerst dagegen entschieden:

    1.) Zeitmanagement, ein Newsletter muss gut sein und ordentlich erstellt werden. Die Zeit habe ich im Moment nicht
    2.) Ich hasse Newsletter und ertrage nur einige wichtige als notwendiges Übel. :D

    Aber gerne die Facebookseite (die ab demnächst intensiver aufgebaut wird) liken. Da werden die Blogbeiträge auch immer wieder geteilt:
    http://facebook.com/orangeravenDE/ :)
     
  18. tierurnen-profi.de

    tierurnen-profi.de Erfahrener Benutzer

    Registriert seit:
    5. Januar 2017
    Beiträge:
    178
    Danke erhalten:
    34
    Danke vergeben:
    38
    ich bin auch eine kleiner Shopbetreiber und hatte Null Ahnung und habe mich neben dem ganzen täglichen Wahnsinn auch um mein eigenes SEO gekümmert, hier zu gibt es Bücher und auch sehr viele Anregungen im Netz, es muss nicht immer alles auf einmal geändert werden. Immer mal wieder eine Kategorie oder Artikel optimieren mit Content und Meta-Tags. Es gibt viele hilfreiche Onlinetool wo genau ersichtlich ist. wo ich bei Google mit meinem Keyword steh und dann das optimieren. Klar muss man da im Text kreativ sein. Für die Anzeige bei Google gibt es hier auch ein Tool wo ich mein Metatags auch auf hübschen kann^(bessere Klickraten) und genau sehe wie lang es für Google sein darf. Es gibt Erweiterungen für Chrome wo ich mir mit meinem Hauptkeyword - Unterkeywörter abrufen kann welche Google listet. Und manche Keywords hat mal manchmal nicht auf dem Plan.
    Gambio liefert die Grundlage aber aktivmuss man selber werden.

    Funktioniert so nicht, jeder Shop und Artikel haben andere Anforderungen. Und für Kleines Geld - Große Leistung wirst du nirgends bekommen. SEO ist nicht nur Keywords und Metatags, oder alt-Texte bei Bildern. Sondern auch Backlinkaufbau, SEO ist viel Arbeit und wenn du einmal dein Shop gut angepasst hast, hast du eine gute Grundlage unter den TOP 10 auch mitzuspielen.
     
  19. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Februar 2015
    Beiträge:
    1.291
    Danke erhalten:
    398
    Danke vergeben:
    237
    Ich bin jetzt auf Platz 1 bei Google. Zeit für Urlaub. :D
     
  20. tierurnen-profi.de

    tierurnen-profi.de Erfahrener Benutzer

    Registriert seit:
    5. Januar 2017
    Beiträge:
    178
    Danke erhalten:
    34
    Danke vergeben:
    38
    Schein trügt, gerade mal dein Shop kurz gescannt. Deine Index-Metatags kann man verbessern und erst recht deine Metatags für Titel + Artikel-Beschreibung. ;)