SEOs sollten endlich aufhören so zu tun, als hätten wir noch 2012

Wir schreiben das Jahr 2018. Mittlerweile hat sich „in der Szene“ weitgehend herumgesprochen hat, dass viele der bislang so erfolgreich angewandten SEO-Techniken nicht mehr funktionieren. Doch immer noch soll es – gerüchteweise – genug Optimierer geben, deren Kalender zwar exakt das gleiche anzeigt, die sich in ihrer Arbeits- und Denkweise aber noch immer irgendwo am Ende des letzten Jahrzehnts befinden. Festgefahren in Ruinen, wenn man so will. Und vielen von euch kann ich das nicht einmal übel nehmen.

Viele SEOs arbeiten angestellt. Schon aus diesem Grunde müssen sich die meisten an Vorgaben halten, die irgendwann einmal aufgestellt und über die Zeit hinweg in digitalen Beton gegossen wurden. Schlimmer ist es allerdings, wenn diese Regeln erst vor kurzem aufgestellt wurden und trotzdem so verstaubt sind, dass sie keinen Sinn mehr ergeben. Das ist dann der Augenblick, in dem sich bei den meisten SEOs amüsierte Verachtung breit macht.

Doch es gibt noch eine Steigerung. Denn übel wird die Sache, wenn der SEO sehr genau weiß, dass er nach veralteten Vorgaben arbeiten muss und es nicht ändern kann. In diesem Falle ist es nur eine Frage der Zeit, bis die Frustration die Oberhand über die Motivation erlangt.

Wirklich übel allerdings wird es dann, wenn der SEO Vorgaben einfach akzeptiert, ohne nachzudenken und ohne zu fragen, ob sie noch „state of the art“ sind. Wenn ein Mensch, der im Bereich SEO und Online-Marketing arbeitet, nicht ständig seine Arbeit und die Vorgaben kritisch hinterfragt, führt das über Kurz oder Lang nicht nur zielgerichtet zum eigenen Stillstand, sondern zum Tod jedes Projektes.

Technische Inkompetenz auf höchstem Niveau

Über die Notwendigkeit von technischem Hintergrundwissen und der Arbeit als SEO lässt sich trefflich streiten. Nur nicht mit mir.
Ein SEO, der sich auch so nennen möchte, muss in meinen Augen wenigstens ein Grundverständnis für die Möglichkeiten und die Techniken haben, die bei moderner Webentwicklung eine Rolle spielen. Niemand sollte erwarten, dass ein „Opti“ den Quellcode sämtlicher Javascript-Frameworks herunterbeten kann. Das würde entschieden zu weit führen. Aber solide Grundkenntnisse der Einsatzmöglichkeiten verschiedener Technologien – angefangen bei HTML und CSS – darf man wohl von einem Menschen erwarten, der auf der Basis dieser Techniken anderen Menschen beratend zur Seite stehen möchte.

Anders ausgedrückt: wenn ich weiß, wie etwas funktioniert, bin ich in der Lage es zu verbessern. Habe ich keinen Schimmer von der Funktionsweise einer Technologie, lasse ich die Finger davon und bemühe mich zunächst um den Ausbau meines nicht vorhandenen Wissens.

Der vertrocknete Keyword-Hype

Das Szenario: ihr bekommt eine Liste von 10, 20 oder 30 (Shorthead-)Keywords vorgesetzt und dazu noch den Auftrag, die vor euch aufpoppende Seite auf genau diese Keywords zu optimieren. Damit das alles schön geordnet vonstatten geht, darf es bitte pro Unterseite nur genau ein Keyword sein. Das für den Kunden(!) wichtigste Keyword spammt integriert ihr bitte auf die Startseite. Habt ihr dann das Keyword brav an die erste Stelle in den Seitentitel, in sämtliche Überschriften und – natürlich gemäß WDF*IDF – in den Text eingefügt, überprüft ihr den Erfolg eurer Bemühungen in den nächsten Tagen und Wochen mit einem Rank-Tracker. Kommt euch das bekannt vor? 

So läuft es leider heute immer noch viel zu oft. Ob es an einer mangelnden Flexibilität oder zu geringem Budget liegt ist grundsätzlich egal. Fakt ist: im Jahre 2017 kommt mit solchen Methoden niemand mehr auf einen grünen Zweig.

Der Beginn der semantischen Ära: Hummingbird 

Vor 2013 waren die Dinge relativ einfach. Ein paar Keywords hier, ein paar Spam-Links dort und die Sache funktionierte. Inhalte waren wenig interessant. Und dann ließ Google den Kolibri flattern und veränderte quasi über Nacht die gesamte Methodik der Suche. War die Suchmaschine vorher noch ein relativ dummes Werkzeug, welches eben in der Lage war sich ein oder zwei Wörter zusammenzureimen, konnte Google plötzlich semantische Zusammenhänge verstehen. Der Algorithmus begann den Sinn und die Intention einer Suchanfrage zu verstehen und lieferte Ergebnisse auf der Basis dieser Analysen aus. Plötzlich wurde guter Content in Verbindung mit der Suchabsicht des Nutzers interessant. Und das einzelne Keyword trat in den Hintergrund. Das war vor beinahe vier Jahren.

WDF*IDF == WTF-IDC!

Trotzdem werden auch heute noch Websites nach den Ideen und Methoden der Vor-Hummingbird-Ära „optimiert“. Da wedeln Senior SEOs mit konfusen Keyword-Listen herum und bestehen darauf, dass es eine todsichere Methode ist, eine Seite an die Spitze der Suchergebnislisten zu bringen, wenn man diese sinnfreien Begriffslisten stur nach „Schema F“ in die Seite packt. Schließlich will der Kunde ja genau für diese Begriffe gefunden werden. Und kein einziger SEO wagt es diesen naiven Wunschtraum des Kunden mit Recht zu zerstören. Herzlichen Glückwunsch!

Mittlerweile flattert aber mit Panda, Pinguin und Kolibri nicht mehr nur ein ganzer Zoo an Such- und Rankingalgorithmen bei Google herum. Seit 2015 liegt zusätzlich der RankBrain-Algorithmus auf der Lauer. Dabei ist dieses Wunderwerk, welches sich maschinellem Lernen und künstlicher Intelligenz bedient, keineswegs dafür gedacht, die Ausgabe – also die Suchergebnisse – zu beeinflussen, wie viele SEOs meinen. RankBrain arbeitet auf der anderen Seite und versucht die Suchanfragen der Nutzer zu interpretieren. Genauer gesagt versucht der Algorithmus Suchanfragen zu verstehen, die bisher noch nie gestellt wurden. Mit den Ergebnissen, die RankBrain liefert, werden andere Algorithmen unterstützt und am Ende das für die Anfrage sinnvollste Ergebnis geliefert. Mit RankBrain betrat ein neuer Akteur die SEO-Bühne: die Suchintention.

Beerdigt endlich diesen Keyword-Unsinn

Das bedeutet natürlich nicht, dass das Keyword als solches mausetot ist. Aber seine Bedeutung als allein stehendes Merkmal, welches an genau definierten Positionen und in exakt definierter Menge auf einer Seite vorkommen muss, befindet sich bereits im Stadium fortgeschrittener Verwesung. 
Wichtig sind Schlüsselbegriffe und -wendungen natürlich immer noch, allein schon aus dem einen Grund, den Inhalt und das Thema eines Textes zu beschreiben. In einem Artikel über Zitronen sollten aber nicht nur „gelbe Zitronen“ und „grüne Zitronen“ vorkommen, sondern „Obst“, „Zitrusfrucht“, „Saft“, „sauer“, „Vitamin C“ und „Erkältung“.

Wenn ihr Inhalte für eine Website verfasst, dann deckt das Thema der Seite ab, und zwar so gut wie möglich und so umfangreich wie nötig. Verwendet nicht nur semantisch verwandte Begriffe, sondern auch thematisch verwandte. Gebt dem Benutzer eurer Seite alles, was er braucht, was er wissen möchte. Erfüllt die Suchintention des Nutzers. Denn niemand kommt aus den organischen Suchergebnissen auf eure Website, weil die Sonne so warm scheint oder noch nicht ganz Vollmond ist, sondern weil er eine Absicht verfolgt. Diese Absicht ist das Stillen eines Informationsbedürfnisses oder einer Kaufabsicht.

Wenn ihr eure Inhalte wirklich gut erstellt, kann es euch egal sein, ob ihr ein Keyword an erster Stelle im Title habt oder in der H1-Überschrift. Es gibt ausreichend Beispiele für die Mächtigkeit der Suchalgorithmen, die in der Lage sind, Inhalte zu liefern, in denen die Suchbegriffe gar nicht vorkommen, nicht einmal im Text selbst.

Das Thema ist der Suchende

Inhalte sind für den Nutzer bestimmt und nicht in erster Linie für die Suchmaschine. Wenn eure Inhalte für den Nutzer ansprechend und nützlich sind, wird auch eine Suchmaschine XY dies bemerken und entsprechend bewerten. Macht euch keine Sorgen um Keywords. Macht euch Sorgen um eure Besucher. Stellt euch auf keinen Fall die Frage, ob euer Text gut genug ist, um mit [bitte beliebigen Begriff einfügen] auf Platz 1 zu ranken. Stellt euch die Frage, ob euer Text alle möglichen Fragen eurer Nutzer beantwortet, benötigte Informationen liefert und dem Besucher ein gutes Nutzungserlebnis bietet.

Schielt nicht immer auf die Links

Sobald eine Website bei Google bekannt ist, wird es nicht lange dauern, bis der Google-Bot um die Ecke schaut und eure Seite untersucht. Um die Seite bekannt zu machen, reicht es bereits eine Property in der Google Search Console anzulegen. Dann weiß die Suchmaschine um die Existenz der Seite – und der Rest kommt von ganz allein.

Ein gängiges SEO-Paradigma besagt, dass eine Website möglichst viele kraftvolle Links braucht, um gut positioniert zu sein. Dies war zumindest die Intention, die schließlich zur Formulierung des PageRank-Algorithmus führte, auf dem Google begründet wurde. Wichtig waren zu jenem Zeitpunkt nicht mehr Links allein, sondern auch die Quelle der Links. Je mehr Verlinkungen von vertrauenswürdigen und bekannten Quellen auf eine Seite zeigten, desto besser wurde die Seite selbst bewertet. Das Prinzip konnte dann auch noch auf die Bewertung interner Verlinkungen angewendet werden und führte schließlich zum Gedankenmodell des Linkjuice. Dabei gibt eine beliebige Seite jeder einzelnen verlinkten Unterseite ein gewisses Maß an Linkkraft weiter, ähnlich wie in einer Kaskade. Doch gilt dieses Prinzip immer noch uneingeschränkt? 

Natürlich verwendet Google den PageRank intern immer noch als Wert und Links haben immer noch ihre Berechtigung, aber unterschätzt nie die Mächtigkeit einer guten On-Page-Optimierung. Wenn eure Seite inhaltlich so gut optimiert ist, dass eine Vielzahl von Suchintentionen abgedeckt werden, kann auch eine besser verlinkte Website das Nachsehen haben. Und im Zuge der Mobil-First-Initiative werden diese Elemente immer wichtiger werden. Im mobilen Web wird weniger verlinkt. Inhalte werden geliked und geteilt. Und das weiß auch Google.

Vergesst Domain Authority und Domain Age

Natürlich ist es wunderbar, wenn eine Website 1995 gestartet wurde und 22 Jahre später noch ein glänzendes Dasein fristet. Doch das ist keineswegs die Regel. Inhalte verändern sich mit der Zeit. Allein unter dieser Domain gab es bisher fünf verschiedene Websites. SEOmania ist mittlerweile die sechste Variante und hat mit den anderen lediglich gemeinsam, dass es sich um ein Blog handelt. Spinnt man diesen Gedanken nun ein wenig weiter, wird schnell klar, warum eine Größe „Domain Authority“ unsinnig ist.

Google selbst hat in Gestalt von Gary Illyes bemerkt, dass es keinen Ranking-Faktor der Domain Autorität (DA) gibt. Warum nicht? Die Idee der DA ist, dass ein Link von einer Domain, die bereits lange Zeit existiert, wertvoller ist als ein Link von einer erst kürzlich registrierten Domain. Das Alter einer Domain sagt jedoch nichts über ihre Geschichte aus, über die Besitzer der Domain und ihre vergangenen Inhalte.
Wenn eine Domain bereits 20 Jahre existiert ist das natürlich absolut positiv. Wenn die Seite eines von diesen zwei Jahrzehnten als illegales Porno-Streaming-Portal gedient hat, sieht es schon wieder anders aus, nicht wahr?

Trotzdem kann eine darauf befindliche Website durchaus sehr gute Metriken aufweisen, weil die Suchmaschine die aktuellen Signale auswertet.

Vergesst Rank-Tracking als Erfolgsanalyse

Habt ihr heute schon brav die Platzierungen der wichtigsten Keywords für eure Website überprüft? Prima! Habt ihr euch denn wenigstens auch die Frage gestellt, wie diese Platzierungen zustande kamen, auf welcher Basis und in Abhängigkeit welcher Parameter sie gemessen wurden? 

Rankings sind kein Messwert für den Erfolg einer SEO-Maßnahme, gleichgültig was man euch in diesem Punkt erzählt. Bestenfalls handelt es sich um einen Trend, der anzeigen kann, ob irgendwo etwas im Argen liegt oder nicht. Aber verlasst euch bitte nicht mehr auf Platzierungen. Jeder halbwegs bewanderte SEO weiß mittlerweile, dass die Platzierung einer Webseite in den Suchergebnissen von vielen verschiedenen Faktoren abhängt, von denen wir die meisten nicht einmal ansatzweise kennen. Lokalisierung und Suchhistorie sind hierbei lediglich die Spitze eines gewaltigen Eisbergs. Hinzu kommt, dass eine Abfrage der Rankings nichts weiter als ein Snapshot, eine Momentaufnahme ist. Bereits in der nächsten Sekunde kann das Ergebnis anders aussehen. Versteift euch darum auf keinen Fall auf Platzierungen, sondern achtet auf die Metriken, die wirklich etwas über den Erfolg eurer Bemühungen aussagen.

Was ihr auch tut, tut es für die Nutzer

Wenn ihr in dieser Zeile angekommen seid, könnt ihr jetzt getrost zu euer Liste mit den „dafür-will-der-Kunde-gefunden-werden“-Begriffen greifen und diese mit einem gezielten Wurf in den nächsten Papierkorb verfrachten. Denn mittlerweile ist auch euch klar geworden, dass an dem Prinzip etwas faul ist – wenn es euch nicht ohnehin von vorn herein klar war. Verlasst euch darauf, dass es der Suchmaschine und den potentiellen Besuchern der Website vollkommen gleichgültig ist, für welche Begriffe euer Kunde gefunden werden möchte.

Versucht eurem Kunden oder euch selbst – je nach Website – etwas Gutes zu tun. Denkt über die Inhalte nach und prüft, ob die vorhandenen Inhalte wirklich alle Fragen der Nutzer beantworten. Wird ein Besucher auf der Website das finden, was er oder sie sucht? Wenn ihr auch nur unsicher seid, ob dies der Fall ist, setzt euch noch einmal hin und überarbeitet die Seite.

Achtet nicht nur auf die Inhalte, sondern auch auf den Aufbau der Seite. Können eure Besucher alle Inhalte der Seite gut finden? Sind Linktexte eindeutig oder sind die internen Links lediglich Keyword-Spam? Denkt bei allem was ihr tut vor allem an eure Nutzer und vergesst für einen Augenblick, dass es da draußen Suchmaschinen gibt. Eure Besucher werden es euch danken – und die Suchmaschine auch.