Im ersten Teil von “Deeplink-Ratio als Qualitätssignal” haben wir uns damit beschäftigt, ob die Deeplink-Ratio (Anteil Backlinks, die nicht auf die Startseite gehen) ein Qualitätssignal für Google darstellt und die Frage aufgeworfen, ob eine hohe oder niedrige Deeplink-Ratio besser ist.
Vielen Dank für die vielen guten Kommentare zum ersten Teil. Einige der Gedanken möchte ich gerne hier im zweiten Teil aufnehmen.
Grundsätzlich gibt es mehr als genug Beispiele für Domains mit sehr guten Rankings, die entwerder eine sehr hohe oder eine sehr niedrige Deeplink-Ratio besitzen. In den meisten Fällen bewegt sich die Deeplink-Ratio irgendwo zwischen 10 Prozent und 90 Prozent. Die Spannweite ist also sehr groß.
Deeplink-Ratio im Branchenvergleich
Astrid hat darauf hingewiesen, dass die Deeplink-Ratio nicht losgelöst von dem Projekt betrachtet werden darf. Bei Nachrichtenseiten werden häufiger die Unterseiten verlinkt als z.B. bei E-Commerce-Websites mit Buchungs- oder Suchmasken. Die Deeplink-Ratio sollte also mit den Kennzahlen der direkten Wettbewerber aus der gleichen Branche verglichen werden.
Evert Veldhuijzen hat sich in dem Post “Deep link ratio: what makes a backlink profile look natural?” die Arbeit gemacht und 75 Websites verschiedenen Branchen zugeordnet und deren Deeplink-Ratio mit der SISTRIX-Toolbox ermittelt. Auf diese Weise hat er für 10 Branchen die durchschnittliche Deeplink-Ratio gemessen. Die höchste Deeplink-Ratio hatten News (71,64 %) gefolgt von Blogs (55,51 %) und E-Commerce (48,58 %). Die niedrigste Deeplink-Ratio besaßen hingegen Stellenangebote (19,51 %) gefolgt von Dating-Websites (25,32 %) und Immobilien-Anzeigen (29,35 %). Über alle untersuchten Branchen lag die Deeplink-Ratio bei 41,25 %. Die einzelnen Werte findet Ihr in einer übersichtlichen Tabelle bei State Of Search.
Offensichtlich werden insbesondere bei Rubrikenmärkten wie z.B. Jobs und Immobilien wenige Backlinks auf Unterseiten gesetzt. Das mag daran liegen, dass die Inhalte sehr schnell veralten und nach einer gewissen Zeit nicht mehr zur Verfügung stehen. Gleichzeitig herrscht gerade in diesen Branchen ein hoher SEO-Wettbewerb und viele Plattformen betreiben sicherlich einen hohen Aufwand im Linkaufbau.
Deeplink-Ratio als eines von vielen Qualitätssignalen
Prof. Mario Fischer hat in seinem Kommentar noch einmal darauf hingewiesen, dass die Deeplink-Ratio selbstverständlich nur eines von vielen Qualitätsmerkmalen ist. Da nicht jeder die Gelegenheit hatte die diesjährigen Vorträge von Mario z.B. auf der SEMSEO oder der SEO Campixx zu hören, sei auch an dieser Stelle noch einmal darauf hingewiesen. Die meisten Signale führen nicht automatisch dazu, dass eine Domain direkt in einem Filter bei Google landet. Erst wenn mehrere Spam-Signale in Kombination auftreten, kann Google mit sehr hoher Wahrscheinlichkeit davon ausgehen, dass es sich tatsächlich um eine Spam-Domain handelt. Einfach ausgedrückt kann jedes einzelne Signal also den Spam-Verdacht je nach Ausprägung abschwächen oder verstärken. Wird ein gewisser Wahrscheinlichkeitswert überschritten, landet die Domain in einem Filter bzw. wird von einem menschlichen Quality Rater aus Fleisch und Blut überprüft.
Wie gut solche Methoden funktionieren, lässt sich sehr schön an dem Ratespiel Akinator zeigen. Wer Akinator noch nicht kennt, sollte es unbedingt einmal ausprobieren.
Man denkt sich eine beliebige Person aus und Akinator rät anhand der Antworten auf wenige Fragen, an welche Person man gedacht hat. Ist die gesuchte Person z.B. ein erwachsener Mann, spricht nicht deutsch, ist kein Schauspieler, stammt aus Amerika, ist kein Musiker, ist nicht dunkelhäutig, hat wirklich existiert, ist kein Sportler, ist kein Politiker, mag Computer, wird nicht oft in Zusammenhang mit einem Apfel gebracht, hat ein Betriebssystem, trägt eine Brille und ist reich, so kann der Akinator mit einer sehr hohen Wahrscheinlichkeit die richtige Antwort geben.
Wer ist die gesuchte Figur? Richtig, es ist Bill Gates. Bejaht man hingegen die Frage, dass die Person oft in Zusammenhang mit einem Apfel gebracht wird und bestätigt, dass sie häufig einen schwarzen Rollkragenpullover trägt, so handelt es sich mit an Sicherheit grenzender Wahrscheinlichkeit um Steve Jobs.
Eigenschaften wie “spricht nicht deutsch”, “ist kein Schauspieler” und “stammt aus Amerika” erlauben für sich alleine noch keinerlei Aussage zu der gesuchten Person. Aber die Kombination aus 14 Eigenschaften (oder Signalen) macht die Sache auf einmal glasklar, so dass man den Eindruck gewinnen könnte, dass der Akinator Gedanken lesen kann. Dabei wird nur ein (zugegeben sehr komplexer) Entscheidungsbaum abgearbeitet. Mit der Zeit lernt Akinator immer mehr hinzu und kann aufgrund von falschen und richtigen Prognosen immer besser die wirkungsvollsten Unterscheidungsmerkmale identifizieren.
Auf eine ähnliche Weise kann man sich auch die Spam-Erkennung bei Google vorstellen. Eine hohe oder niedrige Deeplink-Ratio alleine lässt noch keine Aussage über die Qualität einer Website zu. Ist die Website jedoch erst ein paar Wochen alt, verfügt insgesamt noch über wenige Backlinks, hat eine geringe Deeplink-Ratio, hat eine geringe Variation bei den Linktexten auf die Startseite, verlinkt häufig mit einem Money-Keyword auf die Startseite, wird überwiegend nur von Artikelverzeichnissen, Webkatalogen, Gästebuch-Kommentaren und/oder Social-Bookmarks verlinkt, so kann Google mit einer sehr hohen Wahrscheinlichkeit davon ausgehen, dass es sich dabei um einen Versuch handelt die Suchergebnisse künstlich zu manipulieren. Ein Google Filter ist dann die logische Konsequenz.
Lustigerweise tappen viele Domains genau in die Falle. Man hat sich oberflächlich ein wenig SEO-Wissen angelesen und möchte sich und der ganzen Welt beweisen, dass man jetzt der SEO-Hero ist. Deshalb knallt man bei einer neuen Domain alle Links mit dem Hauptkeyword auf die Startseite. Schließlich will man, dass die Domain möglichst schnell für das gewünschte Keyword in den Top 10 landet und spätestens beim nächsten PageRank-Update soll der grüne Balken möglichst lang sein. Guten Conent für die Unterseiten bereitzustellen macht außerdem zu viel Arbeit. Das gleicht man dann einfach durch ein paar gekaufte Links auf die Startseite aus. In der Konsequenz erzielt die Domain dann allerdings erst einmal für längere Zeit gar keine Rankings. Aber auch das findet man ganz normal, da man schließlich auch von der Sandbox gelesen hat.
Insgesamt ist die Gefahr aufgrund der Deeplink-Ratio in einen Filter bei Google zu geraten bei neuen Domains am größten. Neue Domains verfügen naturgemäß aufgrund der fehlenden History noch über wenige positive Qualitätssignale. Einige wenige negative Signale können daher um so stärker ins Gewicht fallen. Bildlich gesprochen verfügen neue Domains noch nicht über ein intaktes Immunsystem, welches sie gegen den einen oder anderen Fehler schützt. Zudem geht eine starke Verlinkung der Startseite bei neuen Domains häufig mit weiteren Fehlern einher. Verfolgt man bei einer neuen Domain hingegen zuerst einmal das Ziel einer hohen Deeplink-Ratio, so werden manche Fehler tendenziell vermieden. Die Linktexte variieren z.B. stärker und man achtet auch stärker auch auf die Qualität der Unterseiten.
Weniger gefährlich ist die Deeplink-Ratio bei etablierte Domains. Sie verfügen (idealerweise) im Zeitablauf über immer mehr positive Qualitätssignale, so dass sie wesentlich robuster sind und auch das eine oder andere negative Signal ihnen nichts anhaben kann.
Können Deeplinks schädlich sein?
Kommen wir jetzt zur Ausgangsfrage zurück. Sollten mehr Backlinks auf die Startseite oder auf die Unterseiten zeigen? Google erzählt gebetsmühlenartig, dass man vor allen Dingen guten Content erstellen soll. Man darf dieser Aussage insofern Glauben schenken, dass Google sich natürlich sehr guten Content auf seinen Suchergebnisseiten wünscht. Relevante Suchergebnisse, hinter denen guter Content steht, bedeutet eine positive Bewertung der Suchergebnisse durch die Nutzer. Daher arbeitet der Algorithmus in diese Richtung und wird ständig verbessert, um qualitativ hochwertigen und relevanten Content zu identifizieren bzw. Spam auszufiltern.
Die Startseite einer Website ist meist entweder eine statische Seite mit begrenzten Inhalten oder eine dynamische Übersicht von aktuellen und beliebten Inhalten. Dauerhaft kann eine Startseite nur zu wenigen Keywords gute Rankings erzielen. Guter und umfangreicher Content führt daher zwangsläufig zu Deeplinks. In sehr vielen Fällen wird von Unterseiten auf Unterseiten verlinkt, weil genau dort die spezifischen Informationen zu finden sind. Mir fällt kein vernünftiger Grund ein, warum eine hohe Deeplink-Ratio als negatives Signal angesehen werden könnte. Eigentlich ist sie genau das, was Google sich wünscht.
Wie bei der Analyse der Deeplink-Ratio nach Branchen gezeigt, gibt es natürlich Branchen, die naturgemäß eine geringe Deeplink-Ratio aufweisen. Sollte es jedoch einem der Marktteilnehmer aus einer solchen Branche gelingen spannende Unterseiten anzubieten, die häufig verlinkt werden, so wird das sicherlich nicht sein Schaden sein.
Umgekehrt muss man sich fragen, welche Qualität eine Website haben kann, die zwar viele Seiten im Index hat, bei der im Branchenvergleich die Unterseiten aber kaum verlinkt werden. Hier liegt schnell der Verdacht nahe, dass die Unterseiten lieblos oder automatisiert erstellt wurden und wenig Mehrwert bieten. Nicht nur aus SEO-Gründen sollte sich der Anbieter einer Website mit einer geringen Deeplink-Ratio einmal Gedanken machen, warum seine Unterseiten schlecht verlinkt werden. Gibt es dafür nachvollziehbare Gründe oder ist es branchenüblich? Gibt es vielleicht Probleme mir der Qualität des Contents oder der Usability der Website?
Ausblick: Deeplink-Ratio und Domain Popularity
Bei der Analyse von Backlinks wird schon seit langer Zeit nicht mehr nur auf die absolute Anzahl von Links geachtet, sondern auf Kennzahlen wie die Domain Popularity (Domain Pop), also die Anzahl Links von unterschiedlichen Domains. Schließlich ist es einfach 1.000 Links von einer Domain zu bekommen. Viel schwieriger ist es jeweils einen Link von 1.000 verschiedenen Domains zu erhalten.
Ähnliche Gedanken sollte man sich auch bei der Bewertung der Deeplink-Ratio machen. Oft werden z.B. auf jeder einzelnen Seite einer Website im Footer Links auf alle Websites eines Netzwerkes gesetzt. Die Links zeigen häufig auf die Startseite. Ähnlich ist es bei einer Blogroll. Wir dürfen davon ausgehen, dass Google so smart ist, diese Mehrfach-Links zu identifizieren und herauszurechnen.
Ich habe mir für einige Domains die Domain-Pop der Links auf die Startseite und die Domain-Pop der Links auf Unterseiten angesehen. Dabei ergeben sich teilweise ganz andere Verhältnisse bei der Deeplink-Ratio. Meiner Meinung nach sind das aber die aussagekräftigeren Werte.
Als Beispiel möchte ich die Website der schönen Stadt Bonn nennen. Für die Startseite konnte ich 28.462 Links zählen. Die Domain-Pop dieser Links beträgt jedoch nur 2.056, also weniger als 8 Prozent des ursprünglichen Wertes. Schauen wir uns hingegen als Gegenbeispiel eine Unterseite zu Wirtschaftsförderung auf bonn.de an, so hat diese Seite 102 Backlinks (jetzt 103) und eine Domain-Pop von 66. Die Domain-Pop beträgt hier also immerhin noch knapp 65 Prozent des ursprünglichen Wertes.
Wenn ich dazu etwas mehr Daten und Erkenntnisse gesammelt habe, teile ich sie Euch bei Gelegenheit gerne mit.
Abschließend möchte ich den Post “SEO – Strategie – Qualität – Erfolg” von Jens empfehlen, der darauf hinweist, dass SEO komplex ist und man die Komplexität nur begrenzt durch allgemeingültige Regeln vereinfachen kann. Kürzer drückt es Astrid in ihrem Kommentar aus, indem sie die einzige SEO-Regel zitiert, die immer die richtige Antwort ist: “Es kommt drauf an… (depends on…)”.
Deeplink-Ratio als Qualitätssignal – Teil 1
Deeplink-Ratio als Qualitätssignal – Teil 2
Danke Hanns, kann ich alles unterschreiben. Vom Sommerloch ist in den einschlägigen SEO Blogs wohl wenig zu spüren, auch dank dir 🙂
Hallo,
theoretisch kann man jedem Verhältnis, z.B. auch dem Anteil der reziproken Links oder der Zahl der unter domain.de als Linktext verlinkten Verweise, einen konkreten Wert zuweisen und Domains daraufhin untersuchen. Die Frage ist, ob deratige Rechenspielchen so fundierte Ergebnisse liefern, dass Suchmaschinen sie auch in deren Algorithmus implementiert haben?
Grüße
Gretus
Naja Heiner,
ich glaube schon – genauso wie Hanns – dass das Deeplink-Verhältnis eines der vielen Rankingfaktoren ist. Deshalb kann man sich da schon Gedanken drüber machen.
Rechenspielchen? Dafür müsste man meiner Meinung nach mal wirklich einen Testaufsetzen: Mit “alten” und “neuen” Domains. Da müsste man dann genug haben und mal 10,20,30 bis 100% Deeplinks setzen. Wenn man Glück hat bekommt man da zu einem Ergebnis das weiterhilft.
Aber wer hat die Zeit dafür – also verlässt man sich weiter auf die Erfahrung und das Bauchgefühl: Bei den meisten Projekten so um die 50 Prozent.
Fundierte Ergebnisse sind derzeit eine Sache – viel besser finde ich aber, dass Hanns ein Thema aufgreift und in der SEO-Blogpost-armen-Zeit seine Gedanken mitteilt.
Hi Ole,
auf jeden Fall ist der Beitrag super. Wie aber schon in den Kommentaren zum ersten Teil gesagt wurde, liefert die themenbezogene Betrachtung der Deeplinkratio möglichweise aber zu viele Ausreißer als das sie für einen Algorithmus taugt.
Betrachtet man eine einzelne Domain, kann sie ein Idiz für manipulativen Linkaufbau sein, keine Frage…
Grüße
Gretus