SEO-Blog

Sidebar
Menu

SEO-Effizienz – die optimale Anzahl indexierter Seiten

email

Effizienz bedeutet Nutzen geteilt durch Aufwand. SEO-Effizienz kann man als Suchmaschinen-Sichtbarkeit geteilt durch die Anzahl indexierter Seiten definieren. Gibt es für eine Website eine optimale Anzahl indexierter Seiten? Oder sollte eine Website versuchen möglichst viele Seiten in den Google-Index zu schieben? Schließlich bedeutet jede zusätzliche Seite im Index eine weitere Chance Rankings zu erzielen und damit zusätzliche Besucher über Suchmaschinen zu gewinnen. Ich habe diese Fragen anhand der SEO-Effizienz von 30 Websites untersucht. Dabei sind erstaunlich klare Ergebnisse herausgekommen, die neue Fragen aufwerfen.

Mehr Seiten indexieren zu lassen bedeutet auch mehr Aufwand. Man muss mehr Content produzieren, die Website hat tendenziell mehr Probleme mir Duplicate Content und es wird schwieriger alle Seiten mit PageRank und Linkjuice zu versorgen. Daher ist die Frage berechtigt, wann sich der Aufwand lohnt und wo die Grenzen liegen.

Um herauszufinden, ob es einen klar erkennbaren Zusammenhang zwischen der SEO-Effizienz einer Website und der Anzahl indexierter Seiten gibt, habe ich für die aktuellen Top-30-Websites im SISTRIX Sichtbarkeitsindex (Woche vom 06.04.2009) die Anzahl der Sichtbarkeitsindexpunkte durch die Anzahl der indexierten Seiten geteilt (Effizienz gleich Nutzen geteilt durch Aufwand).

Beispiel:

SEO-Effizienz spiegel.de pro 1.000 indexierter Seiten = 445,78 Sichtbarkeitsindex-Punkte : (6.990.000 indexierte Seiten : 1.000) = 0,06

Die folgende Tabelle zeigt die Ergebnisse für die 30 untersuchten Websites sortiert nach SEO-Effizienz.



Jetzt kann man zwei grundsätzliche Thesen aufstellen:

These 1: Die SEO-Effizienz pro 1.000 indexierter Seiten ist unabhängig von der Anzahl indexierter Seiten

These 2: Die SEO-Effizienz pro 1.000 indexierter Seiten ist abhängig von der Anzahl indexierter Seiten

Wenn man die Zahlen grafisch darstellt, ergibt sich ein überraschend deutliches Bild.




Die Grafik bestätigt anscheinend These 2. Ich habe die Untersuchung durchgeführt, weil ich die Vermutung hatte, dass es einen Zusammenhang gibt. Aber die Deutlichkeit der Ergebnisse hat mich dann doch überrascht. Man sollte annehmen, dass Faktoren, wie die Qualität der On-Page-Optimierung und die Stärke der externen Verlinkung, auch unter den Top-30-Websites im SISTRIX-Sichtbarkeitsindex unterschiedlich genug sind, um die SEO-Effizienz der Websites stark zu beeinflussen. Eine so deutliche Abhängigkeit zwischen SEO-Effizienz und Anzahl indexierter Seiten sollte also gar nicht zu beobachten sein. Mathematisch gesehen kann man bei den Top-30-Websites aber 88,5 Prozent der unterschiedlichen SEO-Effizienz-Werte (Varianz) durch die Anzahl der indexierten Seiten erklären. Es gilt dabei natürlich zu bedenken, dass es sich nicht um eine zufällige Auswahl von Websites handelt, sondern um die 30 Websites mit den den besten Sichtbarkeitswerten in Deutschland. Alle diese Websites verstehen wahrscheinlich ihr SEO-Handwerk.

Offenbar gibt es also zumindest bei diesen Websites einen deutlichen direkten Zusammenhang zwischen SEO-Effizienz und Anzahl indexierter Seiten. Je mehr Seiten eine Website im Index hat, um so geringer ist tendenziell auch die durchschnittliche SEO-Effizienz pro 1.000 indexierter Seiten.

Mir fallen für diese Ergebnisse vier unterschiedliche Erklärungen ein:

Erklärung 1) Die Ergebnisse spiegeln den typischen Verlauf einer Long-Tail-Kurve. Je mehr Seiten eine Website im Index hat, um so mehr bedient sie automatisch den Long Tail. Da das Volumen der Suchanfragen im Long Tail schnell abnimmt, sinkt im Normalfall auch die durchschnittliche SEO-Effizienz pro 1.000 zusätzlich indexierter Seiten. Der SEO-Grenznutzen pro 1.000 weiterer Seiten im Index nimmt immer mehr ab und senkt somit auch die durchschnittliche SEO-Effizienz.

Erklärung 2) Der Sichtbarkeitsindex wird auf Grundlage der populärsten 250.000 Keywords bzw. Suchphrasen berechnet. Die tatsächliche Sichtbarkeit einer Website kann daher nur im Bereich der untersuchten 250.000 Keywords ermittelt werden. Hat eine Website mehr als 250.000 Seiten im Index (was auf 29 der 30 untersuchten Websites zutrifft), erzielt sie automatisch Sichtbarkeit in Bereichen des Long Tails, der vom SISTRIX Sichtbarkeitsindex nicht mehr erfasst werden kann (oder erzielt mehrfache Treffer zu einem untersuchten Keyword mit geringer Wertung). Daher nimmt bei sehr großen Websites die durchschnittliche SEO-Effizienz auf Grundlage des SISTRIX Sichtbarkeitsindex pro 1.000 zusätzliche indexierter Seiten zwangsläufig ab. Die Ergebnisse müssen eventuell anders interpretiert werden als bei kleineren Websites mit weniger Seiten im Index.

Erklärung 3) Die Ergebnisse lassen sich durch den Google Algorithmus erklären. So könnte z.B. eine größere Anzahl von indexierter Seiten tendenziell auch immer mit einer schlechteren Versorgung von PageRank und Linkjuice pro Seite einhergehen. Als Folge sinkt die durchschnittliche SEO-Effizienz der Website. Oder es gibt Grenzen, für wie viele Seiten einer Website gute Rankings erzielen kann (abhängig von der Bedeutung der Website). Will Google eventuell verhindern, dass starke Websites unbegrenzt für jedes beliebige Keyword gute Rankings erzielen und den Index dominieren? Die sinkende durchschnittliche SEO-Effizienz pro 1.000 zusätzliche indexierter Seiten könnte also auch auf Google-Rules beruhen.

Erklärung 4) Irgendeine Kombination aus 1-3

Auf den ersten Blick finde ich, dass Erklärung 1 logisch erscheint. Das gilt erst recht, wenn man in der Grafik die Achse mir der Anzahl indexierter Seiten (X-Achse) nicht logarithmisch, sondern linear skaliert. Dann gleicht die Kurve doch sehr frappierend einer typischen Long-Tail-Kurve.



Allerdings passen in beiden Grafiken ein paar Websites nicht ganz in das Bild. So erzielt z.B. Wikipedia mit 13,6 Mio. indexierter Seiten immer noch eine relativ gute SEO-Effizienz. Diese könnte aber durch eine Sonderbehandlung von Google erklärt werden (Erklärung 3). Ebenfalls können bei einzelnen Websites dann eben doch die Qualität der On-Page Optimierung und die Stärke der Verlinkung Ursache für Abweichungen von der Kurve sein. Trotzdem ist es erstaunlich, wie gering die Abweichungen sind und welche große Bedeutung offensichtlich die Anzahl indexierter Seiten für die SEO-Effizienz hat.

Die Frage ist ja, was für eine bestimmte Website die ideale Anzahl Seiten im Index ist und was passieren würde, wenn man die Anzahl der indexierten Seiten mit entsprechendem Aufwand verdoppeln würde. Würde man damit den Sichtbarkeitsindex von ciao.de, gutefrage.net oder chefkoch.de verdoppeln können? Wahrscheinlich nicht, da die interessanten Themen mit hohem Suchvolumen ausgehen, man immer weiter die Long-Tail-Kurve entlangfährt und der Grenznutzen sich immer stärker der Nulllinie annähert.

Interessant ist, dass bei den untersuchten 30 Websites relativ viele Seiten einen Wert für die SEO-Effizienz zwischen 0,42 und 0,52 besitzen. Danach folgt eine Website mit einem Wert von 0,36 und dann gibt es eine große Lücke. Einige Seiten besitzen nach dieser Lücke dann einen Wert von 0,19 bis 0,2. Die Verteilung sieht nicht normal aus sondern eher wie Stufen. Die Werte verteilen sich nicht zufällig, sondern es sieht aus, als ob es Cluster oder Gruppen gäbe. Sollte diese ungewöhnliche Verteilung vielleicht doch ein Hinweis auf Erklärung 3 sein?

Wenn man zugänglich für Verschwörungstheorien ist, dann könnte man hier eine bisher unentdeckte Eigenschaft des Google Algorithmus vermuten. Es wäre interessant die Untersuchung mit einem größeren Datensatz durchzuführen, um zu prüfen, ob sich diese Clusterungen auch bei einer Vielzahl von Websites beobachten lassen und wie sich die Werte bei kleineren Websites verhalten. Vielleicht hat Sistrix ja einmal Lust aus seiner Datenbank die entsprechenden Werte bereitzustellen. Die Werte für einen großen Datensatz händisch zusammenzustellen wäre ansonsten sehr zeitaufwendig.

Zusammengefasst zeigt die Untersuchung einen überraschend starken Zusammenhang zwischen SEO-Effizienz und der Anzahl indexierter Seiten. Betreiber großer Websites müssen sich fragen, bis zu welchem Punkt es sinnvoll ist, viele Millionen Seiten für den Index zur Verfügung zu stellen. Ebenfalls lassen sich interessante Ausreißer “nach oben” wie Wikipedia, aber auch Amazon beobachten. Wenn man die zweite Grafik vergrößert, werden diese Abweichungen sehr deutlich. Würde man nur die Subdomain de.wikipedia.org betrachten, wäre die Abweichung von der Linie wahrscheinlich noch wesentlich größer.




Ich habe versucht Erklärungen für die Ergebnisse zu finden, die aber nur erste Thesen sind. Es ist zu diskutieren, ob nicht doch andere Ursachen stärker berücksichtigt werden sollten. Ebenfalls sollte sie Datenbasis erweitert werden, um mehr über Zusammenhänge zu erfahren. Darüber hinaus haben sich neue Fragen ergeben, die noch nicht beantwortet werden können, z.B. warum anscheinend Clusterungen bei der Verteilung der Werte für die SEO-Effizienz zu beobachten sind.

Ich freue mich also auf einen intensiven Gedankenaustausch zum Thema SEO-Effizienz und Anzahl indexierter Seiten.

WP Greet Box icon
Hallo! Hat Dir dieser Beitrag gefallen? Wenn Du unseren RSS Feed abonnierst, wirst Du zukünftig immer über alle neuen Beiträge informiert.

Ähnliche Beiträge:

  1. Gewinnspiel “Index-Jagd”: Zusammenhang Anzahl indexierter Seiten und Google PageRank (PR)
  2. Das SE-Diagramm (Seiten-Effizienz-Diagramm) als SEO-Analyse-Tool
  3. Zusammenhang SISTRIX Sichtbarkeitsindex und organische Visits über Suchmaschinen
  4. Google Places Ranking Teil II
  5. Internet-Wahlkampf bei Google: SEO-Test der Parteien-Websites im Superwahljahr 2009

54 Kommentare zu „SEO-Effizienz – die optimale Anzahl indexierter Seiten“

  1. Bosch sagt:

    Gute Ideen, aber die Untersuchung müsste weitergehend und differenzierter sein im Hinblick auf unique / duplicate / news Inhalten. Grüße aus Bamberg

  2. momo sagt:

    Excellent post at SEO-Effizienz – die optimale Anzahl indexierter Seiten. I was checking constantly this blog and I am impressed! Extremely useful information specially the last part :) I care for such information a lot. I was seeking this particular info for a long time. Thank you and best of luck.

  3. [...] wie Indexhygiene oder SEO-Effizienz sind bisher nicht weit verbreitet – doch vor allem vom Panda-Update betroffene Websites [...]

  4. vagra sagt:

    Nützlicher Beitrag. Allerdings finde ich die auswahl an untersuchten Websites nicht optimal. Die Internet-Riesen werden mit sicherheit anders von Google bewertet als kleinere private Seiten.

SEO-Blog