Das SE-Diagramm (Seiten-Effizienz-Diagramm) als SEO-Analyse-Tool

In meinem letzten Blog-Beitrag habe ich über das Thema “SEO-Effizienz – die optimale Anzahl indexierter Seiten” geschrieben. Dabei habe ich mir erste Gedanken gemacht, welche Zusammenhänge sich zwischen der Sichtbarkeit einer Website bei Google und der Anzahl indexierter Seiten erkennen lassen. Gerade die Analyse und Steuerung der Anzahl indexierter Seiten wird in der SEO-Arbeit oft sträflich vernachlässigt.

Auf den Beitrag gab es viel Feedback, so dass ich heute das Thema vertiefen und das Gedankenmodell präzisieren möchte. Konkret möchte ich das “Seiten-Effizienz-Diagramm” oder kurz “SE-Diagramm” vorstellen, welches das Resultat der bisherigen Überlegungen und Diskussionen darstellt.

Einleitung

Das SE-Diagramm ermöglicht es, die beiden Dimensionen “Anzahl indexierter Seiten” und “SEO-Effizienz” einer Website darzustellen. Es kann verwendet werden, um ein Set von Websites miteinander zu vergleichen, oder um die Entwicklung einer Website im Zeitablauf zu analysieren.

Wie bereit in meinem letzten Beitrag beschrieben, kann die SEO-Effizienz als Suchmaschinen-Sichtbarkeit geteilt durch die Anzahl indexierter Seiten definiert werden. Vereinfacht ausgedrückt ist die SEO-Effizienz eine Kennzahl für die Anzahl von Besuchern über Suchmaschinen, die man pro 1.000 indexierte Seiten gewinnt. Inhouse-SEO Jens, der mich lustigerweise in Mails und Blog-Beiträgen immer mal wieder gerne “Hannes” anstatt “Hanns” nennt (@Jens: “Hanns” ist die “lange Kurzform” von “Johannes” und bekannter als man vielleicht denkt), spricht hier auch von dem Begriff “Page Efficiency Index“.

Als Grundlage für die Berechnung der SEO-Effizienz wird der SISTRIX-Sichtbarkeitsindex verwendet. Er ist die härteste Währung, die für die Suchmaschinen-Sichtbarkeit praktisch aller Websites in Deutschland vorliegt und kann über die SISTRIX-Toolbox abgerufen werden.

“Pi mal Daumen” bedeuten meiner Erfahrung nach 3 Punkte im SISTRIX-Sichtbarkeitsindex etwa 100.000 Besucher über Suchmaschinen pro Monat (zumindest bei größeren Websites mit allgemeinen Inhalten für den deutschsprachigen Raum). Mit Hilfe dieses Wertes und einer Site-Abfrage bei Google lässt sich die SEO-Effizienz wie in dem folgenden Beispiel berechnen.

Beispiel:

SEO-Effizienz “chip.de” pro 1.000 indexierter Seiten = 593,65 Sichtbarkeitsindex-Punkte : (4.300.000 indexierte Seiten : 1.000) = 0,14

Nach der oben genannten Faustformel würde chip.de also derzeit etwa 4.667 Besucher (0,14 : 3 x 100.000 = 4.667) über Suchmaschinen pro 1.000 indexierte Seiten bekommen. Ich hoffe, dass mich niemand auf diesen Wert festnagelt, er soll nur eine ungefähre Richtgröße liefern.

In der Diskussion zu dem letzten Beitrag wurde der Kritikpunkt genannt, dass der Wert eines Besuches je nach Keyword und Zielseite unterschiedlich zu bewerten ist. Die Optimierung einer Website müsse daher auf den Deckungsbeitrag pro Besucher und nicht auf die reine Anzahl Besucher abzielen. Dieser Kritikpunkt ist berechtigt. Da diese Daten jedoch (bei Websites, die nicht ausschließlich dem Bereich E-Commerce angehören) pro Keyword schwer zu ermitteln sind und im Normalfall auch nicht für die Wettbewerber einer Website vorliegen, müssen wir uns mit einem vereinfachten Modell und der Annahme begnügen, dass alle Besucher den gleichen Wert haben, so dass wir nur die Sichtbarkeit bzw. die Anzahl Besucher über Suchmaschinen betrachten. Für die richtige Interpretation von Ergebnissen müssen wir diese Einschränkung jedoch immer im Hinterkopf behalten.

Das Seiten-Effizienz-Diagramm

Um zu beurteilen, ob der Wert für die SEO-Effizienz in Höhe von 0,14 aus dem Beispiel von chip.de im Gegensatz zu anderen Websites gut oder schlecht ist, Zusammenhänge zwischen Anzahl indexierter Seiten und SEO-Effizienz zu erkennen und die Werte im Zeitablauf zu beobachten, möchte ich das SE-Diagramm als Analyse-Instrument vorstellen.

In meinem ersten Beitrag hatte ich die 30 Websites mit den höchsten Werten für den Sichtbarkeitsindex in ein Diagramm eingetragen und war überrascht, dass fast alle Websites auf einer Linie lagen. Nachdem ich eine Nacht über das Thema geschlafen hatte, war schnell klar, dass dieses Ergebnis zu erwarten war und sich mathematisch relativ leicht erklären lässt (siehe Kommentar Nr. 20 im ersten Beitrag).

Abgesehen von den beiden Ausreißern wikipedia.org und amazon.de sind die Unterschiede im Sichtbarkeitsindex zwischen den Top-30-Websites relativ gering. Auch wenn Platz 3 etwa den vierfachen Wert gegenüber Platz 30 aufweisen kann, so liegen die Werte im Vergleich zu der Bandbreite indexierter Seiten immer noch sehr eng beieinander. Das hat den Effekt, dass innerhalb dieser Gruppe der Wert für die Anzahl indexierter Seiten der dominierende Faktor wird.

An dieser Stelle möchte ich auf eine hervorragende Analyse von Michael Sattler hinweisen, der sehr elegant hergeleitet hat, warum ein Vergleich der Top-30-Websites in dem ersten Modell-Entwurf kaum eine Aussagekraft hat. In dieser Qualität hätte ich das mathematisch nicht erklären können. Vielen Dank für diese Anmerkungen zu dem ersten Beitrag, auch wenn ich, wie in diesem Beitrag ersichtlich wird, den Schlussfolgerungen, die daraus gezogen werden, nicht ganz zustimmen möchte.

Um das Problem auch dem weniger mathematisch interessierten Leser gut verständlich zu machen, habe ich die folgende Grafik erstellt.

Ein bestimmtes Niveau im Sichtbarkeitsindex, z.B. 100 Punkte, lässt sich wie in der Grafik dargestellt, durch verschiedene Kombinationen aus “Anzahl indexierter Seiten” und “SEO-Effizienz” erreichen. Alle theoretischen Kombinationen ergeben eine Linie. Diese Linie repräsentiert das Niveau der Sichtbarkeit. Je weiter oben und je weiter rechts ein Punkt in dem Diagramm liegt, um so höher ist der Sichtbarkeitsindex.

Noch deutlich wird dieser Zusammenhang in der nächste Grafik, welche den Verlauf für unterschiedliche Niveaus der Sichtbarkeit darstellt. Im Falle einer logarithmischen Skalierung der Achsen handelt es sich um eine Gerade, bei einer linearen Skalierung besitzt die Linie die Form einer Kurve.

Unter der Einschränkung, dass wir den unterschiedlichen Wert eines Besuchers in dieser Analyse nicht berücksichtigen, ist es üblicherweise das Ziel eines SEO, den Wert für den Sichtbarkeitsindex einer Website zu steigern und mit den zur Verfügung stehenden Ressourcen ein möglichst hohe Niveaukurve zu erreichen. Um dieses Ziel zu erreichen, kann er grundsätzlich die Anzahl indexierter Seiten steigern, oder die den Wert der SEO-Effizienz erhöhen. Natürlich ist auch eine Kombination aus beiden Maßnahmen möglich. Die SEO-Effizienz lässt sich dabei durch erfolgreiche On-Page und Off-Page Optimierung steigern. Die Anzahl indexierter Seiten lässt sich durch zusätzlichen Content erhöhen.

Wichtig für einen SEO ist es, dass er ein gutes Gefühl dafür entwickelt, wie der Sichtbarkeitsindex einer Website auf verschiedene Maßnahmen reagiert und mit welchen Mitteln sich die Sichtbarkeit am besten steigern lässt. Hierbei helfen Analysen mit dem SE-Diagramm.

Mit dem SE-Diagramm Potentiale identifizieren

Die Frage, wo die größten SEO-Potentiale einer Website liegen, kann man mit dem SE-Diagramm beantworten, indem man ein Set von mehreren Websites einträgt und miteinander vergleicht (Benchmarks). Hat man z.B. bereits ein gut optimiertes System mit einem sehr guten Wert für die SEO-Effizienz, so lässt sich die Sichbarkeit am ehesten steigern, indem man mehr Content bereitstellt und die Anzahl indexierter Seiten erhöht. Hat ein Wettbewerber hingegen einen deutlich besseren Wert für die SEO-Effizienz, so lohnt es sich, dessen Website zu analysieren und nach Möglichkeiten zu suchen die eigene On-Page und Off-Page Optimierung zu verbessern (Reverse Engineering). Das SE-Diagramm hilf dabei, erfolgreiche Wettbewerber (Best-Practice-Beispiele) zu identifizieren. Einem SEO muss klar sein, in welche Richtung er arbeiten soll und wo die größten ungenutzten Potentiale einer Website liegen.

In der folgenden Grafik habe ich vier mehr oder weniger zufällig ausgewählte Websites eingetragen, die ein sehr unterschiedliches Niveau im Sichtbarkeitsindex haben. Die Websites in diesem Beispiel stammen aus vollkommen unterschiedlichen Bereichen. Für die Analyse der eigenen Website würde man natürlich erst einmal mit dem Vergleich im direkten Wettbewerbsumfeld beginnen.

Wenig verwunderlich ist, dass die Website sistrix.de in dieser Gruppe den höchsten Wert für die SEO-Effizienz vorweisen kann. Wollte Johannes (SISTRIX) jetzt z.B. den Sichtbarkeitsindex seiner Website auf 10 Punkte erhöhen (ein ähnliches Niveau wie tchibo.de), so ist aus dem Diagramm gut abzulesen, dass dieses mit dem vorhandenen Content und nur über eine weitere Steigerung der SEO-Effizienz schwer zu erreichen ist. Würde er hingegen 20.000 weitere Seiten in den Index “schieben”, so wäre er diesem Ziel sehr nahe, solange er nicht in der SEO-Effizienz abfällt.

Ich will damit nicht ausdrücken, dass es im Falle von sistrix.de einfach wäre 20.000 weitere Seiten mit zusätzlichem Content zu produzieren. Aber für viele Websites ist es in der Tat relativ einfach, mehr Seiten mit Unique Content in der Qualität des bisherigen Angebotes für den Google-Index bereitzustellen. Oftmals liegt der Content bereit vor, wird aber nicht (vernünftig) indexiert, so dass er leicht von einem SEO “geborgen” werden kann.

Es lassen sich keine allgemeinen Empfehlungen ableiten, in welche Richtung ein SEO arbeiten sollte. Vielmehr muss anhand eines SE-Diagramms für jede zu optimierende Website unter Berücksichtigung der zur Verfügung stehenden Ressourcen die aktuelle Situation analysiert werden. Bei der Betrachtung mehrerer erfolgreicher Websites wird jedoch schnell deutlich, dass es natürliche Grenzen gibt, die den Lösungsraum einschränken. Gewisse Kombinationen aus “Anzahl indexierter Seiten” und “SEO-Effizienz” lassen sich nur schwer oder gar nicht erreichen.

Ich werde versuchen in der Zukunft hierzu einige weitere Beispiele bereitzustellen. Gerne kann sich aber auch jeder daran beteiligen, eine SEO-Kartierung des deutschen Webs zu erstellen, um Grenzen und Lösungsräume in einem SE-Diagramm darzustellen und eventuell einen “Königsweg” zu identifizieren.

Mit dem SE-Diagramm Probleme frühzeitig erkennen

Da SE-Diagramm kann aber nicht nur dabei helfen, ungenutzte Potentiale durch Benchmarking zu identifizieren. Ebenfalls ist es mit dem SE-Diagramm möglich, z.B. frühzeitig neu eingetretene Probleme einer Website zu erkennen. Wie eingangs erwähnt, wird insbesondere die Entwicklung der Anzahl indexierter Seiten oftmals nicht kritisch genug beobachtet. Durch ein Tracking der Anzahl indexierter Seiten in einem SE-Diagramm im Zeitablauf kann man beispielsweise frühzeitig Duplicate Content Probleme erkennen und gegensteuern.

In der folgenden Grafik sind die Werte einer Website zu drei unterschiedlichen Zeitpunkten eingetragen. Die Zahlen sind nicht fiktiv, sondern stammen von einem realen Beispiel aus der Praxis.

Wie man in der Grafik erkennt, hatte der Sichtbarkeitsindex der Website am 23.02.2009 einen Wert von knapp über 40 Punkten bei etwa 1,5 Mio. indexierten Seiten. In den folgenden Wochen stieg die Anzahl indexierter Seiten immer weiter an, ohne dass sich der Sichtbarkeitsindex wesentlich verbesserte. Vielmehr bewegte sich die Website bis zum 04.05.2009 fast entlang der Niveaukurve von 40 Punkten nach rechts unten. Während die Anzahl indexierter Seiten deutlich anstieg, blieb der Wert für den Sichtbarkeitsindex weitestgehend konstant, so dass ein kontinuierliches Absinken der SEO-Effizienz zu beobachten war.

Bei einem starken Anstieg indexierter Seiten ohne nennenswerte Zugewinne im Sichtbarkeitsindex ist höchste Vorsicht geboten. Es besteht die Gefahr, dass es sich bei den zusätzlich indexierten Seiten um Duplicate Content handelt. Dieses sollte möglichst früh überprüft werden, um gegensteuern zu können. In dem angeführten Beispiel verlor die Website ab dem 11.05.2009 plötzlich deutlich an Punkten im Sichtbarkeitsindex und fiel bis zum 25.05.2009 auf einen Wert unter 35 Punkte. Insgesamt hatte sich die Anzahl indexierter Seiten verdoppelt und die Website verlor bis zu diesem Zeitpunkt etwa 6 Punkte im Sichtbarkeitsindex. Nach der oben genannten Faustformel bedeutet dieses einen Verlust von ca. 200.000 Besuchern im Monat.

Wie sich herausstellte, hatte sich ein Fehler in das CMS-System eingeschlichen, so dass tatsächlich massenhaft Duplicate Content erzeugt wurde, da alle bestehenden Seiten plötzlich über eine verlinkte Suche auch mit zusätzlichen Parametern in der URL angeboten und verlinkt wurden. Inzwischen wurde der Fehler beseitigt und die Website befindet sich “auf dem Wege der Besserung”.

Das tückische an Duplicate Content Probleme ist oft, dass ein Einbruch im Sichtbarkeitsindex meist erst mit einer Zeitverzögerung von mehreren Wochen eintritt und das Problem daher zu spät erkannt wird bzw. der Zusammenhang nicht gesehen wird. Mit einem Tracking der Werte über ein SE-Diagramm lassen sich solche Entwicklungen jedoch leichter frühzeitig erkennen und analysieren.

Natürlich liefern auch andere Tools, wie z.B. die Indexierungs-Statistik in der Google-Webmaster-Zentrale, ähnliche Signale. Das SE-Diagamm soll jedoch helfen, komplexe Zusammenhänge vereinfacht darzustellen und somit für die SEO-Analyse die Wechselwirkung zwischen verschiedenen Kennzahlen besser zu verdeutlichen.

26 Gedanken zu „Das SE-Diagramm (Seiten-Effizienz-Diagramm) als SEO-Analyse-Tool“

  1. Nun, ich kann mir Namen nur bis zu 4 Buchstaben merkenm danach wird es wirklich unscharf. Frag mal meine Studenten 😉

    Schön nebenbei hast Du hier gezeigt, dass DC für einen Websitebetreiber wirklich ein Problem sein kann, auch wenn Google immer wieder gerne das Gegenteil behauptet 😉

    Das letzte Problem das jetzt noch bleibt ist, dass auch die 1 Mio Keyworddaten von Sistrix bei weitem nicht alle Suchanfragen sind. Vor allem wer lokal optimniert, wird hier schlechter abschneiden als er wahrscheinlich ist. Für “normale” Websites ist es aber wirklich eine sehr gute Methode, Respekt!

    lg, Jens

  2. Der Weisheit letzter Schluss ist es sicherlich nicht, DOCH ein guter Beginn in die richtige Richtung. Natürlich wäre ein Messen über den ROI/Deckungsbeitrag natürlich viel feiner und letzten Endes auch das einzige was zählt, doch zeigt das SE-Diagramm sehr schön einen Vergleich und man kann seine Website somit besser einschätzen. Der Kritikpunkt von Jens ist berechtigt, man sollte jedoch die vorhandenen Ergebnisse bzw. die bisherige Arbeit dafür nutzen, um sie weiterzuentwickeln und vielleicht kann man die eine oder andere Schwachstelle noch entfernen (vielleicht könnte jemand anderes eine größere Datenbasis zur Verfügung stellen ;o)

    Exzellente Arbeit, toller Beitrag – gratuliere!

  3. Ich sehe bei der Formel ein grundlegendes Problem:

    Wenn ich das richtig sehe, funktioniert der Sistrix Sichtbarkeitsindex so, dass eine bestimmte Anzahl an Suchbegriffen (n) bei den Suchmaschinen abgefragt wird und aus den Positionen in den Trefferlisten der Index berechnet wird.

    Wenn meine Webseite mehr Seiten (m) hat als Sistrix Suchbegriffe (m>n) und ich theoretisch bei allen n Suchbegriffen auf Platz 1 stehe, schlage ich in dieser Betrachtung an die Obergrenze. Trotzdem bringen zusätzliche Seiten mehr Traffic, weil eben die Anzahl der von Menschen eingegebenen Suchbegriffe (x) grösser ist als die im Sistrix Index (x>n), genau genommen geht x sogar gegen unendlich. (Wenn ich mich recht erinnere hat Google jederzeit fast 20% Suchanfragen die sie noch nie zuvor gesehen haben)

    Nehmen wir jetzt mal ein Extrembeispiel mit Meyers Lexikon online (RIP), einer Webseite mit extrem viel Content und vielen Seiten. Keinerlei Ausrichtung auf ein bestimmtes Themengebiet. Für viele Lemmata gab es nicht mal 200 Suchtreffer bei Google. Für stark umkämpfte Suchbegriffe wie “Versicherungsvergleich” war die Webseite praktisch nicht vertreten, dafür bei sehr ungewöhnlichen und langen Suchanfragen. Daher ist die Abbildung im Sistrix Sichtbarkeitsindex ungenügent.

    (so weit eine ausführliche Darstellung zu der Anmerkung, die auch schon Jens oben gemacht hat)

    Kurz: teile eine “weiche” Zahl durch eine harte Zahl (Seiten im Index) und es kommt wieder eine “weiche” (d.h. nicht mathematisch und statistisch belastbare) Zahl dabei raus.

    Für bestimmte Einzelfallbetrachtungen wie im letzten Absatz dargestellt mag dieses vorgehen funktionieren, man kann sich aber eben nicht drauf verlassen. Meine Seite kann genau die gleichen Probleme haben, ohne dass es in diesem Diagramm sichtbar wird. Und umgekehrt.

    Wenn man mehr Daten über eine Webseite hat, kann man sicherlich sinnvollere Betrachtungen anstellen. Z.B. PI/Seiten im Index, PI/Visit, Verteilung der Visits auf Keywords und Entwicklung dieser, etc…

  4. Hallo,

    für mich viel zu viel Info so früh am Morgen. So über den Daumen gepeilt glaube ich nicht, dass man über das Verhältnis von Größe einer Webseite zur Sichtbarbarkeit bzw. Auffindbarkeit irgendwelche brauchbaren (Vergleichs-)ergebnisse erzielen kann. Nicht einmal bei Webshops…

    Grüße

    Gretus

  5. @Torben: Eine Stichprobe von ein paar Tausend Personen reicht aus, um den Ausgang der Bundestagswahlen ziemlich genau vorauszusagen, obwohl es deutlich mehr Wähler gibt als befragt werden. Nach meinen Beobachtungen und Gesprächen mit Betreibern von über 20 Websites aus den Top 200 ist der Sistrix Sichtbarkeitsindex eine sehr harte Währung. Aber es geht bei dem Modell ja auch nicht darum die allgemeingültige “Google-Formel” zu finden, oder Google Analytics ersetzen zu wollen, sondern die Qualität von SEO-Analysen durch zusätzliche Betrachtungswinkel zu verbessern.

  6. Ja, es geht bei all diesen Tools darum, die Qualität der Analysen zu verbessern. Das ist ein bisschen (eigentlich ganz viel) so wie beim Handel an der Börse mithilfe der technischen Analyse. Dort versucht man auch aus mathematischen Mustern im Kursverlauf Aussagen abzuleiten, wie sich der Kurs wohl in Zukunft entwickeln wird. Jeder, der sich damit auseinandersetzt kann früher oder später diese Signale deuten. Aber ein erfolgreicher Händler wird man deswegen noch lange nicht 😉

    Trotzdem sind neue Ansätze in der Analyse sehr wichtig. Ohne sie können wir gar nichts sagen. (Oder wir müssten ein Orakel befragen ;))

    Wir sehen uns morgen 🙂

  7. Meiner Erfahrung nach führt Duplicate-Content auf der selben Domain eher zu einen (stetigen) Sinken der angezeigten indexzierten Seiten. Was nach der Formel (wenn ich es richtig verstehe) zu einen “SE”-Anstieg führen würde.

  8. Ein grundlegendes Problem ist doch der Fakt, dass Google 20% der Googlesuchen vom Vormonat nicht einmal kennt. Das war schon schlimmmer, doch muessten die Tools jeden Monat 20% mehr Keywords hinzufuegen um nur annaehernd in den Bereich einer treffenden Aussage zu kommen.
    Das ist bisher noch ein bisschen nach dem Schrottflintenprinzip: Man schiesst halt mal ne Ladung in den Wald und hofft ein Reh zu erwischen. Wie auch immer…die Tools sind zu einem bestimmten Grad nutzvoll.

  9. Hallo Hanns,

    erst einmal grandioser Artikel. Nur mal zur Bestätigung deiner Aussagen 3 Punkte Sistrix Sichtbarkeit ~ 100.000 Besucher. Aus einem kleineren Projekt mit einer Sichtbarkeit von durchschnittlich 0,2 für den Monat Mai haben wir über Analytics 6.604 eindeutige Besucher zuordnen können. Wären wir bei diesem Projekt bei einer Sichtbarkeit von 3 hätten wir ca. 99.060 Bescuher gehabt.
    Beste Grüße
    Alexander

  10. Moin Hanns,
    kann Alexander 100% zustimmen habe nen Projekt mit einer Sistrix Sichtbarkeit von 1,48 und im Monat 51.186 Besucher. So “PI mal Daumen” passt es. War mir vorher garnicht aufgefallen. Vielen Dank für den Artikel.
    Viele Grüße,
    littleSeo

  11. Hallo Hanns,

    während im ersten Artikel noch die SEO-Effizienz verschiedener Websites verglichen wurde, wird jetzt jede Website für sich genommen betrachtet, und hier dann konkret die Suchmaschinen-Sichtbarkeit in Abhängigkeit von der Anzahl der Unterseiten.

    Dieser Ansatz ergibt für mich mehr Sinn! Die optimale Seitenanzahl kann nur für jede Website individuell ermittelt werden, denn sie ist abhängig von Art und Menge des vorhandenen Contents.

    Bei Gelegenheit werde ich dazu weitere Überlegungen veröffentlichen.

    Beste Grüße
    Michael

  12. Wieder einmal ein neuer Indikator zur Beurteilung einer Website. Nachdem was geschrieben wurde scheint es Sinn zu machen, aber wieder einmal ein Indikator mehr – Puhh.
    Aber es ist nie so leicht, wie es auf den ersten Blick scheint. Die vielen individuellen Variablen, die mit hineinspielen sind zu umfangreich als das man sie in einer "Zahl" festhalten kann.

  13. Hallo SEO-Experten –
    Ich habe den Beitrag mit großem Interesse gelesen. Wir beschäftigen uns aktuell für unsere Autoteile Suchmaschine “daparto” (www.daparto.de) mit der Erhöhung des Sichtbarkeits-Index bzw. dem Thema Natural Search Optimierung. Zwar haben wir in der Vergangenheit mit einigen SEO Agenturen in Berlin gesprochen; aufgrund der Komplexität des Themas “Ersatzteile” (my personal guess)gab es jedoch bisher noch kein gutes Konzept, wie man das extrem long-tailiges Thema am besten hebt und treibt. Evtl. hat jemand von Ihnen (bezahlte) gute Ideen, daparto mit uns gemeinsam weiter nach vorne zu bringen.
    Herzliche Grüße aus Berlin
    Christian Koeper

  14. Der SVR von Sistrix ist ja immer ein relativ guter Wert. Hast du die Berechnung auch schon mal mit dem Seolytics Daten verglichen. Hier ist momentan der Keywordpool größer..

  15. Hochinteressant, gerade beim DC ist eine frühe Erkennung sicher sehr hilfreich, wobei sich natürlich z.B. bei Onlineshops die Katze selbst in den Schwanz beißt. Oft werden Daten automatisch übernommen, eigener Content ist nicht selten rar und man hat nur zur Hand, was der Hersteller liefert. Andererseits will niemand gerne sein Angebot einschränken, weil es DC Probleme gibt. Da sich die meisten über diese Problematik im Vorfeld kaum Gedanken machen, wird es ab einem gewissen Punkt verdammt schwierig, das Malheur zu beheben…wohlgemerkt mit einem Aufwand der finanziell vertretbar ist.

  16. Also ich kann da Sebastian nur zustimmen. Durch die Anzahl der neuen Suchwörter pro Monat wird dieser Index nie wirklich harte Zahlen liefern und der Vergleich mit den Wahlen mag plausibel klingen, jedoch ist es doch im Endeffekt ein viel kleiner Gruppe die hier geschätzt wird.

  17. Prima Artikel! Letztendlich zählt aber doch die Converersion Rate. Insofern wäre es sicherlich hilfreich diese im SE Diagramm zu berücksichtigen. Denn was nützt die höchste Sichtbarkeit, wenn Sie auf Suchbegriffen die Unterseiten landing pages basieren, die nicht zum Erfolg / Conversion führen?

Kommentare sind geschlossen.