Wie groß sollte der Anteil der eingehenden Backlinks (Links von anderen Websites, die auf die eigene Webpräsenz gesetzt werden) auf die Startseite sein? Wie groß sollte entsprechend der prozentuale Anteil Backlinks auf Unterseiten sein, damit Google das Signal für ein natürliches Linkprofil bekommt?
Mich überraschte es dieses Jahr ein wenig, dass es hierzu offenbar gegensätzliche Meinungen gibt. Einigkeit besteht darin, dass ein Backlink-Profil möglichst natürlich aussehen soll. Dementsprechend sollte auch das Verhältnis der Backlinks natürlich aussehen, die auf die Startseite und auf Unterseiten verweisen. Ansonsten läuft man Gefahr, dass bei Google eine rote Warnlampe angeht und die Website wegen unnatürlichem Linkaufbau in einem Filter landet. Aber welche prozentuale Verteilung ist ein Signal für einen natürlichen Linkaufbau?
Persönlich bin ich immer davon ausgegangen und praktiziere es seit Jahren, dass insbesondere bei neuen Domains mindestens 50 Prozent der Links auf Unterseiten gehen sollten, damit ein natürliches Linkprofil gegeben ist. Bei etablierten und gut verlinkten Marken-Websites kann der Wert auch geringer sein, da in diesen Fällen die Startseite naturgemäß häufiger verlinkt wird.
In der erstem Ausgabe des neuen Magazins WEBSITE BOOSTING habe ich die gegenteilige Meinung gelesen. Gerade weil WEBSITE Boosting eine hervorragendes Magazin mit sehr guten und profunden Inhalten ist, dessen Abo ich jedem nur empfehlen kann, irritierte mich dieser eine Satz.
Dort steht auf Seite 30 in der Checkliste im Anschluss des Artikels “So machen Sie sinnvollen Linkaufbau!” als Punkt 3:
Allen anderen Punkten in der Checkliste kann ich uneingeschränkt zustimmen. Aber sind mehr Links auf die Startseite oder mehr Links auf Unterseiten natürlich?
Ich hoffe, es nimmt mir niemand krumm, wenn ich die beiden Meinungen zur Diskussion gegenüberstelle. Das soll in keiner Weise eine Kritik an WEBSITE BOOSTING oder Prof. Dr. Mario Fischer sein, der den Artikel geschrieben hat. Insgesamt finde ich den Artikel und das ganze Magazin hervorragend. Mir ist wirklich wichtig, dass das hier nicht falsch verstanden wird. Mario selbst weiß am besten, dass ich seine Fachmeinung immer sehr schätze. Vielleicht finden wir am Ende der Diskussion ja auch heraus, dass beide Meinungen ihre Berechtigung haben und man fallweise unterscheiden muss. Das vorausgeschickt, kann eine Diskussion unterschiedlicher Standpunkte für alle nur nützlich sein. Gerade SEO-Anfänger haben über das Thema vielleicht noch nie nachgedacht.
Ist das Deeplink-Ratio ein (wichtiges) Qualitätskriterium?
Zuerst sollten wir uns fragen, ob das Verhältnis der Backlinks auf Startseite und Unterseiten tatsächlich ein (wichtiges) Qualitätskriterium aus der Sicht von Google ist. Aus mehreren Gründen gehe ich stark davon aus:
- Vor ein paar Jahren veröffentlichte das Team von StomperNet (Herausgeber der amerikanischen SEO-Zeitschrift “The Net Effect”) Empfehlungen auf Grundlage eigener Forschungsergebnisse, wonach neue Websites, bei denen mehr als 50 % der Backlinks auf die Startseite zeigen, bei Google häufig in einen Filter geraten. Das Team von StomperNet rund um Brad Fallon und Andy Jenkins erklärte diesen Filter sogar zu der Ursache für den berühmten Sandbox-Effekt. Wohlgemerkt wird von einem Effekt gesprochen, der in seinen Auswirkungen den Anschein erweckt, als gäbe es eine Sandbox für neue Domains. Sie gehen allerdings davon aus, dass viele neue Domains am Anfang hauptsächlich Backlinks auf die Startseite sammeln und damit in einen Google-Filter geraten. Sie empfehlen bei neuen Websites mindestens 50 Prozent der Backlinks auf Unterseiten zu setzen, damit sie ein natürliches Linkprofil haben und nicht der Sandbox-Effekt eintritt. Nach der Theorie gibt es also keine Sandbox für neue Domains, sondern viele neue Domains machen einfach nur den gleichen Fehler im Linkaufbau und geraten dabei in einen Google-Filter. Leider habe ich den Tipp nur auf einer Trainings-DVD und kann ihn hier nicht als Link anbieten. Insgesamt würde die Theorie sehr gut zu den Aussagen von Matt Cutts zur Sandbox passen:
In reply to a question from Brett Tabke, Matt said that there wasn’t a sandbox, but the algorithm might affect some sites, under some circumstances, in a way that a webmaster would perceive as being sandboxed.
- Die Sistrix Toolbox bietet bei der Auswertung der Backlinks für jede Domain Werte für die Deeplink-Ratio, also das Verhältnis Backlinks auf Startseite und Unterseiten an (Backlinks > Überblick > Button “PageRank-Werte ermitteln” klicken). Ich bin mir sicher, dass Sistrix diese Werte nicht nur zum Spaß ermittelt.
- Meine persönliche Erfahrung aus eigenen Projekten ist auch, dass sich der Sandbox-Effekt vermeiden lässt, wenn man beim Aufbau einer neuen Domain auf genügend Backlinks auf Unterseiten achtet.
- Auch Aaron Wall von seobook.com spricht in seinem Artikel “What is Deep Link Ratio?” von dem prozentualen Anteil Backlinks, die nicht auf die Startseite gehen, als Kriterium für ein natürliches Linkprofil. Er geht ebenfalls davon aus, dass Websites mit einer hohen Deeplink-Ratio tendenziell ein natürlicheres Linkprofil besitzen:
The theory with the deep link ratio is that sites with a higher deep link ratio typically tend to have a more natural link profile.
- Last but not least ist auch Mario der Ansicht, dass das Verhältnis Backlinks auf die Startseite zu Backlinks auf Unterseiten ein wichtiges Qualitätskriterium ist. Er führt es in seiner Checkliste an Position 3 auf. Auch wenn die Position keine Bedeutung für eine Gewichtung haben muss, so ist es immerhin einer von 14 Punkten der Checklist, auf die man im Sinne eines sinnvollen Linkaufbaus unbedingt achten sollte. Mario ist immer sehr gut informiert und unterhält sich mit vielen interessanten Leuten aus der Suchmaschinen-Industrie. Wenn er diesen Punkt als Qualitätssignal nennt, sollte jeder SEO unbedingt aufhorchen und die Werte für seine Websites beobachten.
Damit der Artikel nicht zu lang wird, möchte ich an dieser Stelle Teil 1 beenden. In den nächsten Tagen gibt es dann hier im Blog “Deeplink-Ratio als Qualitätssignal – Teil 2“. Im zweiten Teil möchte ich darüber schreiben, warum meiner Meinung nach ein hoher Anteil Backlinks auf Unterseiten tendenziell einem natürlichem Linkprofil entsprechen. Dabei sollte auch zwischen neuen und etablierten Websites unterschieden werden bzw. die Kombination mehrerer Signale Berücksichtigung finden. Gerne lasse ich mich aber auch eines Besseren belehren. Auf jeden Fall freue mich auf Eure Erfahrungen, Meinungen und Kommentare.
Deeplink-Ratio als Qualitätssignal – Teil 1
Deeplink-Ratio als Qualitätssignal – Teil 2
Ich bin absolut deiner Meinung: Ein hoher Deeplink-Anteil ist IMHO essentiell für einen guten Linkaufbau. Ich habe aktuell einen Neukunden hier, der bisher einen Startseiten-Anteil von 65% hat, während die beiden wichtigsten – und fast überall besser platzierten – Konkurrenten einen Startseiten-Anteil von 17% bzw. 18% haben.
Hi Hanns! Ich denke, gerade die Deeplink-Ratio ist eine der Kennzahlen, die man auf keinen Fall losgelöst vom Projekt festlegen kann. Eine Newssite kann auf natürlichem Weg 80% der Links auf Unterseiten kriegen, was ja nur logisch ist: hier wird der Artikel verlinkt, nicht die Startseite. Bei textlastigen Sites wie Blogs oder ählichem ist es auch natürlich, wenn etwa 60% der Links auf Unterseiten gehen. Bei konversionsfokussierten Sites, deren Unterseiten meist Buchungsmasken, Ergebnisseiten oder ähnliches sind, sollten mindestens 50% der Links auf die Startseite gehen. Alles andere sieht schon stark nach SEO aus. Daher wie immer beim SEO: depends on… 🙂
Sehe das wie Astrid. Für alle Ranking”tipps” gibt es einzelne Beispiele, die scheinbar einer Regel zuwider laufen. Man muss das denke ich in anderen Zusammenhängen sehen. Es gibt sicher nur wenige Einzelfaktoren, an denen Suchmaschinen das Spam- oder Manipulationsettiket direkt ankleben. Dort arbeite man vielmehr mit vielen Regeln, deren Grad des Zutreffens und in Summe kann man eine Manipulationswahrscheinlichkeit berechnen. Wenn eine Site mehr Deeplinks hat, fliegt sie deswegen noch lange nicht aus dem Index oder hätte eine schechte Qualität. Let´s face it: Google hat einen verdammt guten Überblick, welche Linkverhältnisse (deep/root, Domainname oder Keyword auf Links und ob die deep oder root linken, Hochwertige vs. Crap-Links, follow/nofollow etc) und kann sicher auch Sites unterscheiden, die ständig viel Content produzieren (z. B. Spiegel, bei dem NATÜRLICH Deeplinks völlig normal sind) und Sites, die 50 Seiten groß sind und einem Maschinenbauunternehmen gehören…
Es gingt in dem Artikel darum, wie man richtig (d. h. stabil, sauber und vorsichtig!) Linkaufbau macht. Und da sind sich die Experten schon so ziemlich einig, dass ein natürliches Verhältnis die beste langfristige Strategie ist. Aus meiner persönlichen Erfahrung kann ich sagen, dass viele “normale” Durchschnittsdomains in der Regel deutlich weniger Deeplinks haben. Einen vollen Überblick hat wohl nur Google, Yahoo und Bing. Es kann aber nie schaden, vorsichtig zu sein – wir wollen mit dem Magazin keine Tipps geben, die zu nah an der Bahnsteigkante sind.
Fazit: Man sollte einzelne Empfehlungen nicht singulär betrachten. Gegenbeispiele gibt es immer, da die Summe der Kennzahlen den Ausschlag gibt und sicher auch einen Menge “wenn-dann” Regeln. “Wenn eine Domain mehr als x Jahre y Backlinks hatte und sich die Anzahl in einem Zeitraum von z Wochen um mehr als w% erhöht UND die Anzahl der Deeplinks über q% liegt – dann prüfe weitere Spamregeln.” Wäre sicher keine allzudämliche vorgeschaltete Regel, die eine intensivere Prüfung auslöst und damit Manipulationen zu r% erkennen kann. Und die Komplexität dieser einfachen Regel zeigt schon, dass man nicht einfach nur mit einer Zahl operieren kann.
😉
Gut ist immer sich BL Profile von Hobbyseiten mit viel Traffic ohne SEO Gedanken anzuschauen. Da kann man sich eine gute Meinung bilden. Ich für meinen Teil denke, dass da viele viel zu SEOlastig denken und Google viel toleranter ist als manche vorgeben zu glauben
@Seonaut: Das denke ich auch. Siehe mein Posting von eben. Für ein langes Leben in den SERPs
ist sicher trotzdem nicht schlecht, eine gewissen “Grundparanoia” zu behalten. Was heute schnell und kurzfristig geht bzw. von den Algos toleriert wird, kann sich bei ein paar Vierteldrehungen an mehreren Schrauben schnell heftig auswirken.
Ist ja auch immer ein Unterschied, ob man an einer eigenen Affiliate-Seite rumschraubt oder die Verantwortung für eine Kundendomain hat…
Schon einmal Danke für die guten Kommentare von Stefan, Astrid, Mario und dem SEOnaut. Ich nehme den Input gerne im zweiten Teil auf.
Also ich spreche da mal auch in der gleichen Richtung wie meine Vorschreiber. Ich denke es ist eine Frage, wieviele Seiten man hat, die verlinkungswürdigen Content haben. Habe ich nur direkte Bestellseiten ist es unwahrscheinlicher eine hohe Deeplinkratio zu haben. Je mehr spannende Inhalte ich aber habe, über die man reden und schreiben kann, desto höher kann die Deeplinkratio sein. Daher auch das Problem vieler Ecommerceprojekte. Wer verlinkt denn freiwillig auf die Bestellseite eines Produktes? Entweder jemand der sagt: Guck mal, da gibt es das günstiger oder hier habe ich das bestellt, oder ein SEO 😉
Habe ich aber eine Seite, die erklärt wie ein Produkt funktioniert, es vielleicht mit anderen vergleicht und so auf irgendeine Art einen Mehrwert bietet erhöhe ich die Verlinkungschancen. Bis hin eben zu Inhalten, die nicht nur empfehlenswert sind, sondern Das Potential haben darüber zu diskutieren. Daher, es gibt kein natürtliches Linkprofil für Webseiten. Wenn dann gibt es eher natürliche Verlinkungsprofile für Arten von Content 😉
Ja, ich bin derselben Meinung wie Astrid. Wie ein Verhältnis Startseitenlinks zu Deeplinks natürlich wirken kann, hängt von der Ausrichtung der Seite selbst ab. Bei Blogs oder Newsseiten sind Deeplinks normal, bei Seiten von KMU eher Startseitenlinks. Ich halte Google für intelligent genug, dies zu erkennen und entsprechend zu werten.
Die Sache bei dem Linkaufbau ist ja im Normalfall folgende:
Man baut Links auf um die Domain zu stärken und man baut Links auf um für bestimmte Keywords zu ranken. Die Links für die Stärkung gehen oft auf die Startseite. Die Links für Keywords auf die Landingpage. Und diese ist meist eine Unterseite. Daher ist der Aufbau den ein SEO betreibt im Normalfall genau so, wie oben vorgeschlagen.
Aber klar, am Ende kommt es immer auf den Einzelfall an.
Den idealen Linkaufbau gibt es nicht, genauso wenig wie es auch nur eine annähernd kommunizierbare Zahl gibt, die ein vernünftiges Verhältnis von Index-/Deeplinks widerspiegelt. Es ist schier die Qualität (Trust) der Backlinks, die für das Ranking verantwortlich ist in Abhängigkeit mit der Zeit, in der sie gesetzt wurden.
Das Problem dabei ist einfach, dass der Linkaufbau “authentisch” aussehen sollte. Es ist vollkommen egal, ob X neue Links auf eine Index zeigen oder sich auf Unterseiten verteilen, solange die Verlinkungen für Google nachvollziehbar sind.
Meine Erfahrung ist, dass man sich absolut keine Gedanken darum machen muss, ob ein Link auf die eigene Startseite oder Unterseite zeigt. Der einzige Kniff ist, an trusted Links heranzukommen – jedenfalls in umkämpften Bereichen. In Nischen lässt sich auch ohne solche Links erfolgreich arbeiten.
Leute die anderes behaupten sollten sich einfach mal die Links von Webseiten anschauen, die auf diverse Money-Keys optimiert sind. Dort wird seit Jahren erfolgreich nach dem gleichen Muster gearbeitet.
Generell halte ich es wie der SEOnaut. Einfach mal die SEO-Brille abnehmen…
Jaja, der Mix macht’s. Wer es wirklich organisch haben will, der baut aber auch nicht über lange Zeiträume 50/50 auf. Denn das ist dann auch wieder unnatürlich. Google geht bei diversen Faktoren immer mehr auf auf den zeitlichen Zusammenhang ein (Vermutung). Wenn man ein Jahr lang genau 50/50 aufbaut, einen auf die Unterseite, danach einen auf die Startseite, so fällt das sicher auf bzw. könnte durch einen Algo gefiltert werden. Bei den plötzlichen Spikes ist es auch so. Nur weil eine Website in einem kurzen Zeitraum viele Links bekommen hat, heißt das nicht automatisch, dass sie jetzt bis in alle Ewigkeit gute Rankings für alle möglichen Begriffe haben sollte (Link Building Normalization).
In der ganzen Diskussion geht es darum, mögliche (denkbare) Filter zu vermeiden. Nicht etwa darum ein besseres Ranking zu bekommen. Man könnte auch sagen, es geht darum, ein gutes Ranking nicht zu „verhindern“. Das ist es ja auch was Mario ständig predigt. Und das ist auch richtig so. Wie Matt Cutts so schön in eines seiner Videos sagte (sinngemäß). „Googles Rankingfaktoren haben sehr viel mit gesundem Menschenverstand zu tun. Das Geheimnis liegt in der Zusammensetzung dieser Faktoren.“ – YouTube – What signals are used in ranking other than PageRank?
Ich glaube dennoch, dass ein wenig sachliche Kritik berechtigt ist, denn Anfänger können oder werden das in der Regel nicht richtig interpretieren. Sie setzen sich jetzt hin und halten sich stur an diese Anweisungen/Tipps. Das ist vielleicht nicht immer optimal, aber es ist besser, als gar keine Richtlinien zu haben. Man müsste jeden Satz durch drei weitere Sätze absichern, um es immer 100% richtig zu sagen. Aber das ist für Schreiber und Leser zu ermüdent. Solche Checklisten sind schöner anzusehen und machen das Heft auch hübscher. Das ist auch sehr wichtig.
Gute Checklisten retten Leben. Was könnten sie noch alles tun? Annals of Medicine: The Checklist : The New Yorker) Vielleicht bewahren sie uns auch vor dem Ranking-Tod von Websites? 😉
Naja man sieht schon oftmals auch bis zu 80% auf die Startseite. Bei bestimmten Keywords scheint das auch zu funktionieren, immerhin sind die Seite dich ich kenne dauerhaft auf Platz 1.
Btw wer Interesse an meiner Domain und Seite hat kann sich gerne melden, Sie wird aus Zeitgründen verkauft.
zunächst muss ich dem SEOnaut zustimmen, im Bereich SEO ist sehr viel (un)gesundes Misstrauen vorhanden und vieles wird sehr überschätzt. Ich denke man muss unterscheiden, ob es sich um neue Links handelt, oder man auf ein altes vorhandenes Linkbild schaut! Nur mal als Beispiel: einer unserer ältesten SEO Kunden (seit 1998) hatte bis vor 2 Jahren einen Auftritt, der per frames aufgebaut war. aus der Anfangszeit gibt es daher hunderte Links, die auf die Startseite zeigen, weil das Verlinken von Unterseiten erstmal nicht wirklich Sinn gemacht hatte (später wurde das Frameset dann nachgeladen, wenn Einzelseiten aufgerufen wurden). Daher hat dieser Kunde über 90% Startseitenlinks. Das ist historisch einfach so gewachsen und tut den Positionen keine Abbruch! Die Seite bewegt sich im Bereich Immobilien (+Land, + Regionen, +Städte) und rankt für diese Kombis und im gesamten Longtail fast durchweg TOP3, seit vielen Jahren stabil! Der Linkaufbau bewegt sich bei +-5 Stück pro Monat, zzgl. 10-15 natürliche Empfehlungen, die wiederum zu über 80% auch die Startseite verlinken.
Ich habe noch einige andere Beispiele, die das gleiche Bild zeigen. beispielsweise eine Seite aus dem Energiesektor (Strom&Gas). Da haben wir vor Jahren schon mal ein Widgetbait aufgesetzt, dass nach wie vor super läuft und mittlere 2-stellige Linkzuwächse pro Monate schafft. In dem Widget ist ein Verweis zum “Urheber” und der geht auf die Sartseite!!! Damals haben wir die Deeplinkratio ehrlich gesagt einfach nicht mit in die Strategie einkalkuliert. Das projekt rankt nach wie vor TOP und hat eine grandiose Visibilty, bei einem Anteil Startseitenlinks von über 80%.
Auf der anderen Seite haben wir auch eigene und Kundenprojekte im Portfolio, wo ich teilweise davon ausgehe, dass die Ratio sehr wohl eine Rolle spielt bzw. gespielt hat, weil nach Anpassung des Quotienten sehr deutliche Erfolge zu sehen waren. Aber wie immer im Bereich SEO kann man keine 100%-ige Aussagen darüber machen, denn mit dem setzen von Links verändere ich zig Faktoren bzw. Kennziffern, die für das Ranking ausschlagebend sind: Linkpop, IPpop, Domainpop, Anchortext-Ratio, Deeplink-Ratio, (idealerweise) Trust etc…..
Ich denke dass die Diskussion um diese Verhältnis auf das gleiche wie Schlüsselwortdichte führt. Eine optimale Zahl oder eine Spanne zu finden wird sehr schwierig sein. Neben der Tatsache das wir Google so einiges an Wissen zuschreiben, welches sie wirklich nicht haben und auf keinen Fall als Offpage Faktor benutzen. Ich will nicht sagen dass Google nicht weiss wie viele Deeplinks und wie viele HP Links wir haben, aber das Verhältnis sollte kein wichtiger Faktor sein, weil nur bei der groben Aufteilung auf Deeplinks und HP Links ein großer Fehler gemacht wird – es wird die Linkqualität vergessen. Wenn also die HP 100 Bloglinks hat und zwei Unterseite jeweils 5 Links haben, aber diese aus Online-Zeitungsartikeln stammen, dann kann die Verteilung wohl nicht 90/10 heissen. Deswegen würde ich mich nicht darum sorgen wie das Verhältnis steht sondern was für Links ich bekomme.
Die Ratio Startseite-Unterseiten spielt auf jeden Fall eine Rolle, allerdings funktionieren auch genügend Seiten mit >80% auf die Startseite.
Schönen guten Tag,
als erstes Stelle ich mir die Frage, ob wir hier rein von Backlinks reden oder auch die internen Links mitgezählt werden.
Meiner Meinung und Erfahrung nach sind 50% und mehr auf die Startseite sinnvoll. Grund hierfür ist das normale Vorgehen eines Nicht-SEOlers. Denn Wenn wir eine Webseite haben, welche sich z. B. Kleidung handelt, werden die meisten Webseiten-Inhaber, die auf unsere Seite linken sich nicht die Arbeit machen und eine bestimmte Unterseite heraussuchen, sondern einfach allgemein auf die Hauptseite verlinken, außer wenn es um ein spezifischen Themenbereich geht z. B. bei Kleidung um Unterwäsche.
Folgende Vorgehensweise kann ich empfehlen. 50% der Backlinks auf die Startseite schießen. Dafür muss die Startseite aber auch so aufgebaut sein, dass der User und Tante Google leicht von dort aus auf die Unterseiten springen kann.
Die restlichen Links dann auf Unterseiten schießen aber am besten aus Beiträgen (Blogs) welche sich dann spezifisch mit dem Themenbereich der Unterseite befassen.
Im Allgemeinen kann muss man jedes Projekt einzeln bewerten. Wenn ich eine Aussagekräftige Startseite habe ist ein Prozentsatz von 50% und mehr sinnvoll. Wenn die Seite jedoch keine Aussagekräftige Startseite besitzt (nur ein Bild oder ähnliches) und dafür ein paar sehr sehr wichtige, starke und aussagekräftige Unterseiten besitzt, dann würde ich die andere Variante verwenden.
Auch ich habe den Beitrag zum Thema in der WebsiteBoosting gelesen und es erscheint mir plausibel. Eine andere Frage die mich beschäftigt sind die internen Verlinkungen – auf einer Webseite.
Gibt es auch hierfür einen Anteil wie oft innerhalb der Webseite hin und her verlinkt sein darf?
ahh da is bei dir aber nen böser Spam durchgekommen (mein Vorkommentierer) – dieser Kommentarspam wäre meiner Meinung nach auch mal nen Beitrag wert!!! Geben die den Mist manuell ein oder wie kommen die immer an dem Spamschutz durch?!?
Ich denke der Branchen-Ratio ist ein guter Anhaltspunkt für den eigenen Linkaufbau und für ein natürliches Verhältnis. In weitere wichtiger Faktor ist meiner Meinung nach der Zeitraum in dem Backlinks generiert werden. Kurzfristig schnell viele Backlinks aufbauen kann dann auch den Ratio-Wert negativ beeinflussen. Ein natürlicher Ratio-Wert sowie langfristiger Linkaufbau halte ich für eine gute Strategie.
ich bin mir sicher, dasses nicht den natürlichen Linkaufbau gibt, aber es stimmt, dass man ein vernünftiges Verhältnis nutzen sollte. Bei unseren Projekten verlinken wir stets im Team (mds. 4 Personen; Zeitfenster 2-3 Wochen), so dass die gesetzten Links wahllos und zeitlich nicht abgestimmt sind. So erreichen wir ein ganz gutes Verhältnis und kommen der Natürlichkeit schon sehr nahe. Außerdem glaube ich, dass die Entwickler der Algorithmen genau wissen, wie SEO`s arbeiten und es auch nicht unbedingt verhindern möchten/ können. Programmierer und SEO`s sind doch eigentlich Mitglieder einer Familie.
Hallo
Sehr interessanter Artikelbeitrag und interessante Diskussion.
Wenn ich mir diverse E-Commerce Websites, also Shopseiten, anschaue, dann wird dort hauptsächlich oder sogar zum Teil zu 85 oder mehr Prozent nur auf die Startseite gelinkt und dennoch stehen diese Shops auch mit diversen Unterseiten ganz gut da. Dies mag auch am Alter der Shops liegen, dennoch bin ich daher ebenfalls der Meinung, dass dabei, wie immer, viele Faktoren zum Tragen kommen.
Beispielsweise werden dementsprechend bei Blogs bzw. CMS Systemen usw. mehr Deeplinks gesetzt, als wie bei Shopsystemen, denn dort wird, wie ein oder mehrere Vorredner bereits meinten, verstärkt auf die Startseite gelinkt, da der Shop, aus Sicht der Kunden, meist als ganzes dargestellt werden soll.
MfG
D. Hoffmann
Es könnte daran liegen das der Alorhytmus eben ein bischen komplizierter ist
Die SPekulationen über die Programmierer von google:-)
Guter Artikel, aber auch hier wird mir google wieder zu sehr als eigenständige Maschine dargestellt.
Google folgt letztlich nur von leuten wie euch eingegebenen kriterien.
grundsätzlich hat eine “natürliche” webseite auch links auf der unterseite.
der gedanke, der letztlich hinter diesem kriterium steckt ist, dass google große seiten bevorzugeen möchte. und eine eine große seite hat eben nicht nur auf der startseite etwas zu bieten. für keine seiten kann es durchaus sein, dass nur links auf die startseite sinnvoll wären, weil der übrigen content von dieser startseite gprägt und abhängig ist. bei goßen, vom gesamtcontent unabh. seiten ist es aber anders. insofern machen da in der theorie links auf unterseiten sinn.
und weitergedacht..wenn die seite groß ist, prestigereich etc. dann muss zwangsläufig auf den unterseiten insg. mehr zu bieten sein als auf der index. also macht der gedanke auch insgesam sinn für einen googleprogrammierer, der wirklich die großen portale und co bevorzugen möchte.
Danke für den interessanten Artikel.
In wie weit spielt bei dem externen Linkverhältnis die interne Verlinkung möglicherweise auch eine Rolle?
Die interne Verlinkung wird doch mit Sicherheit eine wensentliche Rolle einnhemen?!
Ich danke dir sehr für diesen Artikel. Mir war gar nicht so sehr bewusst, dass Links auf Unterseiten so wichtig sind. Bisher wurde fast ausschließlich auf die Hauptseiten gelinkt. Ich werde da wohl für die Zukunft meine Strategie was ändern. danke dir.
Ich danke dir für die Checkliste.. Hat mir sehr geholfen.. komme gerne wieder
Vielleicht kann hier jemand diese Frage beantworten. Unsere Indexseite hat einen Pagerank von 2, manche Unterseiten einen Pagerank von 3 und 4. Wie kommt es das die Startseite einen kleineren Pagerank als einige Unterseite hat?
@Herr Laser:
Ohne jetzt eine nähere Analyse durchzuführen….. dies wird wahrscheinlich daran liegen das auf die diversen Unterseiten vereinzelt mit hohem Pagerank verlinkt wurde, auf die Startseite (Index-Seite) hingegen viele eingehende Links mit niedrigem Pagerank verlinkt worden sind. Dies zieht dann die übrigen Links mit hohen Pagerank herunter
Der Pagerank sollte jedoch ohnehin nicht überbewertet werden.
@ Dennis
Danke für den Tipp, war aber nicht der Fall. Nach dem letzten Pagerank-Update von Google hat sich der Pagerank unserer Startseite angepasst.
Das ist ja wirklich eine Wissenschaft für sich. Auf jeden Fall ist dieser Artikel und die Kommentare sehr hilfreich. Die These “Pagerank ist nicht alles” deckt sich auch mit meinen Erfahrungen. Wenn allerdings der Inhalt und der Pargerank stimmt, kann das ja im Endeffekt nur förderlich sein.
Wirklich ein sehr gelungener und interessanter Artikel zum Thema SEO und natürlichem Backlinkaufbau. Ist natürlich bei kleineren Webprojekten einfacher umzusetzen, wie bei umfangreichen Projekten mit sehr vielen wichtigen Unterseiten. Bei sehr tief strukturierten Seiten sollte man sich zudem überlegen bis zu welcher tiefe man Backlinks setzt.
Ziemlich interessant. Links auf Unterseiten, also Deeplinks, habe ich lange Zeit auch vernachlässigt. Das wurde mir erst im letzten halben Jahr bewußt und ist ja auch logisch. Zumindest jetzt!
Wie aktuell ist denn dieses Thema noch? Google wie BIng aktuelisieren ihre STandards ja kontinuierlich sodass ‘bweährte’ Methoden zum Linkaufbau scheinbar erfolglos scheinen.
Ich bin absolut deiner Meinung: Ein hoher Deeplink-Anteil ist IMHO essentiell für einen guten Linkaufbau. Sehr hilfreicher Artikel. Schade das du nicht mehr soviel schreibst in letzter Zeit.