Wie berechnet sich der Google-Algorithmus?

Wäre diese Frage verbindlich beantwortet, so wäre es möglich, jede Seite mit maximaler Effizienz in die Top-Plazierungen zu bringen. Natürlich nicht automatisch, da viele Faktoren - wie zum Beispiel das Domainalter - nicht manipuliert werden können. Aber der Seo könnte sich darauf konzentrieren, jeden Faktor den Gegebenheiten optimal anzupassen und damit ohne "Blindleistung" das beste Ergebnis zum Aufwand zu erreichen. Da der Algorithmus zum einen nicht bekannt ist, zum anderen ständig angepasst und verändert wird und er zum Dritten auch sehr kompliziert sein muss, um alle Anforderungen abzudecken und gleichzeitig nicht manipulierbar zu sein, ist es unmöglich, die oben genannte Frage einfach zu beantworten (außer mit 42). Es gibt allerdings einige grundsätzliche Aussagen zum Google-Algorithmus, die sich aus der Aufgaben- und Problemstellung, aber auch aus den Veränderungen und den Ergebnissen der Suche rückschließen lassen. 

Grundsätzliche Überlegungen zur "Verrechnung" der Faktoren

Aufgabenstellung für den perfekten Google-Algorithmus

Sicher ist, das jeder Entwicklung und Änderung im Algorithmus bestimmte Aufgabenstellungen zugrunde liegen. Es ist also sicher nicht falsch, die Frage zu stellen, was Google eigentlich erreichen will. Und damit ist schon viel festgelegt, in welche Richtung Faktoren gemessen und verarbeitet werden müssen. 

 

 

Google will dem Nutzer die besten Informationen bieten, die im Internet zum gesuchten Thema zu finden sind.

Das klingt einfacher als es ist, da die Inhalte allein durch die Menge automatisch verarbeitet werden müssen und allgemeingültige Qualitätskriterien, die auf ALLE Internetseiten im Netz zutreffen selbst für eine manuelle Auswertung fast nicht zu erstellen wären. 

 

Google will schlechte Suchergebnisse aussortieren,

Je mehr schlechte Erfahrung der Nutzer mit den Ergebnissen seiner Suchmaschine macht, desto größer ist die Chance, dass er sie seltener nutzt oder ein Konkurrenzprodukt bevorzugt. Google wird also alles dafür tun, dass "Enttäuschungen" möglichst weit reduziert werden und dabei auch in Kauf nehmen, dass eventuell gute Seite dadurch herausfallen (da der Nutzer diese ja nicht kennt, führt das auch nicht zu einem negativen Erlebnis). 

 

 

Google will Manipulation der Suchergebnisse ausschliesen.

Da ein gutes Ranking bei manchen Suchbegriffen Millionenumsätze bedeuten kann, gibt es finanzstarke Interessen, die sich auch aufwändige Manipulation leisten können. Da häufig die Gewinnspannen bei unseriösen Angeboten höher ist als bei seriösen Angeboten, führt Manipulation häufig zu negativen Nutzererlebnissen, die Google soweit möglich ausschließen wird. 

 

 

Google will manuelle Eingriffe in das Suchergebnis vermeiden.

Da sich auch Google ausrechnen kann, wie viele Webseiten schon im Netz stehen, wie viele Änderungen und neue Seiten täglich dazu kommen, kann und muss es das oberste Ziel sein, alle Ranking-Berechnungen komplett zu automatisieren und manuelle Eingriffe auf das äußerste Mindestmaß zu beschränken, auch wenn dies der Qualität in bestimmten Fällen abträglich sein kann. 

 

 

Komplexität durch Anzahl der Faktoren und Webseiten

Grundsätzlich verwendet Google eine Vielzahl von Faktoren, um zum einen ein möglichst gutes Ergebnis zu erzielen, zum anderen aber auch, um Manipulation und Analyse des Algorithmus zu erschweren. Wenn Google allerdings das Ziel nicht aus den Augen verlieren will, so kommt kein Algorithmus um die höhere Gewichtung von Schwerpunktfaktoren herum. Egal wie viele Faktoren in die Rechnung eingehen, es ist völlig unmöglich, dass nicht einige - vielleicht nur eine handvoll Faktoren - eine bedeutende Rolle spielen. 

Auf- und abwertende Faktoren

Aus der Aufgabenstellung ergibt sich, dass es Faktoren geben muss, die eine Seite im Ranking aufwerten, andere Faktoren müssen auf ein Abwerten des Rankings hinauslaufen, es muss also neben der Multiplikation der Faktoren untereinander auch eine + und - Berechnung der Faktoren integriert sein. 

Manipulierbarkeit der Faktoren durch den Seitenbetreiber

Hier gilt es für Google verschiedene Aspekte zu berücksichtigen. Zum einen ist es völlig logisch, dass es einen Seiteneigentümer gibt, der alle Faktoren, die er selbst beeinflussen kann zu seinen Gunsten strukturieren wird. Daraus ergibt sich die Notwendigkeit, eine Reihe von Faktoren einzubauen, die nicht oder nur schwer vom Eigentümer der Seite zu verändern sind. Hier hatte Google vor Jahren die geniale Idee, die Verlinkung in das Ranking einzuarbeiten. Damit war - zumindest in der Anfangsphase - der Einfluss des Seitenbetreibers auf das Ranking begrenzt. Natürlich hat sich her aber in Kürze eine ganze "Industrie" etabliert, die genau diese externen Links manipulieren kann. Hier musste und muss Google immer feinere Filter entwickeln, um diese Manipulation zu erkennen. Das führt wohl auch dazu, dass Google die Bedeutung der Verlinkung im Gesamtranking zurückfährt. 

Manipulierbarkeit der Faktoren durch Dritte

Auf den ersten Blick ist es naheliegend, das Seiten, die Off-Page manipulieren einfach im Ranking zurück gestuft werden, und das wurde in der Anfangszeit sicher auch getan. Allerdings ergibt sich daraus eine völlig neue Problemstellung. Wenn es möglich ist, jede beliebige Webseite durch Faktoren, die der Seitenbetreiber nicht beeinflussen kann im Ranking abzustufen, so ist einem "unlauteren" Wettbewerb Tür und Tor geöffnet. Es ist aber für Google fast unmöglich, zuverlässig festzustellen, ob der Seitenbetreiber selbst für die abwertenden Off-Page Aktivitäten verantwortlich ist, oder vielleicht ein Wettbewerber. Deshalb hat Matt Cutts (einer der Chefprogrammier von Google) schon vor längerer Zeit gesagt, dass eine Manipulation der Ergebnisse von Seiten Dritter durch verschiedene Algorithmen (so gut wie) ausgeschlossen ist. Das heißt aber umgekehrt, dass Off-Page Faktoren sich zwar negativ auswirken können, dazu aber wiederum Berechnungen vorgeschalten sein müssen, die prüfen, ob diese negative Auswirkung von Dritten manipuliert ist. 

Sub-Faktoren in der Ranking-Berechnung

Aus den bekannten Ranking-Kriterien geht ganz klar hervor, dass viele der Faktoren eigentlich Sub-Faktoren sind und sicher auch so in eine Rechnung eingehen. Alleine um die benötigte Rechenleistung zu reduzieren, ist es naheliegend, Faktoren zu Gruppen von Subfaktoren zusammenzuschließen und daraus einen "Zwischenwert" zu generieren, der später in die Berechnung eingeht. So ist es naheliegend, dass Faktoren, die die Gewichtung eines Links beeinflussen, als Sub-Faktoren in die Berechnung der Linkgewichtung eingehen (wie zum Beispiel Stärke der Domain, Positionierung des Links usw.). Kompliziert wird die Berechnung allerdings, da sicher Subfaktoren eines Faktors gleichzeitig auch in Relation mit Subfaktoren eines anderen Faktors stehen und auch bei anderen Faktoren Einfluss haben werden.

Relationen der Faktoren untereinander

Im Gegensatz zu einer reinen Subtraktions-, Additions- oder Multiplikationsberechnung werden sicher auch viele Faktoren in Relation zueinander gestellt. So ist ein plötzlicher Linkanstieg erst mal negativ - oder neutral, da er auf Manipulation hinweist. Die gleichzeitige Erwähnung der Seite in etablierten, schwer zu manipulierenden Authoritäten läßt aber auf aktuelle interessante Aktivitäten schließen und damit sollte sich der Linkanstieg in diesem Zusammenhang sehr positiv auf das Ranking aufwirken. 

Veränderungen der Ranking-Algorithmen

Google nimmt jeden Tag Veränderungen an den verwendeten Algorithmen vor, die sich aber nur unmerklich auf das Ergebnis auswirken und selbst "große" Updates beinflussen vielleicht das Ranking von 10% oder 15% der Webseiten. Grundsätzlich wird Google also nicht den Algorithmus grundlegend verändern, sondern eher den geänderten Gegebenheiten anpassen. Faktoren also stärker oder schwächer gewichten, andere Faktoren herausnehmen und neue hinzufügen. So ist davon auszugehen, das zum Beispiel die zunehmende Möglichkeit, die Qualität von Texten automatisch zu beurteilen eine Verschiebung des Algorithmus hin zur höheren Gewichtung der Texte ermöglicht hat, technische Neuerungen, wie zum Beispiel die Möglichkeit, Domains zu "hacken" haben es nötig gemacht, neue Faktoren zu ergänzen, die dies in die Berechnung einfliesen lassen. 

Die "Natürlichkeit" in der Ranking Berechnung

In der Besten aller Suchmaschinen-Welten würden nur die Seiten Links haben, die wirklich wertvollen Inhalt haben, würden Keywords nur in Seiten vorkommen, die auch wirklich wichtig zu diesem Thema sind usw. Die Realität sieht aber leider anders aus. Gerade kleine Seiten mit guten Informationen haben wenig Möglichkeiten und oft auch kein Interesse an einem professionellen Linkaufbau usw. Sie haben häufig auch keine Lust, sich auf die Optimierung ihrer Seite für Suchmaschinen zu konzentrieren, sondern beschäftigen sich vorwiegend damit, einfach nur gute Inhalte auf Ihre Webseite bringen. Die Aufgabe einer guten Suchmaschine ist es nun, diese Perlen aus dem Meer von Steinen herauszufiltern. Hierbei werden die Faktoren bei der Berechnung sicher immer wieder mit "Normwerten" verglichen, um das herauszufiltern, was die Google-Berechnungen als natürliche Entwicklung definieren. Neben den "gemessenen" Werten der Faktoren im Netz muss es also noch eine zweite komplexe Datenbank zur Berechnung der "Normwerte" geben, um eine Abweichung davon als nicht natürliche Entwicklung klassifizieren zu können. 

Warum die Suche nach dem "heiligen Gral" des Google-Algorithmus

Die Kernfrage ist häufig, wie berechnet Google das Ranking aus den einzelnen Faktoren und damit natürlich auch, was ist konkret zu tun, um die Nummer 1 bei Google zu werden. Einige Überlegungen, die natürlich nur auf Annahmen und Vereinfachung beruhen, haben wir hier für Sie zusammengefasst.

Von der Erreichung der maximalen Punktzahl

Stellen wir uns der Einfachheit halber die Berechnung als Punktesystem vor, bei dem jeder der 250 Faktoren zwischen 0 und 4 Punkten vergeben kann, die maximale Punktzahl also die 1000 wäre. Bei Betrachtung der Faktoren ist es völlig unmöglich, die Maximal-Punktzahl zu erreichen, da sich Faktoren immer wieder gegenseitig beeinflussen. Gehen wir zum Beispiel davon aus, dass Sie für die Ladezeit Ihrer Seite 4 Punkte bekommen, weil sie mit nur 50 kb unheimlich schnell lädt. Jetzt haben Sie natürlich kein Bild eingebaut und auf eine Bookmarking-Funktion verzichtet, weil Sie damit für die Ladezeit nur noch 2 Punkte erhalten hätten. Jetzt haben Sie aber weniger Besucher, die Ihre Seite bookmarken und erhalten für dieses Kriterium keine 4, sondern nur 2 Punkte. Auch für die Verwendung der Keywords im Domain-Namen und dem Alt-Tag des (nicht vorhanden) Bildes erhalten Sie leider 0 Punkte. Verabschieden Sie sich also von der Idee, die volle Punktzahl erreichen zu können. Ziel kann und muss es nur sein, eine höhere Punktzahl zu erreichen als die anderen Webseiten, da damit ja der Platz Nummer 1 bei Google gesichert ist.

Von der Notwendigkeit, den Algorithmus zu kennen

Grundsätzlich ist es auch für jede Seite und für jeden Suchbegriff ohne Kenntnis der Faktorenberechnung problemlos möglich die Nummer 1 bei Gogole zu werden. Allerdings nur, wenn genügend Ressourcen an Geld, Wissen und Zeit zur Verfügung stehen. Je nachdem, wie viel der Wettbewerb bereits in die Seo-Optimierung gesteckt hat, ist es mehr oder weniger aufwändig, die Seiten im Ranking zu verbessern. Eine detailierte Kenntnis der Ranking Faktoren würden zwar die eingesetzten Mittel etwas effizienter machen, eine wirkliche Ersparnis wäre hier aber sicher kaum möglich, da alle relevanten Faktoren bekannt sind und trotzdem daran gearbeitet werden müsste, auch wenn klar wäre, wie stark sie genau in das Ranking eingehen. Keine der Faktorengruppe wird das direkte Ranking um mehr als 20% beeinflussen, so dass wir auf jeden Fall mit 5 Gruppen arbeiten müssen, die jeweils aus 30 bis 50 Subfaktoren gebildete werden. Die meisten wichtigen Faktoren sind klar definiert (wie zum Beispiel der Seitentitel, die Stärke von Backlinks usw.), so dass die meisten Ressourcen für die Optimierung von Faktoren eingesetzt werden, die auch mit genauer Kenntnis der Berechnung kaum anders verteilt werden würden. Der "variabel verschiebbare Anteil" beim Ressourceneinsatz sollte sich also eher auf die unwichtigeren Subfaktoren beziehen. Und deren Einfluss auf das Gesamtergebnis berechnet sich aus der Anzahl der Faktoren  und unter Berücksichtigen der Dominanz einiger Hauptfaktoren mit hohen Einfluss, so dass für weniger wichtige Subfaktoren vielleicht noch ein Einfluss von unter 0,5 Prozent auf das Suchergebnis übrig bleibt. Hier würde eine Resourcenoptimierung auch keinen nennenswerten Einfluss mehr auf die Kosten-Nutzen Rechnung haben. 

Von der Notwendigkeit, das Richtige zu tun

Lassen Sie uns doch einfach mal annehmen, Sie würden die Gewichtung der Faktoren abschätzen und später würde Ihnen jemand das Geheimnis des Google-Algorithmus verraten. Was hätten Sie wohl anders gemacht?

Was würden Sie anders machen, würdenSie die den

geheimnisvollen Google-Algroithmus kennen würden?

Faktor

geschätzte

Gewichtung

reale

Gewichtung

Aufwand

für Änderung

Verschiedene Seitentitel mit Keywordintegration 10 % 6,3 % niedrig

Backlinks von qualitativ hochwertigen Seiten

6 %  7,5 % hoch
Hochwertige Content-Texte erstellen 12 % 7,8 % mittel
Nutzung einer Keyword Domain 1,5 % 0,8 % hoch
Einsatz von Social-Media-Aktivitäten 5,5 % 3,2 % hoch

 

Vielleicht fällt Ihnen auf, das die Kenntnis der von Google angewandten Berechnungsalgorithmen Ihre Entscheidungen selten oder gar nicht beeinflussen würden. Das liegt vor allem daran, dass die Faktoren alle verschieden schwer zu beeinflussen sind, und es macht Sinn, zuerst diejenigen zu beeinflussen, die mit überschauberem Aufwand optimiert werden können, unabhängig davon, ob sie stärker oder schwächer in die Berechnung eingehen. Die Faktoren werden vor allem dann wichtig, wenn auch alle Ihre Wettbewerber schon alles machbare getan haben, was aber in der Regel auf einen Vergleich der verfügbaren Mittel hinausläuft, und hier ist der Abstand zwischen zwei Wettbewerbern in der Regel höher als es eine Ersparnis wäre, die sie in Kenntnis der Algorithmen hätten, so dass selbst bei einer Kenntnis der Faktoren der Wettbewerber in der Regel nicht einzuholen wäre. Aber in der Gesamtbetrachtung des Seo-Marktes, machen diese "heiss umkäpften Branchen" nur einen Bruchteil der täglichen SEO-Arbeit aus. 

Von der Notwendigkeit, die Grenzen zu kennen

Eine der ganz wenigen Teilbereiche, in der die Kenntnis der Berechnung wirklich einen signifikanten Vorteile ergeben würde, stellt der Bereich der "Grenzgänger" dar. Es ist zu vermuten, das es "mindestens" zwei Grenzbereiche geben wird:

  • Zunächst einmal wird es bei zunehmendem Seo-Einsatz auch zu einem Ansteigen des Rankings kommen. In einer vereinfachten Annahme (ohne Berücksichtigung von Filtern, von Bestrafung von unnatürlichen Entwicklungen usw.) wird es hier sicher so sein, dass am Anfang kleine Schritte große Wirkung zeigen, aber dann das Verhältnis von Wirkung und Ergebnis sich bei jedem einzelnen Faktor veringern wird, bis der Seo zu der Effizienz-Grenze kommt, bei der die Wirkung den Aufwand nicht mehr rechtfertigt. Diese Grenze ist sicher kein fixer Punkt, aber bei einer solch komplexen Berechnung, wie Google diese vornimmt, kann die Kurve nicht gleichmässig steigen, so dass es hier immer wieder Grenzen geben muss, deren Kenntnis die Verteilung der Seo-Ressourcen effektiver machen könnte. 
  • Viel wichtiger aber ist die Grenze der Überoptimierung. Zur Zeit schwebt über jeder Seo-Maßnahme das "Damokles-Schwert" der Abstrafung durch "unnatürliche Optimierung" eines oder einer Kombination von Faktoren. Je näher ich hier an die Grenzen gehe, desto besser wird mein Ranking, sobald ich die Grenze aber überschreite, kommt es im besten Fall zur Rückstufung wegen der Bewertung einer verdächtigen Überoptimierung, im ungünstigsten Fall zu einer Penalty. Würde der Seo diese Punkte kennen, so wäre es möglich, Seiten noch viel stärker zu optimieren, da zur Zeit jeder seriöse Seo hier einen vernünftigen "Sicherheitsabstand" einhalten wird.