Seit 2012 liefert Searchme­trics im Rahmen einer jähr­li­chen Studie fundierte Analysen rund ums Such­ma­schi­nen-Ranking. Doch die auf den Markt­füh­rer Google zu­ge­schnit­te­nen Ranking-Faktoren er­schie­nen Ende 2016 in dieser Art das letzte Mal. Der weltweit agierende Anbieter der gleich­na­mi­gen Search- und Content-Per­for­mance-Plattform erklärt die Ära all­ge­mei­ner SEO-Check­lis­ten für beendet und wendet sich einem dif­fe­ren­zier­te­ren Ansatz der Such­ma­schi­nen­op­ti­mie­rung zu. Künftig wird der bisher jährliche SEO-Report des Un­ter­neh­mens bran­chen­spe­zi­fi­sche Analysen umfassen.

Grund dafür ist u. a. Googles KI-System RankBrain, das dank ma­schi­nel­lem Lernen deutlich flexibler agiert als klas­si­sche Such­al­go­rith­men. Erst im Juni 2016 gab Google-Mit­ar­bei­ter Jeff Dean gegenüber Tech­ni­k­re­dak­teur Steven Levy bekannt, dass RankBrain künftig in die Be­ar­bei­tung aller Such­ma­schi­nen­an­fra­gen in­vol­viert sein wird. Levys Bericht auf Back­chan­nel zufolge gehört das KI-System heute zu den drei wich­tigs­ten Faktoren im Rahmen des Such­ma­schi­nen-Rankings.

Mit der aktuellen Studie „Rebooting Ranking-Faktoren Google.de“ prä­sen­tiert Searchme­trics zwar nach wie vor einen Katalog an Faktoren, die mit der Plat­zie­rung in der Such­ma­schi­ne kor­re­lie­ren. Die Un­ter­su­chungs­er­geb­nis­se verstehen sich jedoch in erster Linie als Richt­wer­te für in­di­vi­du­el­le, bran­chen­be­zo­ge­ne Analysen. Wie in den Vorjahren basiert die Studie auf einem Set aus 10.000 such­ma­schi­nen­re­le­van­ten Keywords. Aktuelle Befunde wurden mit Blick auf vor­her­ge­hen­de Un­ter­su­chun­gen in­ter­pre­tiert. Wir haben die wich­tigs­ten Er­geb­nis­se der Searchme­trics-Studie für Sie zu­sam­men­ge­fasst.

Content-Faktoren

Bestärkt durch die jüngsten Än­de­run­gen am Google-Kern­al­go­rith­mus steht für Searchme­trics fest: Der Content einer Website muss bei der Op­ti­mie­rung für die Such­ma­schi­ne im Mit­tel­punkt stehen. Ein zentraler Faktor ist dabei die Content-Relevanz. Diese wird 2016 erstmals als eigener Ranking-Faktor gewertet. Die Such­ma­schi­nen­op­ti­mie­rung auf einzelne Keyword hingegen verliert zugunsten einer ho­lis­ti­schen Text­ge­stal­tung deutlich an Bedeutung.

Die Content-Relevanz wird zum zentralen Ranking-Faktor

Guter Seo-Content zeichnet sich dadurch aus, dass er der Nut­zer­inten­ti­on ent­spricht. Diese un­ter­schei­det sich jedoch von Such­an­fra­ge zu Such­an­fra­ge. Content-Marketer stehen somit vor der Her­aus­for­de­rung, möglichst viele Nut­zer­fra­gen so gut es eben geht mit ein und demselben Text zu be­ant­wor­ten. Eine Strategie im Rahmen der Content-Er­stel­lung stützt sich daher auf ho­lis­ti­sche Texte, die ver­schie­de­ne Teil­aspek­te eines Themas be­rück­sich­ti­gen und auf un­ter­schied­li­che Keywords eines se­man­tisch zu­sam­men­hän­gen­den The­men­fel­des optimiert werden. Ho­lis­ti­scher Content zielt somit darauf ab, gute Such­ergeb­nis­po­si­tio­nen für mehrere relevante Keywords zu erzielen. Das einzelne Keyword hingegen rückt in den Hin­ter­grund.

Im Rahmen der Searchme­trics-Studie wurde die Content-Relevanz eines Textes im Ver­hält­nis zum ver­wen­de­ten Such­be­griff ana­ly­siert. Dies geschah auf Basis lin­gu­is­ti­scher Korpora und der Kon­zep­tio­nie­rung se­man­ti­scher Be­zie­hun­gen. Das Ergebnis ist wenig über­ra­schend:

                    „Die höchste Content-Relevanz haben URLs auf den Po­si­tio­nen 3 bis 6.

Für nach­fol­gen­de Such­ergeb­nis­se nimmt der Relevanz-Score konstant ab. Die Po­si­tio­nen 1 und 2 müssen im Rahmen dieser Un­ter­su­chung gesondert be­trach­tet werden. Laut Searchme­trics finden sich dort in der Regel bekannte Brand-Websites, die im Google-Ranking von Brand-Faktoren wie Er­kenn­bar­keit, Nut­zer­ver­trau­en und Brand-Image pro­fi­tie­ren, ihre Position jedoch nicht zwingend der Content-Relevanz verdanken.

Die durch­schnitt­li­che Wort­an­zahl steigt

Die durch­schnitt­li­che Wort­an­zahl gut rankender Landing­pa­ges nimmt seit Jahren stetig zu. Laut Searchme­trics spiegelt das eine in­ten­si­ve­re Aus­ein­an­der­set­zung mit den je­wei­li­gen The­men­fel­dern im Sinne einer ho­lis­ti­schen Content-Er­stel­lung wider. 

                    „Die durch­schnitt­li­che Wort­an­zahl ist 2016 um 50 Prozent gestiegen.“

Deutliche Un­ter­schie­de in der Wort­an­zahl offenbart der Vergleich von Desktop-Inhalten und mobilen Landing­pa­ges : Der Analyse zufolge sind Desktop-Versionen einer Website durch­schnitt­lich 30 Prozent länger als ihre mobilen Pendants.

Das Keyword im Title verliert an Relevanz

Noch immer gilt in SEO-Ab­tei­lun­gen das Credo: Das Keyword im Title ist ein Muss – und es sollte am besten so weit vorne wie möglich platziert werden. Wie weit diese Annahme an der Realität in der Such­ma­schi­ne vor­bei­geht, zeigt eine der zentralen Er­kennt­nis­se der Searchme­trics-Studie:

                   „Nur 45 Prozent der Top-20-URLs hatten 2016 noch das Keyword im Title.“

Auch diese Ent­wick­lung lässt sich mit dem ho­lis­ti­schen Ansatz der Content-Er­stel­lung erklären, bei dem Texte auf Themen und nicht auf Keywords optimiert werden. Googles KI-System ist in­zwi­schen durchaus in der Lage, se­man­ti­sche Be­zie­hun­gen aus­zu­wer­ten, ohne dass Keywords die Richtung vorgeben.

In ähnlichem Umfang lässt sich diese Ent­wick­lung auch bei Headlines und De­scrip­ti­ons be­ob­ach­ten. Laut Searchme­trics führt nur noch ein Drittel aller Top-20-Landing­pa­ges das Keyword in der Haupt­über­schrift (H1).

Nut­zer­si­gna­le

Um zu bestimmen, ob Google-Nutzer mit den vor­ge­schla­ge­nen URLs zufrieden sind, muss sich der Konzern nicht aus­schließ­lich auf indirekte Faktoren wie die se­man­ti­sche Analyse von Webseiten-Inhalten verlassen. Neben der Such­ma­schi­ne liefern auch Google-Produkte wie der Web­brow­ser Chrome, das Web­ana­ly­se-Plug-in Analytics, das Wer­be­sys­tem AdWords und das mobile Be­triebs­sys­tem Android de­tail­lier­te In­for­ma­tio­nen über das Surf­ver­hal­ten der Google-Nutzer.

Ob eine Webseite das bietet, was sie ver­spricht, kann Google über ein­schlä­gi­ge Nut­zer­si­gna­le wie Klick- und Ab­sprungra­ten sowie die durch­schnitt­li­che Ver­weil­dau­er in Kom­bi­na­ti­on mit einer gi­gan­ti­schen Da­ten­ba­sis de­tail­liert auswerten und im Rahmen von Methoden des ma­schi­nel­len Lernens in Echtzeit auf das Such­ma­schi­nen-Ranking anwenden. Auch hier gibt die Searchme­trics-Studie hilf­rei­chen Input für Web­sei­ten­be­trei­ber und SEO-Berater.

Die durch­schnitt­li­che Klickrate auf den Po­si­tio­nen 1 bis 3 beträgt 36 Prozent

Das Vertrauen der Nutzer in die Re­le­vanz­be­wer­tung der Such­ma­schi­ne ist groß. Darauf wies bereits die Searchme­trics-Studie aus dem Jahr 2014 hin, in der die durch­schnitt­li­che Klickrate (Click-Through-Rate, CTR) der ana­ly­sier­ten Top-URLs ermittelt wurde.

Folglich ver­zeich­nen Websites auf Position 1 die meisten Klicks. Für die Pole-Position hat das Searchme­trics-Team eine durch­schnitt­li­che CTR von 44 Prozent ermittelt. Diese nimmt über die Such­ergeb­nis­po­si­tio­nen hinweg ab. Bereits auf Position 3 liegt die CTR nur noch bei 29 Prozent.

                   „Die durch­schnitt­li­che CTR auf den Po­si­tio­nen 1–3 beträgt 36 Prozent.“

Auffällig ist ein deut­li­cher Anstieg der CTR für die Position 11. Die erste Landing­pa­ge auf der zweiten Such­ergeb­nis­sei­te bekommt im Durch­schnitt mehr Klicks als Landing­pa­ges am Ende der ersten Such­ergeb­nis­sei­te.

Im Vergleich zu 2014 ist die durch­schnitt­li­che CTR der Top-10-URLs im Google-Ranking deutlich gestiegen.

Die Ab­sprungra­te auf der ersten Such­ergeb­nis­sei­te steigt auf rund 40 Prozent

In­ter­es­sant für die Re­le­vanz­be­wer­tung einer Website ist neben der CTR die so­ge­nann­te Ab­sprungra­te (Bounce-Rate). Diese zeigt, wie viele Nutzer nach dem Klick auf ein Such­ergeb­nis, direkt auf Google.de zu­rück­keh­ren, ohne sich auf anderen URLs der besuchten Domain um­zu­schau­en.

Für die un­ter­such­ten URLs er­mit­tel­te das Searchme­trics-Team mit durch­schnitt­lich 40 Prozent einen leichten Anstieg der Bounce-Rate auf den Top-10-Po­si­tio­nen im Vergleich zum Jahr 2014. Eine deutliche Ab­wei­chung zeigt sich vor allem für die Top-Po­si­tio­nen 1 und 2.

Den Analysten zufolge kann von der er­mit­tel­ten Bounce-Rate jedoch nur bedingt auf die Relevanz einer Website ge­schlos­sen werden. Der Absprung eines Nutzers hat immer in­di­vi­du­el­le Gründe und kann im Ein­zel­fall auch dann erfolgen, wenn die Such­an­fra­ge zu­frie­den­stel­lend be­ant­wor­tet wurde. Denkbar ist dies bei­spiels­wei­se bei rein in­for­ma­tio­na­len Such­an­fra­gen, die sich bereits durch einfache Glossar- oder Le­xi­kon­ein­tra­ge be­ant­wor­ten lassen.

Als Erklärung für den er­mit­tel­ten Anstieg der durch­schnitt­li­chen Bounce-Rate nennt das Searchme­trics-Team die hohe Qualität des Google-Al­go­rith­mus. Dank des neuen KI-Systems ist die Such­ma­schi­ne heute in der Lage, genau die URL aus­zu­spie­len, die der Such­in­ten­ti­on des Nutzers am besten ent­spricht. Dieser muss dadurch immer seltener mehrere URLs einer Domain aufrufen, um die ge­wünsch­ten In­for­ma­tio­nen zu finden.

Die durch­schnitt­li­che Ver­weil­dau­er steigt

Spannend für die Re­le­vanz­be­wer­tung einer Website ist vor allem die Zeit zwischen Klick und Absprung. Die Time on Site, also die Ver­weil­dau­er eines Nutzers auf der über die Websuche an­ge­steu­er­ten Seite, lässt sich dank Web­ana­ly­tics präzise messen. Auch hier prä­sen­tiert uns Searchme­trics einen Durch­schnitts­wert, der dif­fe­ren­ziert be­trach­tet werden muss.

                  „Die Time On Site für Top-10-URLs liegt bei 3 Minuten und 43 Sekunden.“

Ver­gleicht man den Wert der aktuellen Studie mit dem aus 2014, lässt sich ein deut­li­cher Anstieg der Ver­weil­dau­er für die Top-10-URLs erkennen. Diese Ent­wick­lung lässt sich darauf zu­rück­füh­ren, dass Web­sei­ten­be­trei­ber, die bei Google gut ranken möchten, dazu über­ge­gan­gen sind, Besuchern hö­her­wer­ti­gen Content zur Verfügung zu stellen.

Auch wenn eine hohe Ver­weil­dau­er auf hoch­wer­ti­ge Web­in­hal­te hinweist, bedeutet dies im Um­kehr­schluss nicht, dass eine geringe Ver­weil­dau­er au­to­ma­tisch auf eine schlechte Landing­pa­ge schließen lässt. Bei­spiels­wei­se kann eine Website der Such­in­ten­ti­on eines Nutzers, der lediglich den aktuellen Wet­ter­be­richt oder die Fuß­ball­ergeb­nis­se vom letzten Wo­chen­en­de sucht, ver­gleichs­wei­se schnell gerecht werden.

Tech­ni­sche Faktoren und Usability

Die Er­stel­lung hoch­wer­ti­ger Mehrwert-Inhalte ist nur eine Säule der Such­ma­schi­nen­op­ti­mie­rung. Auch der beste Content wird die Top-Po­si­tio­nen im Google-Ranking nicht erreichen, wenn die tech­ni­schen Grund­vor­aus­set­zun­gen fehlen. Zeit­ge­mä­ße Webseiten müssen sich an Faktoren wie Per­for­mance, Si­cher­heit und Usability messen lassen. Bei der tech­ni­schen Be­reit­stel­lung von Web­in­hal­ten zeich­ne­ten sich 2016 neben all­ge­mei­nen Faktoren wie der Sei­ten­la­de­zeit und Da­tei­grö­ße vor allem zwei SEO-Trends ab: Immer mehr Web­sei­ten­be­trei­ber bemühen sich darum, ihren Besuchern Inhalte mobil zur Verfügung zu stellen. Zudem un­ter­streicht Searchme­trics die Bedeutung einer Trans­port­ver­schlüs­se­lung via HTTPS für das Such­ma­schi­nen-Ranking.

HTTPS wird 2017 zum Muss

Webmaster, die auch 2017 auf eine Trans­port­ver­schlüs­se­lung via HTTPS ver­zich­ten, dürften es bald schwer haben, in den Such­ma­schi­nen­ran­kings auf­zu­stei­gen. Bereits im September 2016 kündigte Google an, HTTP-Seiten, auf denen sensible Daten ver­ar­bei­tet werden, ab 2017 als unsicher zu markieren. Man muss kein SEO-Experte sein, um sich aus­zu­ma­len, wie solch digitales Brandmal auf die Klick­be­reit­schaft der Google-Nutzer wirken wird. Nicht zuletzt aus diesem Grund nimmt die Zahl HTTPS-ver­schlüs­sel­ter Webseiten stetig zu. Lag der Anteil der Top-10-Landing­pa­ges, die auf HTTPS setzen, im Vorjahr noch bei 14 Prozent, konnte Searchme­trics in der aktuellen Studie einen deut­li­chen Anstieg auf 33 Prozent fest­stel­len.   „Ein Drittel der Landing­pa­ges in den Top 10 setzt in­zwi­schen auf HTTPS-Ver­schlüs­se­lung."

Mo­bil­freund­lich­keit wird Grund­vor­aus­set­zung für ein gutes Ranking

Such­an­fra­gen aus dem mobilen Netz nehmen konstant zu. Laut einem Google-Bericht aus dem Jahr 2015 ver­zeich­net der Such­ma­schi­nen-Markt­füh­rer in re­le­van­ten Märkten wie den USA und Japan mitt­ler­wei­le mehr Anfragen von Mo­bil­ge­rä­ten als von Desktop-Computern. Welche Bedeutung der Faktor Mo­bil­freund­lich­keit künftig für ein Ranking in der Such­ma­schi­ne haben wird, zeigt Googles Mobile-First-Strategie. Im Oktober 2016 kündigte das Un­ter­neh­men an, den Mobile-Index künftig als Haupt­in­dex für die Websuche zu verwenden. Es ist somit an­zu­neh­men, dass sich dieser auch auf das Ranking in der Desktop-Websuche auswirken wird. Für Webmaster, die mobile Nutzer noch immer ver­nach­läs­si­gen, sollte eine ent­spre­chen­de Um­ge­stal­tung des Web­an­ge­bots für das Jahr 2017 ganz oben auf der Agenda stehen. Mög­lich­kei­ten zur Be­reit­stel­lung mo­bil­freund­li­cher Websites bilden Mobile Sub­do­mains, ein Re­spon­si­ve Webdesign sowie die dy­na­mi­sche Aus­spie­lung von Inhalten.

Social Signals

Wie schon 2014 zeigt die Searchme­trics-Studie auch 2016 eine hohe Kor­re­la­tio­nen zwischen einem Top-Rating in der Such­ma­schi­ne und so­ge­nann­ten Social Signals. Dabei handelt es sich um kom­mu­ni­ka­ti­ve Signale wie Shares, Likes und Kom­men­ta­re in sozialen Netz­wer­ken wie Facebook, Twitter, Pinterest oder Google+. Ein gutes Google-Ranking mit der Social-Media-Präsenz in einen kausalen Zu­sam­men­hang zu bringen, fällt den Analysten jedoch nach wie vor schwer.

Backlinks

Auch die Anzahl der Backlinks einer Website kor­re­liert weiterhin mit ihrer Plat­zie­rung in der Such­ma­schi­ne. Im Rahmen der Such­ma­schi­nen­op­ti­mie­rung rückt der Link­auf­bau jedoch zunehmend in den Hin­ter­grund. Laut Searchme­trics ist das Back­link­pro­fil einer Website längst nicht mehr der ent­schei­den­de Faktor für den Erfolg bei Google, sondern nur noch einer von vielen.

Google ist heute mehr denn je in der Lage, den Mehrwert einer Webseite anhand se­man­ti­scher Zu­sam­men­hän­ge und direkter Nut­zer­si­gna­le zu eva­lu­ie­ren. Das Back­link­pro­fil als Qua­li­täts­merk­mal wird von der Content-Relevanz abgelöst. Standen ein­ge­hen­de Verweise von re­prä­sen­ta­ti­ven Webseiten lange Zeit hoch im Kurs, werden sich Webmaster künftig fragen müssen, inwieweit die in­halt­li­chen Angebote ihrer Landing­pa­ges die Er­war­tun­gen der Nutzer erfüllen.

Dass Backlinks künftig gänzlich aus dem Google-Al­go­rith­mus ver­schwin­den, ist zunächst jedoch nicht zu be­fürch­ten. Dies be­stä­ti­gen auch die Er­geb­nis­se der Searchme­trics-Studie. Aus­schließ­lich back­lin­k­ori­en­tier­te Such­ma­schi­nen­op­ti­mie­rung ist jedoch ein Aus­lauf­mo­dell.

„Die Kor­re­la­tio­nen für Backlinks sind weiterhin hoch, deren Bedeutung fürs Ranking wird jedoch weiter abnehmen."

Ranking-Faktoren in Kor­re­la­ti­on zum Such­ma­schi­nen-Rang

Die nach­fol­gen­de Grafik zeigt die Rang-Kor­re­la­ti­on all­ge­mei­ner Ranking-Faktoren für die von Searchme­trics un­ter­such­ten Top-20-URLs sowie die Ent­wick­lung im Vergleich zum Vorjahr. Ranking-Faktoren, zu denen 2016 erstmalig Daten erhoben wurden sowie neu­be­rech­ne­te Faktoren sind mit einem Stern ge­kenn­zeich­net.

Klicken Sie hier, um die In­fo­gra­fik zu den Rang-Kor­re­la­tio­nen all­ge­mei­ner Ranking-Faktoren her­un­ter­zu­la­den.

SEO-Check

Fazit: Die Zukunft der Such­ma­schi­nen­op­ti­mie­rung

Die Searchme­trics-Studie „Rebooting Ranking-Faktoren Google.de“ zeigt: Nach wie vor gibt es Faktoren, die mit einem guten Google-Ranking kor­re­lie­ren. Diese lassen sich jedoch nicht mehr pauschal auf jede Website über­tra­gen. Die un­ter­schied­li­chen Ansprüche, die Mensch und Maschine an Webseiten aus ver­schie­de­nen Branchen stellen, lassen sich mit all­ge­mei­nen Ranking-Faktoren nur noch un­zu­rei­chend abbilden.

Zeit­gleich mit der Ver­öf­fent­li­chung der aktuellen Analyse kündigt das Searchme­trics-Team daher dif­fe­ren­zier­te­re Fol­ge­stu­di­en an, die die Be­dürf­nis­se einzelner In­dus­trie­zwei­ge gesondert unter die Lupe nehmen sollen. Auch die all­jähr­li­che Studie zu Ranking-Faktoren und Rang-Kor­re­la­tio­nen wird sich künftig auf bran­chen­spe­zi­fi­sche Keyword-Sets (z. B. für die Märkte E-Commerce, Ge­sund­heit, Finanzen etc.) stützen. Die Searchme­trics-Studie 2016 liest sich somit auch als Mahnung an Webmaster, simples Check­lis­ten-SEO ein für alle Mal abzuhaken und Trends und Prognosen im Bereich der Such­ma­schi­nen­op­ti­mie­rung bran­chen­spe­zi­fisch zu in­ter­pre­tie­ren.

Autor

Zum Hauptmenü