Webserver erzeugen au­to­ma­tisch Log­da­tei­en, die jeden Zugriff pro­to­kol­lie­ren. Diese Daten enthalten wertvolle In­for­ma­tio­nen über Be­su­chen­de, ihre Herkunft und das Nut­zer­ver­hal­ten. Mit einer gezielten Logfile-Analyse können Sie Feh­ler­quel­len erkennen, Bots iden­ti­fi­zie­ren und Ihre SEO-Strategie ver­bes­sern.

Was ist eine Logfile-Analyse?

Die Logfile-Analyse be­zeich­net die gezielte Aus­wer­tung von Log­da­tei­en, also den Pro­to­kol­len, die ein Webserver oder eine Anwendung au­to­ma­tisch erzeugt. Diese Methode wird in ver­schie­de­nen Bereichen ein­ge­setzt, etwa um:

  • Datenbank- oder E-Mail-Über­tra­gungs­feh­ler zu­rück­zu­ver­fol­gen,
  • Firewall-Ak­ti­vi­tä­ten zu prüfen,
  • Si­cher­heits­pro­ble­me oder Angriffe zu erkennen,
  • oder das Verhalten von Website-Be­su­che­rin­nen und -Besuchern zu verstehen.

Gerade im Bereich der Web­ana­ly­se und Such­ma­schi­nen­op­ti­mie­rung (SEO) ist die Logfile-Analyse ein wert­vol­les In­stru­ment. Wer die Server-Logfiles auswertet, erhält unter anderem Einblick in:

  • IP-Adresse und Hostname
  • Zu­griffs­zeit­punkt
  • ver­wen­de­ten Browser und das Be­triebs­sys­tem
  • Her­kunfts­link (Referrer) oder genutzte Such­ma­schi­ne inkl. Keywords
  • ungefähre Ver­weil­dau­er (ab­ge­lei­tet aus Zeit­stem­peln zwischen Anfragen, jedoch nicht exakt messbar)
  • Anzahl auf­ge­ru­fe­ner Seiten und Rei­hen­fol­ge
  • letzte Seite vor dem Verlassen der Website

Mit diesen In­for­ma­tio­nen lassen sich bei­spiels­wei­se Crawling-Probleme aufdecken, Feh­ler­quel­len iden­ti­fi­zie­ren oder die Nutzung mobiler vs. Desktop-Endgeräte ana­ly­sie­ren. Da Logfiles sehr um­fang­reich sein können, ist eine manuelle Aus­wer­tung kaum möglich. Hier kommen spe­zia­li­sier­te Tools ins Spiel, die die re­le­van­ten Daten vi­sua­li­sie­ren und auf­be­rei­ten. Die ei­gent­li­che Aufgabe besteht dann darin, die Er­geb­nis­se richtig zu in­ter­pre­tie­ren und Maßnahmen für SEO, Si­cher­heit oder Per­for­mance ab­zu­lei­ten.

vServer / VPS
VPS un­schlag­bar günstig auf Dell En­ter­pri­se Servern
  • 1 Gbit/s, un­be­grenzt Traffic & mehr Cores
  • Min­des­tens 99,99% Ver­füg­bar­keit & ISO-zer­ti­fi­zier­te Re­chen­zen­tren
  • Aus­ge­zeich­ne­ter 24/7 Premium-Support mit per­sön­li­chem Berater

Analyse des Webserver-Logs: Typische Probleme und Lö­sungs­an­sät­ze

Bei der Aus­wer­tung von Logfiles stößt man schnell auf me­tho­di­sche Grenzen. Das liegt vor allem daran, dass das HTTP-Protokoll zu­stands­los ist und jede Anfrage isoliert be­trach­tet wird. Um trotzdem ver­läss­li­che Daten zu gewinnen, gibt es ver­schie­de­ne Ansätze.

Sitzungen nach­voll­zie­hen

Ohne zu­sätz­li­che Maßnahmen behandelt der Server jeden Sei­ten­auf­ruf als neue Anfrage. Um den gesamten Besuch sichtbar zu machen, können Session-IDs ein­ge­setzt werden. Sie werden in der Regel über Cookies ge­spei­chert oder als Parameter an die URL angehängt. Während Cookies in den Logfiles nicht sichtbar sind, bringen URL-Parameter einen höheren Pro­gram­mier­auf­wand mit sich und können Duplicate Content erzeugen – ein Risiko für SEO.

Nutzer eindeutig iden­ti­fi­zie­ren

Eine weitere Mög­lich­keit ist die Zuordnung von Zugriffen über die IP-Adresse. Das funk­tio­niert jedoch nur ein­ge­schränkt, da viele Nut­ze­rin­nen und Nutzer dy­na­mi­sche Adressen erhalten oder mehrere Personen eine IP gemeinsam nutzen (z. B. über Proxy-Server). Außerdem gelten voll­stän­di­ge IP-Adressen nach DSGVO als per­so­nen­be­zo­ge­ne Daten. Deshalb sollten sie an­ony­mi­siert oder nur kurz­fris­tig ge­spei­chert werden.

Bots und Crawler erkennen

Server-Logs enthalten nicht nur Daten echter Be­su­chen­der, sondern auch Zugriffe von Such­ma­schi­nen-Crawlern oder Bots. Diese lassen sich anhand des User-Agent-Headers, bekannter IP-Adress­be­rei­che oder durch auf­fäl­li­ge Zu­griffs­mus­ter iden­ti­fi­zie­ren. Eine zu­ver­läs­si­ge Analyse erfordert daher, Bots zu erkennen und von den echten Zugriffen zu trennen.

Ein­schrän­kun­gen durch Caching und Res­sour­cen

Caching durch Browser oder Proxy-Server sorgt dafür, dass nicht jede Nut­zer­an­fra­ge den Webserver erreicht. Manche Zugriffe tauchen daher nur als Sta­tus­code 304 („Not Modified“) im Log auf. Hinzu kommt, dass Logfiles bei stark fre­quen­tier­ten Projekten schnell sehr groß werden und Spei­cher­platz sowie Re­chen­leis­tung be­an­spru­chen. Abhilfe schaffen Maßnahmen wie Lo­gro­ta­ti­on, die Ag­gre­ga­ti­on von Daten oder ska­lier­ba­re Lösungen wie der Elastic Stack (ELK).

Fehlende Kenn­zah­len

Logfiles liefern zwar wertvolle tech­ni­sche In­for­ma­tio­nen, erfassen aber nicht alle für die Web­ana­ly­se re­le­van­ten Metriken. Kenn­zah­len wie Ab­sprungra­te oder exakte Ver­weil­dau­er fehlen oder lassen sich nur indirekt schätzen. Deshalb eignet sich die Logfile-Analyse am besten als Ergänzung zu anderen Ana­ly­se­me­tho­den.

ran­king­Coach
Er­folg­rei­ches Online-Marketing mit KI
  • Kos­ten­güns­tig: Google-Ranking ver­bes­sern ohne teure Agentur
  • Effizient: Re­zen­sio­nen be­ant­wor­ten, Posts für Social Media erstellen
  • Einfach: Keine SEO- oder Marketing-Kennt­nis­se nötig

Log­da­tei­en auswerten – so funk­tio­niert’s

Um die Funk­ti­ons­wei­se einer Logfile-Analyse zu verstehen, lohnt sich ein Blick in den Aufbau einer typischen Logdatei. Bei­spiel­haft dient das Apache-Webserver-Log (access.log), das au­to­ma­tisch im Apache-Ver­zeich­nis angelegt wird.

Welche In­for­ma­tio­nen liefert das Apache-Log?

Die er­stell­ten Einträge sind im so­ge­nann­ten Common Log Format (auch NCSA Common log format) ge­spei­chert: Jeder Eintrag folgt einer fest­ge­leg­ten Syntax:

%h %l %u %t "%r" %>s %b

Die einzelnen Be­stand­tei­le stehen dabei für folgende In­for­ma­tio­nen:

  • %h: IP-Adresse des Clients
  • %l: Identität des Clients, die stan­dard­mä­ßig nicht ermittelt wird; in der Praxis steht hier daher oft ein Minus (–), das eine fehlende Angabe kenn­zeich­net.
  • %u: Benutzer-ID des Clients, die bei­spiels­wei­se bei Ver­zeich­nis­schutz mit HTTP-Au­then­ti­fi­zie­rung zu­ge­ord­net wird; nor­ma­ler­wei­se nicht vergeben.
  • %t: Zeit­stem­pel des Zu­griffs­zeit­punk­tes -%r: In­for­ma­tio­nen über die HTTP-Anfrage (Methode, an­ge­for­der­te Ressource und Pro­to­koll­ver­si­on)
  • %>s: Sta­tus­code der Ser­ver­ant­wort
  • %b: Über­tra­ge­ne Da­ten­men­ge in Byte

Ein voll­stän­di­ger Eintrag im access.log kann etwa so aussehen:

203.0.113.195 - user [10/Sep/2025:10:43:00 +0200] "GET /index.html HTTP/2.0" 200 2326

Dieser Eintrag zeigt: Ein Client mit der IP-Adresse 203.0.113.195 am 10. September 2025 um 10:43 Uhr die Datei index.html über HTTP/2.0 abgerufen. Der Server ant­wor­te­te mit Sta­tus­code 200 („OK“) und übertrug 2326 Byte.

Im er­wei­ter­ten Combined Log Format lassen sich zu­sätz­lich der Referrer (%{Referer}i) und der User-Agent (%{User-agent}i) erfassen. Damit erhält man In­for­ma­tio­nen über die Her­kunfts­sei­te sowie den ver­wen­de­ten Browser oder Crawler. Neben dem access.log erzeugt Apache weitere Log­da­tei­en wie das error.log, in dem Feh­ler­mel­dun­gen, Ser­ver­pro­ble­me oder fehl­ge­schla­ge­ne Anfragen do­ku­men­tiert sind. Auch SSL-Logs oder Proxy-Logs können ergänzend für die Analyse her­an­ge­zo­gen werden.

Erste Aus­wer­tun­gen mit Ta­bel­len­kal­ku­la­ti­on

Bei kleinen Da­ten­men­gen können Sie Log­da­tei­en in das CSV-Format umwandeln und in Programme wie Microsoft Excel oder Libre­Of­fice Calc im­por­tie­ren. Dort lassen sich die Daten nach Kriterien wie IP-Adresse, Sta­tus­code oder Referrer filtern. Da Logfiles jedoch schnell sehr groß werden, sind Ta­bel­len­kal­ku­la­tio­nen nur für kurz­fris­ti­ge Mo­ment­auf­nah­men geeignet.

Spe­zia­li­sier­te Logfile-Ana­ly­se­tools

Für größere Projekte oder eine kon­ti­nu­ier­li­che Aus­wer­tung sind spe­zia­li­sier­te Tools besser geeignet. Dafür bieten sich bei­spiels­wei­se die folgenden an:

  • GoAccess: Open-Source-Tool für Echtzeit-Da­sh­boards direkt im Browser.
  • Matomo Log Analytics (Importer): Im­por­tiert Logfiles in Matomo, sodass Daten ohne Page-Tagging ana­ly­siert werden können.
  • AWStats: Liefert über­sicht­li­che Berichte und Sta­tis­ti­ken, besonders res­sour­cen­scho­nend.
  • Elastic Stack (ELK: Ela­s­tic­se­arch, Logstash, Kibana): Er­mög­licht ska­lier­ba­re Spei­che­rung, Abfrage und Vi­sua­li­sie­rung großer Log­da­ten­men­gen.
  • Grafana Loki + Promtail: Ideal für zentrale Log­samm­lung und Analyse über Grafana-Da­sh­boards.

Bei sehr großen Projekten ist es außerdem sinnvoll, Lo­gro­ta­ti­on ein­zu­set­zen: Dabei werden alte Log­da­tei­en au­to­ma­tisch ar­chi­viert oder gelöscht, sodass Spei­cher­platz frei und die Per­for­mance stabil bleibt. In Ver­bin­dung mit Tools wie dem ELK-Stack oder Grafana können so auch Millionen von Einträgen effizient ver­ar­bei­tet werden.

Logfile-Analyse und das Thema Da­ten­schutz

Die Aus­wer­tung von Server-Logfiles berührt immer auch den Da­ten­schutz, da dabei re­gel­mä­ßig per­so­nen­be­zo­ge­ne Daten ver­ar­bei­tet werden. Zwei Punkte sind besonders wichtig:

1. Spei­che­rung und Ser­ver­stand­ort

Ein Vorteil der Logfile-Analyse ist, dass die Daten voll­stän­dig auf Ihrer eigenen In­fra­struk­tur ver­ar­bei­tet werden können. So behalten Sie die Kontrolle und müssen keine sensiblen In­for­ma­tio­nen an Dritt­an­bie­ter wei­ter­ge­ben.

Wenn Ihr Webserver bei einem externen Hoster betrieben wird, sollten Sie darauf achten, dass die Re­chen­zen­tren innerhalb der EU – idea­ler­wei­se in Deutsch­land – stehen und ein Auf­trags­ver­ar­bei­tungs­ver­trag (AVV) nach DSGVO ab­ge­schlos­sen ist. Nur so lässt sich ein hohes Schutz­ni­veau für Ver­trau­lich­keit und In­te­gri­tät ge­währ­leis­ten.

2. Umgang mit IP-Adressen

IP-Adressen gelten nach der DSGVO grund­sätz­lich als per­so­nen­be­zo­ge­ne Daten. Ihre Ver­ar­bei­tung muss daher auf einer Rechts­grund­la­ge erfolgen, meist im Rahmen des „be­rech­tig­ten In­ter­es­ses“ (Art. 6 Abs. 1 lit. f DSGVO), etwa zur Si­cher­stel­lung von IT-Si­cher­heit oder Feh­ler­su­che.

Best Practices sind:

  • IP-Adressen frü­hest­mög­lich an­ony­mi­sie­ren oder kürzen,
  • Spei­cher­fris­ten be­schrän­ken (oft wenige Tage, z. B. 7 Tage),
  • klare Lösch­kon­zep­te umsetzen,
  • Nut­ze­rin­nen und Nutzer in der Da­ten­schutz­er­klä­rung trans­pa­rent in­for­mie­ren.

Zu­sätz­lich greifen die Vor­schrif­ten des Te­le­kom­mu­ni­ka­ti­on-Te­le­me­di­en-Da­ten­schutz-Gesetzes (TTDSG), sobald auf In­for­ma­tio­nen im Endgerät des Nutzers zu­ge­grif­fen wird – z. B. beim Einsatz von Cookies oder Pixeln.

Die Logfile-Analyse ist also da­ten­schutz­kon­form möglich, wenn Sie Daten sparsam erheben, zeitnah an­ony­mi­sie­ren und Ihre Be­su­che­rin­nen und Besucher trans­pa­rent in­for­mie­ren. So lassen sich die Vorteile der Analyse nutzen, ohne recht­li­che Risiken ein­zu­ge­hen.

Server-Logfiles auswerten: Solide Basis für Ihre Web­ana­ly­se

Das Auswerten von Logfiles ist eine zu­ver­läs­si­ge Methode, um den Erfolg eines Web­pro­jekts zu messen. Wenn Sie Traffic und Nut­zer­ver­hal­ten re­gel­mä­ßig be­ob­ach­ten, können Sie Ihr Angebot gezielt an die Be­dürf­nis­se Ihrer Ziel­grup­pe anpassen. Ein Vorteil gegenüber Ja­va­Script-basierten Tracking-Tools wie Matomo oder Google Analytics liegt darin, dass Logfiles Daten auch dann erfassen, wenn Skripte blockiert werden. Gleich­zei­tig fehlen Kenn­zah­len wie Ab­sprungra­te oder exakte Ver­weil­dau­er, und Faktoren wie Caching oder dy­na­mi­sche IP-Adressen schränken die Ge­nau­ig­keit ein.

Trotz dieser Ein­schrän­kun­gen bieten Server-Logfiles eine solide und da­ten­schutz­kon­for­me Grundlage für die Log-Analyse. Sie sind besonders hilfreich, um Desktop- und Mobile-Zugriffe zu un­ter­schei­den, Bots und Crawler zu erkennen oder Feh­ler­quel­len wie 404-Seiten zu iden­ti­fi­zie­ren. In Kom­bi­na­ti­on mit weiteren Ana­ly­se­ver­fah­ren entsteht so ein um­fas­sen­des Bild über die Nutzung Ihrer Website.

Zum Hauptmenü