Technical SEO Audit Checkliste: 25 Punkte zum Prüfen
Ein Technical SEO Audit ist der Prozess, Ihre Website systematisch auf Probleme zu prüfen, die verhindern, dass Suchmaschinen Ihre Seiten wirksam crawlen, indexieren und ranken. Anders als Audits zu Inhalten oder Linkaufbau konzentriert sich ein technisches Audit auf die Infrastruktur: das HTML, die Serverantworten, die Seitenarchitektur und die Metadaten, auf die Suchmaschinen angewiesen sind, um Ihre Seite zu verstehen.
Diese Checkliste deckt 25 konkrete Punkte in fünf Kategorien ab. Zu jedem Punkt finden Sie eine kurze Erklärung, warum er wichtig ist und worauf Sie achten sollten. Ob Sie diese Prüfungen manuell durchführen oder einen SEO Crawler nutzen, um den Prozess zu automatisieren: die Liste abzuarbeiten liefert ein klares Bild der technischen Gesundheit Ihrer Seite.
Crawlbarkeit und Indexierung
Diese Punkte entscheiden, ob Suchmaschinen Ihre Seiten überhaupt erreichen und indexieren können. Probleme hier können ganze Abschnitte Ihrer Seite für Suchergebnisse unsichtbar machen.
1. robots.txt Konfiguration
Ihre robots.txt Datei sagt den Bots der Suchmaschinen, welche Teile Ihrer Seite sie crawlen dürfen. Prüfen Sie, dass sie unter ihredomain.de/robots.txt existiert, dass sie nicht versehentlich wichtige Verzeichnisse blockiert (etwa /blog/ oder Ihre Hauptinhalte) und dass sie Ihre XML Sitemap referenziert.
Worauf Sie achten sollten: Zu weit gefasste Disallow Regeln, fehlende Sitemap Direktive und jede Abweichung zwischen dem, was Sie blockieren wollen, und dem, was tatsächlich blockiert ist.
2. XML Sitemap
Ihre Sitemap ist eine maschinenlesbare Liste der Seiten, die Suchmaschinen indexieren sollen. Verifizieren Sie, dass sie existiert, in robots.txt referenziert ist, jede URL darin einen 200 Statuscode zurückgibt und keine Seiten enthält, die Sie auf noindex gesetzt oder umgeleitet haben.
Worauf Sie achten sollten: Sitemaps mit 404 oder 301 URLs, Sitemaps, die das Limit von 50.000 URLs oder 50 MB überschreiten, und völlig fehlende Sitemaps.
3. Noindex Direktiven
Ein noindex Meta Tag oder ein X-Robots-Tag Header sagt Suchmaschinen, eine Seite nicht in den Index aufzunehmen. Das ist nützlich für Dankeseiten, interne Suchergebnisse oder Staging Umgebungen. Das Problem entsteht, wenn wichtige Seiten versehentlich auf noindex landen.
Worauf Sie achten sollten: Crawlen Sie Ihre gesamte Seite und filtern Sie nach Seiten mit noindex. Gleichen Sie das gegen Seiten ab, die indexiert sein sollten.
4. Canonical Tags
Das rel="canonical" Tag sagt Suchmaschinen, welche Version einer Seite maßgeblich ist, wenn doppelte oder nahezu doppelte Versionen existieren. Jede indexierbare Seite sollte ein Canonical Tag haben, entweder selbstreferenzierend oder auf die bevorzugte URL zeigend.
Worauf Sie achten sollten: Fehlende Canonical Tags, Canonicals, die auf 404 Seiten zeigen, Canonicals, die auf umgeleitete URLs zeigen, und widersprüchliche Canonical Signale (die Seite sagt eines, die Sitemap ein anderes).
5. Redirect Ketten und Schleifen
Eine Redirect Kette entsteht, wenn URL A auf URL B leitet, die auf URL C leitet und womöglich noch weiter. Jeder Sprung fügt Umlaufzeit am Server hinzu und kann Linkkraft verwässern. Eine Redirect Schleife (A leitet auf B, B leitet zurück auf A) ist noch schlimmer, weil sie die Seite komplett unzugänglich macht.
Worauf Sie achten sollten: Jeden Redirect Pfad mit mehr als einem Sprung. Fassen Sie Ketten so zusammen, dass jeder Redirect direkt zum endgültigen Ziel zeigt.
On Page Elemente
On Page Elemente sind die HTML Tags, die direkt beeinflussen, wie Suchmaschinen Ihren Inhalt verstehen und darstellen. Probleme hier gehören zu den häufigsten und wirkungsvollsten.
6. Title Tags
Das Title Tag ist der einzelne wichtigste Rankingfaktor auf der Seite. Jede Seite sollte einen einzigartigen, beschreibenden Titel zwischen 30 und 60 Zeichen haben. Zu kurze Titles verschenken Rankingpotenzial. Zu lange Titles werden in den Suchergebnissen abgeschnitten.
Worauf Sie achten sollten: Fehlende Titles, doppelte Titles über verschiedene Seiten, Titles unter 30 Zeichen und Titles über 60 Zeichen.
7. Meta Descriptions
Meta Descriptions sind zwar kein direkter Rankingfaktor, sie beeinflussen aber stark die Klickrate. Jede Seite sollte eine einzigartige Meta Description zwischen 120 und 160 Zeichen haben, die den Inhalt der Seite treffend zusammenfasst und ein klares Nutzenversprechen enthält.
Worauf Sie achten sollten: Fehlende Beschreibungen, doppelte Beschreibungen, Beschreibungen, die zu kurz sind, um nützlich zu sein, und Beschreibungen, die 160 Zeichen überschreiten.
8. Heading Hierarchie
HTML Headings (<h1> bis <h6>) vermitteln die Struktur und die Themenhierarchie Ihres Inhalts. Jede Seite sollte genau ein <h1> haben, das das Hauptthema beschreibt. Unterüberschriften sollten einer logischen Reihenfolge folgen, ohne Ebenen zu überspringen (kein Sprung von <h1> auf <h3> ohne ein <h2> dazwischen).
Worauf Sie achten sollten: Seiten ohne <h1>, mehrere <h1> Tags, übersprungene Ebenen und Headings, die mit Keywords überladen statt beschreibend sind.
9. Alt Text bei Bildern
Alt Text erfüllt zwei Zwecke: Er macht Bilder für Screenreader zugänglich und hilft Suchmaschinen, den Bildinhalt zu verstehen. Jedes sinnvolle Bild (nicht dekorative Abstandshalter) sollte einen beschreibenden Alt Text haben.
Worauf Sie achten sollten: Bilder mit leeren oder fehlenden alt Attributen, Alt Text, der nur ein Dateiname ist (IMG_2847.jpg), und Alt Text, der übermäßig lang oder mit Keywords überladen ist.
10. Duplicate Content
Wenn mehrere URLs auf Ihrer Seite denselben oder sehr ähnlichen Inhalt liefern, tun sich Suchmaschinen schwer zu entscheiden, welche Version sie ranken sollen. Das verdünnt Ihre Ranking Signale über die Duplikate hinweg. Häufige Ursachen sind URL Parameter, druckfreundliche Seiten, HTTP und HTTPS Duplikate sowie Varianten mit und ohne www.
Worauf Sie achten sollten: Seiten mit identischem oder nahezu identischem Inhalt unter verschiedenen URLs. Nutzen Sie Canonical Tags, 301 Redirects oder Regeln für Parameter, um Duplikate aufzulösen.
11. Dünner Inhalt
Seiten mit sehr wenig substanziellem Inhalt (weniger als 200 bis 300 Wörter ohne Medien oder interaktive Elemente) können von Suchmaschinen als minderwertig gewertet werden. Kategorieseiten ohne Beschreibungen, Tag Seiten mit nur einer Linkliste und automatisch erzeugte Seiten sind häufige Kandidaten.
Worauf Sie achten sollten: Seiten mit geringer Wortzahl, die keinem bestimmten funktionalen Zweck dienen (wie ein Kontaktformular oder eine Loginseite).
12. Open Graph und Social Meta Tags
Open Graph Tags (og:title, og:description, og:image) bestimmen, wie Ihre Seiten in sozialen Medien angezeigt werden. Zwar kein Rankingfaktor, sie beeinflussen aber die Klickrate in sozialen Medien und die Markenwahrnehmung deutlich.
Worauf Sie achten sollten: Fehlende OG Tags, OG Bilder, die zu klein sind oder das falsche Seitenverhältnis haben, und OG Beschreibungen, die nicht zum Seiteninhalt passen.
URL Struktur und Links
Ihre URL Struktur und das Muster Ihrer internen Verlinkung formen, wie Suchmaschinen Ihre Inhalte entdecken und priorisieren. Probleme in diesem Bereich können Crawl Budget verschwenden und wichtige Seiten verwaisen lassen.
13. Kaputte interne Links
Ein kaputter interner Link ist jeder Link auf Ihrer Seite, der auf eine Seite mit 4xx Statuscode zeigt. Diese schaffen Sackgassen für Nutzer und für die Bots der Suchmaschinen. Jeder kaputte Link ist eine verpasste Gelegenheit, Linkkraft weiterzugeben und Nutzer zu relevanten Inhalten zu führen.
Worauf Sie achten sollten: Führen Sie einen Crawl aus und filtern Sie nach internen Links mit 4xx Antworten. Beheben Sie, indem Sie das Linkziel aktualisieren oder den Link entfernen.
14. Kaputte externe Links
Links zu externen Seiten, die entfernt, verschoben oder umgebaut wurden, geben 404 Fehler zurück. Kaputte ausgehende Links schaden Ihren Rankings zwar nicht so stark wie kaputte interne Links, sie verschlechtern aber die Nutzererfahrung und können auf vernachlässigte Inhalte hindeuten.
Worauf Sie achten sollten: Externe Links, die 4xx oder 5xx Statuscodes zurückgeben. Aktualisieren Sie die URL, entfernen Sie den Link oder ersetzen Sie ihn durch eine funktionierende Alternative.
15. Redirect Ketten bei internen Links
Neben der Prüfung, dass Redirects korrekt auflösen (Punkt 5), verifizieren Sie, dass Ihre internen Links auf endgültige Ziel URLs zeigen statt auf URLs, die umleiten. Wenn Ihre Navigation auf /alte-seite/ verlinkt, die auf /neue-seite/ umleitet, aktualisieren Sie die Navigation, sodass sie direkt auf /neue-seite/ verweist.
Worauf Sie achten sollten: Interne Links, deren Ziele 3xx Statuscodes zurückgeben. Aktualisieren Sie das href des Links auf die endgültige URL.
16. Verwaiste Seiten
Eine verwaiste Seite ist eine Seite, die auf Ihrer Website existiert, aber von keiner anderen Seite verlinkt wird. Suchmaschinen tun sich schwer, verwaiste Seiten zu entdecken, und selbst wenn sie sie über die Sitemap finden, signalisiert das Fehlen interner Links geringe Wichtigkeit.
Worauf Sie achten sollten: Seiten, die in Ihrer Sitemap oder im CMS auftauchen, aber keine internen Links erhalten. Fügen Sie interne Links hinzu oder überlegen Sie, ob die Seite überhaupt existieren sollte.
17. Tiefe der internen Links
Klicktiefe bezeichnet, wie viele Klicks nötig sind, um eine Seite von der Startseite aus zu erreichen. Seiten, die vier, fünf oder mehr Klicks tief vergraben sind, bekommen weniger Crawl Aufmerksamkeit und weniger Linkkraft. Wichtige Inhalte sollten in drei Klicks erreichbar sein.
Worauf Sie achten sollten: Seiten mit großer Klicktiefe, besonders solche, die Sie für Rankings als wichtig einstufen.
18. Lesbarkeit der URLs
Saubere, beschreibende URLs sind für Nutzer leichter zu verstehen und für Suchmaschinen leichter zu parsen. Vermeiden Sie übermäßige URL Parameter, Session IDs in URLs und URLs ohne semantische Bedeutung (wie /page?id=48271).
Worauf Sie achten sollten: URLs mit mehr als zwei Query Parametern, URLs mit Session IDs, URLs mit unnötiger Tiefe (/kategorie/unterkategorie/unter-unterkategorie/seite/) und URLs in gemischter Schreibung, die Duplikate erzeugen könnten.
Performance und Nutzererfahrung
Seitengeschwindigkeit und Nutzererfahrung sind bestätigte Rankingfaktoren. Die Core Web Vitals von Google messen direkt die tatsächliche Erfahrung echter Besucher auf Ihrer Seite.
19. Ladegeschwindigkeit der Seiten (Serverantwortzeit)
Time to First Byte (TTFB) misst, wie schnell Ihr Server beginnt, Inhalte auszuliefern. Ein TTFB über 600 Millisekunden deutet auf Performance Probleme auf der Serverseite hin. Ein vollständiges Page Speed Audit braucht zwar Werkzeuge wie Lighthouse, aber TTFB im Rahmen eines Crawls zu prüfen liefert einen nützlichen Überblick.
Worauf Sie achten sollten: Seiten mit TTFB konstant über 600 ms. Untersuchen Sie dafür die Serverkonfiguration, Datenbankabfragen oder das Caching.
20. Mobile Tauglichkeit
Google nutzt Mobile First Indexierung, was bedeutet, dass es primär die mobile Version Ihrer Seiten für Rankingzwecke bewertet. Ihre Seite muss auf mobilen Geräten voll funktional und lesbar sein, ohne horizontales Scrollen, ohne nicht abspielbare Medien und ohne zu kleine Tap Ziele.
Worauf Sie achten sollten: Seiten, die nicht responsiv sind, Inhalte, die auf dem Smartphone breiter als der Viewport sind, Text, der ohne Zoomen zu klein zu lesen ist, und interaktive Elemente, die zu dicht beieinander liegen.
21. Core Web Vitals
Core Web Vitals bestehen aus drei Metriken: Largest Contentful Paint (LCP, misst Ladegeschwindigkeit), Interaction to Next Paint (INP, misst Reaktionsfreude) und Cumulative Layout Shift (CLS, misst visuelle Stabilität). Sie werden aus echten Chrome Nutzerdaten gemessen und sind in der Google Search Console verfügbar.
Worauf Sie achten sollten: LCP über 2,5 Sekunden, INP über 200 Millisekunden und CLS über 0,1. Kümmern Sie sich zuerst um die Seiten mit den schlechtesten Werten, da diese Metriken das Ranking beeinflussen.
22. HTTPS Umsetzung
HTTPS ist ein bestätigtes Rankingsignal und eine Grundvoraussetzung für moderne Websites. Jede Seite sollte über HTTPS ausgeliefert werden, und HTTP Versionen sollten auf HTTPS umleiten. Gemischte Inhalte (HTTPS Seiten, die Ressourcen über HTTP laden) sollten beseitigt werden.
Worauf Sie achten sollten: Seiten, die über HTTP ausgeliefert werden, Warnungen zu gemischten Inhalten, abgelaufene oder falsch konfigurierte SSL Zertifikate und Weiterleitungen von HTTP auf HTTPS, die Ketten bilden.
23. HTML Größe und Anzahl der Ressourcen
Übermäßig große HTML Dokumente und Seiten, die Dutzende blockierende Ressourcen laden, verlangsamen das Rendering. Moderne Browser kommen zwar gut mit Komplexität zurecht, aber es gibt praktische Grenzen. Seiten mit HTML über 100 KB oder mehr als 100 Ressourcenanfragen verdienen eine Untersuchung.
Worauf Sie achten sollten: Ungewöhnlich große HTML Dateigrößen (oft durch inline SVGs, zu viele DOM Elemente oder doppelten Code verursacht), viele Ressourcenanfragen und CSS oder JavaScript Dateien, die das Rendering blockieren.
Strukturierte Daten und Rich Results
Strukturierte Daten helfen Suchmaschinen, Ihren Inhalt semantisch zu verstehen, und können erweiterte Darstellungen freischalten wie Sternebewertungen, FAQ Klappmenüs, Produktpreise und Breadcrumb Pfade.
24. Vorhandensein und Gültigkeit von Schema Markup
Schema Markup (meist als JSON-LD umgesetzt) liefert explizite, maschinenlesbare Informationen über Ihre Seiten. Häufige Typen sind Article, Product, LocalBusiness, FAQ, HowTo und BreadcrumbList. Das Markup muss syntaktisch gültiges JSON-LD sein und den spezifischen Anforderungen von Google für jeden Typ entsprechen.
Worauf Sie achten sollten: Seiten, die strukturierte Daten haben sollten, aber keine haben (Produktseiten ohne Product Schema, Artikel ohne Article Schema), JSON-LD mit Syntaxfehlern, fehlende Pflichteigenschaften und strukturierte Daten, die nicht zum sichtbaren Seiteninhalt passen.
25. Breadcrumb Markup
Strukturierte Daten für Breadcrumbs (BreadcrumbList Schema) helfen Suchmaschinen, Ihre Seitenhierarchie zu verstehen, und können in den Suchergebnissen als Breadcrumb Pfad statt der rohen URL erscheinen. Das verbessert Klickraten und gibt Nutzern Kontext darüber, wo eine Seite in Ihrer Website sitzt.
Worauf Sie achten sollten: Fehlendes Breadcrumb Markup auf Inhaltsseiten, Breadcrumb Pfade, die nicht zur tatsächlichen Seitennavigation passen, und Breadcrumbs mit kaputten oder falschen URLs.
Ihr Audit durchführen
Alle 25 Punkte auf einer Seite mit mehr als ein paar Dutzend Seiten manuell abzuarbeiten, ist unpraktisch. Ein SEO Crawler automatisiert die meisten dieser Prüfungen, indem er jede Seite auf Ihrer Website besucht und die relevanten Datenpunkte in einem einzigen Durchlauf extrahiert. Werkzeuge wie Seodisias können diese Prüfungen lokal auf Ihrem Rechner ausführen und Ihnen ein vollständiges Audit liefern, ohne Ihre Seitendaten auf fremde Server zu laden.
Unabhängig vom Werkzeug hier ein praktischer Ansatz für Ihr Audit:
Nach Wirkung priorisieren. Nicht jedes Problem verdient sofortige Aufmerksamkeit. Ein fehlender Title auf Ihrer stärksten Landingpage ist dringender als ein fehlendes Alt Attribut auf einem Bild in einer Archivseite. Gleichen Sie Crawl Ergebnisse mit Ihren Analytics Daten ab, um sich auf die Seiten zu konzentrieren, die am meisten zählen.
Auf Template Ebene beheben. Wenn dasselbe Problem auf Hunderten von Seiten auftaucht, liegt die Ursache mit hoher Wahrscheinlichkeit in einem Template oder einer CMS Einstellung, nicht in einzelnen Inhalten. Das Template zu reparieren löst das Problem auf einen Schlag überall.
Nach der Korrektur erneut crawlen. Verifizieren Sie Ihre Korrekturen immer, indem Sie einen weiteren Crawl fahren. Es ist üblich, dass eine Korrektur ein neues Problem einführt, besonders bei Redirects und Canonical Tags.
Einen Zeitplan etablieren. Technische Probleme häufen sich mit der Zeit an. Plugins werden aktualisiert, Redakteure machen Änderungen und externe Seiten werden umgebaut. Führen Sie mindestens einmal pro Quartal ein vollständiges Audit aus und starten Sie gezielte Crawls nach jeder größeren Änderung wie einer Migration, einem Relaunch oder einer großen Inhaltsveröffentlichung.
Ihre Ergebnisse dokumentieren. Halten Sie fest, was Sie gefunden, was Sie behoben und was Sie zurückgestellt haben. Das schafft Verbindlichkeit, hilft neuen Teammitgliedern, schnell einzusteigen, und macht es einfach, Fortschritt über die Zeit zu verfolgen.
Zusammenfassung
Technisches SEO ist das Fundament, auf dem alles andere aufbaut. Großartige Inhalte und starke Backlinks können eine Seite, die Suchmaschinen nicht richtig crawlen und indexieren können, nicht ausgleichen. Diese 25 Punkte Checkliste gibt Ihnen einen strukturierten Rahmen, um die häufigsten und wirkungsvollsten technischen Probleme zu finden und zu lösen.
Beginnen Sie mit Crawlbarkeit und Indexierung, denn nichts anderes zählt, wenn Suchmaschinen Ihre Seiten nicht erreichen können. Arbeiten Sie sich dann durch On Page Elemente, Linkstruktur, Performance und strukturierte Daten. Jedes Problem, das Sie lösen, entfernt Reibung zwischen Ihrem Inhalt und den Menschen, die danach suchen.